Aller au contenu

[AUTRE] Samsung GSIII, Récapitulatif


Recommended Posts

@ elohir:

Le GT-i9500 référencé dans Gl-Benchmark est un LG star (quelque chose comme ça) avec du Tegra 2, donc celui là est hors jeu (quoique).

Le GT-I9300 est probablement le GS3 d'après les différents articles ou fiche sur Glbenchmark et rumeurs (on ne sera fixé que le 3 mai).

Le GT-I9800 peut soit être la vraie référence du GS3 (bien que le fossé serait trop large entre le GT-I9100 alias GS2 et le GS3), soit le futur GNexus soit le Note 2 (le GNote est normalement référencé en GT-Nxxxx, mais le GNote avait d'abord eu la référence GT-I9220 lorsque les rumeurs foisonnaient).

Bref, on n'est pas très avancé.

Modifié par Lenny Barres
Lien vers le commentaire
Partager sur d’autres sites

@elohir : Exynos 4412, Mali400MP4@400/440Mhz, Ecran 4.7/8" en 1280/720.

C'est ce qui est pratiquement certains

@CleonII : Parce que l'archi de Qualcomm n'est pas forcément la plus efficace, et que du coup cette avance sur les A9 est rattrapée par le processus de gravure de chez Samsung (qui réduit les temps de latences entre autres)

Lien vers le commentaire
Partager sur d’autres sites

Comment avec une architecture Cortex A9 pourrait être plus performant que les S4 par coeur ?

Je vais me répéter mais les Exynos 32nm sont gravé via le procesus de gravure High-K Metal Gate avec le profil Low Power High Performance qui a pour objectif de réduire la consommation mais aussi d'augmenter les performances par clock du CPU en réduisant le temps que met le courant à traverser le circuit.

D'après Samsung, cela augmente les performances CPU de 26% par rapport à leur ancienne méthode de gravure 45nm.

Et le Mali T-400 Mp4 est de loin bien inférieur au Adreno 225, à égal fréquence, mais après en overclockant à 500 mhz pourquoi pas !

En performance par clock oui mais les Mali-400 sont prévu pour une fréquence d'origine de 400Mhz contre 200Mhz (dans mes souvenirs) pour les Adreno 225.

Jusque là, Samsung utilisait une version downclocké à 267Mhz mais dans les Exynos 4412, le Mali-400 sera à 440Mhz d'après les sources. Du coup, en version Stock, les Exynos 4412 sont plus rapide niveau GPU que les S4 (cf : les benchs leaké du i9300 sur GLBenchmark qui sont au niveau du PowerVR SGX543MP2 de l'iPad 2).

Je repost le "tableau" d'indice de performances que j'avais déjà posté.

Pour précision, la méthode de calcule : score ÷ par nombre de coeur ÷ par fréquence

Puis transformation en base 100 à partir du score des Tegra 3.

Indice de performance en Base 100 des 3 SoC majeurs : Tegra 3, S4, Exynos 4412

Ces indices sont calculer à partir des résultats leaké par Antutu. Le Tegra 3 m'a servis de base 100 et les résultats sont des résultats par Mhz et par coeur (en gros ce sont des indices calculé pour 1 core à 1Mhz).

Résultat en base 100 : Tegra 3 - S4 - 4412

Calcule d'Entier : 100 - 135 - 127

Calcule à virgule flottante : 100 - 84 - 117

Lien vers le commentaire
Partager sur d’autres sites

En fait, moi même j'adorai les produits apple avant et je comptais sauter sur le très attendu iphone 5, mais non, ils ont sorti un 4s et ont gardé la même taille d'écran, c'est de là que j'ai décidé de me tourner vers android

Lien vers le commentaire
Partager sur d’autres sites

*Facepalm*

Déjà de 1) Les S4 sont gravés en 28 nm, et surtout la gravure ça ne concerne que la consommation ( et par conséquent la chauffe ), tu pourrais le graver en 1 nm que ça serait exactement pareil au niveau perf.

Et de 2) Les mali T-400, Adreno 22X enfin presque tous ont leur fréquence d'origine à 266Mhz.

Le plus important c'est le nombre d'unité de calcul du GPU ( Mali : 18 , Adreno 225 : 32 )

Donc à fréquence égal ( puisque la fréquence peut-être modifié par n'importe qui par un kernel ), l'Adreno est environ x1.75 plus puissant.

Lien vers le commentaire
Partager sur d’autres sites

@Cleon : Si tu dis ça, c'est que tu ne comprends rien au fondement d'un processeur. Forcément le fait d'augmenter la finesse de gravure permet de réduire les distances à parcourir et du coup baisse les temps de latence et de fait augmente les performances.

Cela permet aussi de changer la tension ou le courant du circuit, ce qui modifie les temps de stabilisation des registres par exemple.

"Le plus important c'est le nombre d'unité de calcul" -> t'es pas sérieux quand tu racontes ça ? 2 architectures ne sont pas comparables. On peut obtenir des performances semblables avec un nombre de coeurs différents, d'autant plus que la définition de coeurs est totalement fausse actuellement. Y'a tellement d'unité différentes qui n'ont pas les mêmes fonctions.

Lien vers le commentaire
Partager sur d’autres sites

Et pour ton tableau, c'est pas fiable, les scores obtenus proviennent de smartphones dont les roms ( et kernels ) sont conçus par les constructeurs, et selon leur optimisation ça varie très grandement.

Genre chez Htc et les Qualcomm, et Samsung et Qualcomm

@Infernus Ok, j'exagère, négligeable, surtout dans un cas comme du 40 à 32.

Il y a les facteurs comme l'optimisation du kernel oui, mais ici les unités de calculs ( et pas coeur, puisque seul les Mali et Geforce utilise le terme de "core" ), sont à peu près au même niveau.

Oui, 2 architectures sont comparables, sinon ça servirait à quoi de faire des test ? Genre Anandtech va dire : "bah les Iphone 4 et 4S n'ont pas la même architectures donc on les compare pas !"

Modifié par CleonII
Lien vers le commentaire
Partager sur d’autres sites

Sauf que les coeurs graphiques ne sont pas du tout comparables. Les coeurs comme ils les comptent remplissent des rôles différents suivant l'architecture.

De même sur les ordinateurs les architectures Nvidia et AMD ont des nombres de coeurs différents et pourtant des performances comparables

Lien vers le commentaire
Partager sur d’autres sites

@ elohir:

Le GT-i9500 référencé dans Gl-Benchmark est un LG star (quelque chose comme ça) avec du Tegra 2, donc celui là est hors jeu (quoique).

Le GT-I9300 est probablement le GS3 d'après les différents articles ou fiche sur Glbenchmark et rumeurs (on ne sera fixé que le 3 mai).

Le GT-I9800 peut soit être la vraie référence du GS3 (bien que le fossé serait trop large entre le GT-I9100 alias GS2 et le GS3), soit le futur GNexus soit le Note 2 (le GNote est normalement référencé en GT-Nxxxx, mais le GNote avait d'abord eu la référence GT-I9220 lorsque les rumeurs foisonnaient).

Bref, on n'est pas très avancé.

C'est là que je voulais en venir avec ma question de Kies! C'est Kies qui référence le S3 sous GT-I9300 mais cette annonce prématurée est étrange à mon gout. Ça ne m'étonnerait pas que ce soit faux. On verra -___-

Lien vers le commentaire
Partager sur d’autres sites

Comme dit précédemment, le nombre d'unité de calcul d'un gpu n'a rien a faire dans la différence de performance entre 2 architectures différentes, il permet par contre une comparaison entre 2 architectures de la même famille (adreno 225 contre 220 ou future 320? mali 400 vs 600?...)

Il y a quelque chose qu'y m'embête pas mal, c'est la mode de comparé les performances brut à même résolution (le fameux 720p offscreen de glbenchmark), pour moi il s'agit du résultat du moins intéressant, puisque qu'il ne témoigne pas des résultats de l'appareil dans son utilisation réel (rendu a l'écran prenant compte sa résolution).

Même s'il permet de dépasser les fameux 60fps, étant offscreen, il gonfle encore plus les performances, comme on peut l'observer sur le galaxy nexus, qui avec son écran 720p fait un meilleur score en offscreen sans atteindre les 60fps :/

Ce qui sera intéressant, ca sera le résultat du mali 400 à 400mhz dans le GS3, avec un software final, comparé a sa concurrence (dont le GS2 avec le mali à 267mhz)

On aura beau dire qu'il arrive à égaler le 543mp2 en offscreen, si en vrai il se fait battre par le GS2, ca sera décevant, mais ca on ne pourra vraiment en parler que dans une semaine :)

Autre chose, c'est sur l'inutilité des 4 cœurs (cpu), j'ai déjà entendu cette histoire en informatique, lorsque j'ai voulu changer de cpu, j'avais hésité entre un double cœur et un quad, sensiblement aux même prix, bien sur tout le monde disait jette toi sur le double -> meilleur perf, quad ca sert a rien...

Résultats : j'ai passé une année 2011 absolument horrible niveau jeux, problème qui ne semblait pas atteindre les possesseurs du fameux q6600 (j'avais misé sur un e6750 à l'époque)

Le quad ne sert sans doute à rien aujourd'hui et pour les 6 prochain mois, mais pour ceux qui comme moi gardent prés de 2 ans leur mobile?

Les quad vont se démocratiser, les programmes vont voir leurs threads se multiplier, et le dual vont transpirer!

L'année dernière c'était : le dual ca sert a rien, vaut mieux un bon single, aujourd'hui qui va conseiller un single core sous android?

Nvidia l'a bien compris, et son quad est utilisé dans les jeux, à votre avis d'où viennent les optimisations spéciales tegra 3?

Beaucoup du cpu, ce sont surtout des opmisations physiques calculées par les 2 autres coeurs (sous l'appellation physX, mais différente de celle sur pc).

Pour moi, les futures arms a15 suivront ce genre de classification : les duals pour les milieu de gammes, des quad en haut de gamme (avec big.LITTLE sans doute :) ) et des a7 pour le reste qui viendront remplacer les a9.

Donc voila, a mon avis cracher sur les quad est juste stupide d'ici l'année prochaine on verra leur importance avec des programmes un tant soit peu optimisés.

Désolé pour le pavé, mais j'avais pas mal de chose à dire, moi aussi je suis les nerfs et je compte les jours, mais il est temps que ça se calme, entre fake, multiples numéro de séries, déceptions sur le SOC, design.....je pense qu'il est mieu de ne rien prendre au sérieux et d'attendre calmement la semaine prochaine ;^)

Merci ^^

Lien vers le commentaire
Partager sur d’autres sites

C'est possible androto, mais perso, je me basais plutôt sur la fiche technique de GLBenchmark http://www.sammobile...I9500-N8000.png

Par contre, eux ne mentionnent pas de GT-I9800, mais le Note 2 GT-N8000 qui aura probablement les mêmes specs que le GS3, mais en 5 pouces + (c'est juste le screen size qui est bizarre du N8000).

4nPix: C'est à peu près l'époque où j'ai commencé à me monter des pc^^. Sauf que j'ai eu l'argent nécessaire un peu après à la sortie des premiers Q9xxx (un Q9300 soit disant un Q6600 en 45nm), une abomination lol. J'étais aussi parti du principe que si j'avais plus de cores, cela me servirait dans le multi tâche et lorsque les jeux seraient optimisés quad core. Je pensais aussi qu'une 4870x2 serait mieux qu'une 4870 et me permettrait de tenir plus longtemps. Je n'avais pas pensé à la chauffe titanesque, le bruit similaire à un avion et les nombreux bugs, BSOD,... suite à cette chauffe (même le watercooling ne calmait pas encore tout à fait la bête, c'étaient les drivers qui plantaient ^^). Par contre le quad core s'averait plus véloce sur le multi-tâche windows. Les dual core sont plus vite KO dans le multi tache sous windows (j'ai un Athlon II X2 et il est vite à terre quand je lance quelques applis). Après je suis passé sur un I7 920 et une 5870 et c'est devenu le paradis.

Modifié par Lenny Barres
Lien vers le commentaire
Partager sur d’autres sites

Par contre, eux ne mentionnent pas de GT-I9800, mais le Note 2 GT-N8000 qui aura probablement les mêmes specs que le GS3, mais en 5 pouces + (c'est juste le screen size qui est bizarre du N8000).

Oui il correspond parfaitement à la résolution du note actuelle (800px de large, certainement5.3" aussi) mais avec les boutons ICS dans l'écran.

C'est là que je voulais en venir avec ma question de Kies! C'est Kies qui référence le S3 sous GT-I9300 mais cette annonce prématurée est étrange à mon gout. Ça ne m'étonnerait pas que ce soit faux.

Je pense l'inverse :P Justement le fait que cela provient directement de source interne à Samsung me font croire que c'est juste. D'autant qu'il y a le détail inédit du i19300T pour l'opérateur AT&T.

Lien vers le commentaire
Partager sur d’autres sites

Désolé à tous les autres pour le pavé qui va suivre.

@ CleonII

Les S4 sont gravés en 28 nm

C'est vrai mais pas avec la même technique de gravure. TSMC utilise un processus différent.

et surtout la gravure ça ne concerne que la consommation ( et par conséquent la chauffe ), tu pourrais le graver en 1 nm que ça serait exactement pareil au niveau perf.

Quelques morceaux choisis de l'intervention de S. Yang (ingénieur en chef en charge du developpement des SoC chez Samsung) à l'ISSCC.

Ici il explique pourquoi ils ont choisi le HKMG :

"Process engineers can target either performance or low power in the HKMG process."

A savoir que le HKMG propose 3 profiles de gravures Super Low Power, High Performances Plus et Low Power-High Performances.

S. Yang a ajouté quelques mots sur l'intérêt de ces possibilités :

"32nm HKMG design would yield a 40% improvement in delay, said Yang. Alternatively, by targeting the same timing performance, leakage would be reduced by a factor of 10."

Il a aussi sorti sa jolie demo temps réelle pour montrer l'augmentation du nouveau design d'Exynos (dualcore 32nm vs dualcore 45nm).

" With 1080p video encoding, Samsung reported a 26% performance improvement in frame rate generation over the previous generation design."

Là sa touche surtout les calcules à virgules flottantes mais ça montre que leur nouveau design est plus performant et c'est sur qu'on retrouve dans le leak d'Antutu.

Tiens d'ailleurs, oh miracle, que retrouve-t-on dans les scores Antutu : les Exynos 32nm apparaissent 27% plus rapide que les Tegra 3 en calcule d'entier et les S4 35% alors que les deux constructeurs annoncent des gains de 26% (Samsung) et 32% (par rapport au A9. Qualcomm annonce les 3.3DMIPS/Mhz contre 2.5 pour du A9 standard).

Le plus important c'est le nombre d'unité de calcul du GPU ( Mali : 18 , Adreno 225 : 32 )

La notion d'architecture t'es visiblement étrangère.

Deux unités de calcules (quelques soit leur définition) n'ont pas nécessairement les mêmes performances.

D'ailleuurs, avec le même nombre d'unité de calcule annoncé (32 d'après Anandtech), l'iPad 2 et son PowerVR SGX543MP2 (@250Mhz) bat le One S et son adreno 225 de 59% sur GLBenchmar Egypt 720p et et de 54% sur Pro 720p.

Le tout avec une fréquence GPU inférieure puisque les Adreno 225 serait, d'après toi, à 266Mhz*

* Ce qui d'ailleurs est faux d'après Anandtech. Les Adreno 220 étaient à 266 Mhz contre 400Mhz pour les Adreno 225 (qui rapellons le, n'est qu'une version OC des adreno 220) L'humiliation du S4 n'en est que plus cuisante lol ( http://www.anandtech.com/Show/Index/5559?cPage=3&all=False&sort=0&page=3&slug=qualcomm-snapdragon-s4-krait-performance-preview-msm8960-adreno-225-benchmarks )

Donc à fréquence égal ( puisque la fréquence peut-être modifié par n'importe qui par un kernel )

Désolé de te décevoir mais non. Toutes les architectures ne supportent pas l'OC de la même façon.

Tu ne peux pas savoir si la fréquence est permise par le GPU, si elle sera stable, ne chauffera pas trop, n'entrenera pas de surconsommation, n'endommagera pas le GPU...

Les Mali-400 sont nativement prévu pour tourner à 400Mhz.

l'Adreno est environ x1.75 plus puissant.

Faut revoir ta méthode de calcule.

Déjà, si on admet (ce qui je le répéte, est faux), que les Adreno 225 sont à 266Mhz. Le SGS2 (Mali-400MP4 @ 267Mhz), est battu par le One S de 24% sur Egypt 720p et de 32% sur Pro 720p.

Donc déjà à la base même ton postulat est faux est tu n'as pas prit le temps de vérifier.

Mais sachant qu'en plus les Adreno 225 sont à 400Mhz d'après Anandtech...

Et pour ton tableau, c'est pas fiable, les scores obtenus proviennent de smartphones dont les roms ( et kernels ) sont conçus par les constructeurs, et selon leur optimisation ça varie très grandement.

Genre chez Htc et les Qualcomm, et Samsung et Qualcomm

Ça tombe bien, les résultats des S4 viennent du One S qui, comme le rappelle Anantech : " The One S (MSM8260A - dual core Krait 1.5GHz) performs surprisingly close to our MDP MSM8960 in many tests."

Alors que, on le rappelera, la MDP utilise le Gov. "performance" et tourne donc toujours à la fréquence maximum.

Ça doit te rassurer je présume.

Cela dit, soyons clair, ce tableau n'a pas valeur de vérité absolu. Deja parce qu'il oppose un mobile non sortie à un modèle commercial... et en plus parce que c'est un leak donc niveau fiabilité...

Modifié par Alex98
  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

on sera jamais d'accord Ketj :P c'est de bonne guerre :)

là je suis d'accord! étant une info "officielle" c'est un peu de la paranoïa de chercher le complot mais j'adorerais et c'est pas exclu à 1000%...

aussi je voulais saluer les débatteurs... même en n'y connaissant absolument rien c'est interessant à suivre... ça me fait délirer des vrais geeks qui se prennent la tête entre eux :P je me moque pas j'admire!

Modifié par androto
Lien vers le commentaire
Partager sur d’autres sites

Franchement, j'ai pas la science infuse et y'a plein de notions qui me sont étrangéres.

Dans l'absolu, je pense que celui qui maîtrise le mieux le sujet sur le topic c'est Infernus.

Mais j'essai de faire un effort et de chercher un peu avant de balancer des trucs.

Lien vers le commentaire
Partager sur d’autres sites

Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.
×
×
  • Créer...