Infernus Posté(e) 29 février 2012 Share Posté(e) 29 février 2012 Exactement mon sentiment aussi, le S4 a l'avantage d'être asynchrone et avec une gravure plus faible. Après c'est sur que sur le GPU c'est pas du tout une révolution. @Morak : Ben avec le One X/S, PadFone et j'en passe. Max juillet à vue de nez Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Morak Posté(e) 29 février 2012 Share Posté(e) 29 février 2012 (modifié) Infernus, le One X est équipé de Tegra 3. (Et le S du S4 en effet, j'avais pas fait gaffe :)) Du coup, sur les 2 benchs ci-dessus, le S fait mieux que le X. Et vu que le S4 est en 28, techniquement il est censé moins consommer. Modifié 29 février 2012 par Morak Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Le_Poilu Posté(e) 29 février 2012 Share Posté(e) 29 février 2012 De toute façon on s'en fout de tout ça! Cette année Intel va tout pourrir avec son x86 Medfield et suivant :P Plus sérieusement, c'est marrant cette discussion, ça me rappel les mêmes débats à l'époque des premiers double-coeur et ensuite quad sur PC :D C'est exactement la même chose: bataille de fréquence, bataille de consommation, bataille de puissance, bataille de chiffre, etc Et au final tout ça pour? Ben pour se retrouver avec des CPU 100x plus puissant que ce que réclame un usage traditionnel par un utilisateur lambda qui fini avec une machine bien trop puissante par rapport à ses besoins :P Entrendre par là: la course à la puissance c'est bien je n'ai rien contre le progres, etc. Mais au final il y a quand même 80% de grosses ficelles marketing dans tout ça :P Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
kenzo979 Posté(e) 29 février 2012 Share Posté(e) 29 février 2012 Ah ouais le s4 est une dérive du A15 La c'est le dual core Le tregra 3 en quand égal le dual s4 Mais le quad s4 va faire mal Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 29 février 2012 Share Posté(e) 29 février 2012 Ah ouais le s4 est une dérive du A15 La c'est le dual core A ma connaissance, les S4 ne sont pas des dérivés des A15 mais des dérivés de A9 intégrant des éléments de A15 pour des raisons de compatibilité future. Le tregra 3 en quand égal le dual s4 Mais le quad s4 va faire mal À priori, Sunspider, Browsermark ou Quadrant v2.0 n'utilisent que 2 coeurs et, malgrès tout, les Tegra 3 égalent les S4 en calcules d'entiers. Comme je l'ai dit, je ferai ce soir le test avec un SGS2 sous ICS @ ~1.5Ghz pour comparer mais j'ai bien l'impression que les S4 remettent surtout les CPU Qualcomm au niveau des A9 plus qu'autre chose. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 29 février 2012 Share Posté(e) 29 février 2012 @Morak : Non il y a deux version du X, une sous Tegra 3 et une sous S4. Si on veut être exact, c'est le XL qui a le S4 et le X qui est sous Tegra 3. Les S4 ne sont des dérivés de rien (ou alors très éloigné). C'est un proco construit par Qualcomm et intégrant les instructions ARM. C'est tout, je me suis fait insulté la dernière fois pour ne pas avoir dit ça. Alors je vous le dis maintenant :P Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
kenzo979 Posté(e) 29 février 2012 Share Posté(e) 29 février 2012 Ah oki ouais qualcomm en gros utilise une licence arm ''propre à eux '' avec comme même des trucs de chez arm Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 29 février 2012 Share Posté(e) 29 février 2012 (modifié) Chose promise, chose due : j'ai flashé une ROM ICS (un peu au hasard, on m'excusera. J'ai tout de même éviter CM9 qui n'utilise pas un kernel Samsung) et fait passer à mon SGS2 un petit coup de Quadrant V2.0. Par contre, je comptais OC mon CPU à 1.5Ghz pour me mettre à "égalité" avec les S4 mais ça n'a pas était possible car, Samsung n'ayant pas encore publié les sources ICS du SGS2, il n'y a pas de Kernel supportant l'OC pour le moment. Du coup les benchs sont à 1.2Ghz. Sans surprise, le SGS2 a des performances CPU identiques au Galaxy Nexus et tape environ 6000 en CPU (pour un résultat total de plus de 4000 =p ) contre environ 8500 pour les Tegra 3 (One X) et visiblement à peut près pareil (un peu moins on dirait) pour les S4 (One S). C'est donc dans la lignée de ce que j'avais déjà constaté sur Sunspider et Browsermark, les performances en calcules d'entiers des S4 sont similaires voir légèrement supérieures aux meilleurs dualcore A9 (OMAP 4460 et Exynos 4210) à fréquence égale. Un petit screen du score du SGS2 : https://lh4.googleusercontent.com/-5wcNyheMoqs/T05YZuJHJEI/AAAAAAAAARM/FQRraXkMXXw/s576/Screenshot_2012-02-29-17-41-53.png EDIT : au passage, il semble vraiment que presque aucun benchs n'utilise plus de 2 coeurs sur les Tegra 3 vu les résultats... Modifié 29 février 2012 par Alex98 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Morak Posté(e) 29 février 2012 Share Posté(e) 29 février 2012 C'est normal, les programmeurs des applications benchs n'ont pas sous la main un quad-core pour tester ^^ Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 1 mars 2012 Share Posté(e) 1 mars 2012 @kenzo : c'est pas une licence arm propre a eux. De ce que je sais il y a (au moins) 2 type de licences. La licence de "base", qui permet d'intégrer les Cortex proposés par ARM. La licence "architecture", qui t'autorise à intégrer les instructions qui rendront ton processeur compatible ARM (à ma connaissance il y a Qualcomm et Nvidia (qui devrait en profiter pour Tegra 4) qui possèdent cette licence) @Alex : Pour Tegra faudrait pouvoir voir la charge des coeurs en permanences pendant les benchs ce serait une bonne indication sur le fait qu'il y ait, ou non de la puissance sous le pied. Pareil pour le GPU, ça me paraît étonnant que le Tegra construit par un maître du GPU se fasse tellement ratatiner par l'Adreno 225. @Morak : En théorie t'as pas besoin de tester, mais encore faut-il que le test soit parallélisable. C'est bien le gros problème du siècle. On multiplie le nombre de coeurs, c'est bien, le problème c'est que la plupart des programmes sont séquentiels, et pas forcément parallélisables. Du coup on aura beau augmenter le nombre de coeurs, à part faire tourner plusieurs programmes différents en parallèles, cela n'augmentera pas les performances sur une application donnée. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 1 mars 2012 Share Posté(e) 1 mars 2012 @Alex : Pour Tegra faudrait pouvoir voir la charge des coeurs en permanences pendant les benchs ce serait une bonne indication sur le fait qu'il y ait, ou non de la puissance sous le pied. Pareil pour le GPU, ça me paraît étonnant que le Tegra construit par un maître du GPU se fasse tellement ratatiner par l'Adreno 225. A résolution égale, les Tegra 3 ont de meilleurs performances que les Adreno 225. Anantech a déjà fait le test avec un One S et un One X. Le Bench de référence : GLbenchmark Egypt 720p : http://images.anandtech.com/graphs/graph5584/44441.png Moins bon mais toujours instructif : GLbenchmark Pro 720p : http://images.anandtech.com/graphs/graph5584/44442.png Bon, après, c'est pas glorieux. Ils sont encore loin d'un SGX543MP2 et pas mieux qu'un Mali-400MP4 @ 400Mhz. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 1 mars 2012 Share Posté(e) 1 mars 2012 C'est impressionnant que personne n'arrive au niveau de ce SGX543MP2 depuis un an Oo Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 1 mars 2012 Share Posté(e) 1 mars 2012 La consommation éléctrique des SGX543MP2 est, à priori, énorme (à tel point qu'avec 50% de fréquence en plus, un Exynos 4210 consomme moins qu'un A5 lol). Donc il y a sans doute un lien avec ça aussi. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Morak Posté(e) 1 mars 2012 Share Posté(e) 1 mars 2012 Arf, je pensais que le HTC One S serait équipé de l'Adreno 320 GPU... mais en fait, cette puce ne viendra qu'avec les futurs quad-core qualcomm :( Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 1 mars 2012 Share Posté(e) 1 mars 2012 @Alex98 : Je ne connais pas la consommation du SGX543MP2 donc je ne saurais te dire ^^ @Morak : Ca doit faire 6 mois que Qualcomm a annoncé que les premières version des S4 seraient équipées de l'Adreno 225 et que les autres versions tournant sous Adreno 320 (et ils avait parlé de gravure plus fine mais j'ai des doutes) ne viendrait que 6 mois plus tard Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Morak Posté(e) 1 mars 2012 Share Posté(e) 1 mars 2012 (modifié) Oui je sais bien. J'ai regardé un article récemment, et j'ai mêlé quelques données sur le même article ensemble, vu que je le survolais. Donc le S4 est bien avec Adreno 225 snif ;) En revanche, c'est le S4 PRO qui sera équipé de l'Adreno 320 n'arrivera que fin 2012. Modifié 1 mars 2012 par Morak Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 1 mars 2012 Share Posté(e) 1 mars 2012 C'est ça, maintenant y'a plus qu'a espérer que y'ai pas de retard sur la roadmap comme d'hab... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Morak Posté(e) 1 mars 2012 Share Posté(e) 1 mars 2012 (modifié) Et pour infos, le directeur marketing de Sony, Stephen Sneeden, dit que la société attendra l’an prochain pour franchir le pas : "Nous intégrerons la technologie quad-core lorsque nous aurons le sentiment que les performances iront de pair avec la consommation, mais pour l’heure nous n’en sommes pas convaincus. Durant le second semestre de l’année, nous migreront vers l’architecture A15, qui dépassera largement les performances des quad-core actuels." Une raison de plus d'être plus méfiant envers le tegra 3 non ? ;) Modifié 1 mars 2012 par Morak Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 2 mars 2012 Share Posté(e) 2 mars 2012 Ouais enfin pour Sony, c'est un peu ce qu'ils disent, et beaucoup le fait qu'ils viennent à peine d'intégrer le S3... alors forcément les Quad-Core ça fait loin encore... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 2 mars 2012 Share Posté(e) 2 mars 2012 (modifié) @ Morak Concernant Linpack, ce benchs ne test QUE les performances de calcules à virgule flottante. Or, dans une utilisation "classique" d'un smartphone, ce type de calcule ne sert pour ainsi dire à rien car les apps n'utilisent que des entiers. Il est surtout utiliser pour faire des calcules de physique ou d'IA (utile sur PC donc) ou pour le dècodage de flux vidéo (mais une puce Tegra 3 peut décoder un MKV 1080p à 90mbps donc tu aura du mal à faire mieux pour le moment). Pour Sony, ils font juste de la démagogie. Ils ont choisi d'utiliser des S3 pour leur gamme S1 2012 alors que les S4 gravés à 28nm sont dispos, plus puissants et moins énérgivores. L'année dernière ils nous avez déjà fait le même sketch avec les monocores pour finalement utiliser cette année une vieille génération de dualcore... Si ils n'intégrent pas de Quadcore c'est surtout car ils ont 1an de retard technologique à ce niveau. Sinon, dans la théorie, d'après Samsung et TI, leurs SoC A15 dualcore seront 2 fois plus rapide que les meilleurs SoC A9 dualcore actuel. En théorie, les SoC A9 Quadcore sont déjà à ce niveau en puissance théorique. Sauf que, dans la réalité, une app ne peut jamais être 100% multithreadé sur 4 coeurs. De fait, Samsung, plus honnête que Nvidia, avait des stands de comparaison avec ses Exynos 4210 à l'ISSCC où on pouvait voir que les les 4412 sont plus rapide de 34 à 50% en calcule d'entiers et de 26% en calcule à virgule flottante. Donc oui, les A15 (les vrais) seront plus rapide que les Tegra 3. Modifié 2 mars 2012 par Alex98 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 2 mars 2012 Share Posté(e) 2 mars 2012 @Alex : On est d'accord sur Sony. Mais bon il faut leur laisser que ce sont ceux qui optimise le plus leur bouzin Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Morak Posté(e) 2 mars 2012 Share Posté(e) 2 mars 2012 Ok pour la virgule flottante, mais si c'était en calcul d'entier, le rapport serait plus ou moins conservé non ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 2 mars 2012 Share Posté(e) 2 mars 2012 (modifié) Ok pour la virgule flottante, mais si c'était en calcul d'entier, le rapport serait plus ou moins conservé non ? Pas du tout. Pour simplifier (un peu à l'extrême), les calcules à virgule flottante sont généralement effectué par une partie spécifique du CPU qui est designé spécifiquement pour ça (en général on appelle ça un FPU). Pour des calcules d'entiers ils faudra plutôt se référer à d'autres Benchs (Sunspider, Browsermark ou la partie CPU de Quadrant V2.0). Juste à titre d'info, un coeur d'Exynos 4210 est 20% plus rapide qu'un coeur Tegra 3 en calcule à virgule flottante à fréquence inférieure alors qu'un coeur Tegra 3 est manifestement bien plus rapide qu'un coeur d'Exynos 4210 en calcule d'entier. Modifié 2 mars 2012 par Alex98 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Morak Posté(e) 2 mars 2012 Share Posté(e) 2 mars 2012 Ok, donc en fait (et surtout), les calculs à virgule flottantes ne prennent pas en compte les divers caches du proco et donc aussi leur relation avec la mémoire. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 2 mars 2012 Share Posté(e) 2 mars 2012 (modifié) Sur des CPU ARM, à ma connaissance, le cache est partagé par tout le CPU. De même pour la mémoire RAM. C'est surtout l'architecture qui différe (et donc les performances). Et, à ce niveau, Qualcomm, Samsung ou TI ont une avance certaine sur Nvidia. Qualcomm en particulier est connu pour modifier lourdement cette partie de l'architecture de ces CPU (pas toujours pour le mieux d'ailleurs). Modifié 2 mars 2012 par Alex98 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Recommended Posts
Rejoignez la conversation
Vous pouvez poster maintenant et vous enregistrez plus tard. Si vous avez un compte, connectez-vous maintenant pour poster.