Aller au contenu

quad-core trop puissant ?


Recommended Posts

J'étais moi aussi assez enthousiaste à l'idée de cette technologie avant lol. Puis j'ai eu une tablette équipé S3 sur laquelle on pouvait virer l'asynchrone avec un kernel spécifique (qui rend les coeurs synchrones). Voyant tout le monde vanter les mérites de ce Kernel j'ai testé... résultat, tu avais bien des coeurs synchrone, une réactivité légérement meilleure (tu gagnais surtout en latence ce qui est logique) et une autonomie presque inchangée (en fait j'ai jamais vraiment vu de différence mais certains en voyait une très légère, de l'ordre d'une 15aine de minute sur une charge complète).

Du coup j'ai compris pourquoi personne ne s'y mettait à part Qualcomm lol.

Par contre la gravure à 28nm, ça sa le fait ^^…

Lien vers le commentaire
Partager sur d’autres sites

Mais les S3 ne sont pas aussi puissant que les S4, du coup, le premier coeur peut gérer quelque chose de plus gourmand, laissant une plus grande marge avant l'activation du second coeur, du coup la différence S3/S4 sera plus facilement notifiable. Sans parler de la gravure :D

Comme toujours, faut attendre des tests sur quelques jours après leur sortie officielle pour parler pratique :)

Lien vers le commentaire
Partager sur d’autres sites

En fait c'est plus compliqué que ça pour les dualcores.

Dans l'absolu, ce qu'il faut voir c'est que faire tourner 1 core à plein régime ça demande plus d'énergie que 2 cores à bas régime (car tu as des choses que tu ne peux pas désactiver car c'est commun au 2 cores). Or, un dualcore assez puissant ne dépasse que rarement les 500Mhz (malgré un tier de mon temps passer à surfer, mon SGS2 a passer 78% du temps à 200Mhz, 13% à 500Mhz, 3% à 800Mhz, 2% à 1Ghz et 4% à 1.2Ghz soit 9% du temps au dessus de 500Mhz) alors qu'un monocore lui tourne souvent à une cadence bien plus haute car même si les app sont rarement multithreadés sur Android, tu as toujours 5-6 processus peu gourmand qui tournent en arrière plan. Un dualcore synchrone lui va conserver un core pour l'app en premier plan et l'autre pour les process en tâche de fond. Un dualcore asynchrone utilisant la technologie de Qualcomm lui va conserver 1 core allumé qui va switcher de process en process pour se taper tous les calcules jusqu'à être saturer et devoir faire appel au second core. Pire encore, ce sont généralement les applications les plus gourmandes qui sont multithreadés (navigateur, jeux, décodage et encodage vidéo, ...) du coup un dualcore synchrone n'a pas de mal à concerver des fréquences basses sur ce type de tâches alors qu'un dualcore asynchrone lui va se retrouver régulièrement 1 core à fond et l'autre à 192Mhz (c'est du vécu lol).

L'asynchrone géré comme Qualcomm le fait sera tout à fait justifié sur des quadcore (3 cores pour gérer les processus en arrière plan, même à 200Mhz, c'est n'importe quoi) ou si il était géré différemment (un core qui fluctue sur l'app principale et l'autre au minimum pour gérer l'arrière plan mais ce n'est pas possible sur Android).

Pour moi, la meilleure stratégie sur des dualcore c'est celle de TI et, dans une moindre mesure, de Samsung : un core sur l'app principale et l'autre sur les processus d'arrière plan qui peut aussi aider sur les apps multithreadé, beaucoup de plages de fréquence pour un ajustement maximum et un up_threshold élevé pour que les CPU ne passent pas leur temps à monter en fréquence.

PS : désolé du pavé et pour tous ceux que j'ai endormi

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

Moi qui essaye de m’intéresser au sujet, j'ai trouvé ton post super compréhensible et pas du tout soporifique !

Avec tout ce que je viens de lire sur ce post, je pense que je peut affirmer que le HTC one X est une mauvaise alternative (Design bâclé et finition ENCORE en plastoc sur un haut de gamme, la seule contrepartie ? Un quadCore) Alors que le One S semble beaucoup plus envisageable (S4 + Finition superbe + prix), bien que j'hésite également avec le Xperia S..

Pour revenir au sujet, je pense que de toute manière un bon monocore bien optimisé sera toujours supérieur à un dualcore tout récent et mal optimisé. On peut constater la même chose avec le dualcore et QuadCore. C'est pour ça que j'aime beaucoup Sony sur ce point. Samsung lui profite de sa sortie avantageuse au milieu de l'année, afin d'avoir un QuadCore (ou dualcore pour le S2) mieux optimisé que ses concurrents sortis au début d'année comme HTC, ou LG.

Lien vers le commentaire
Partager sur d’autres sites

Oui Steo, c'est clair, pour moi, le HTC One S est le meilleur tél du MWC niveau finition et surface.

Hélas, il lui manque une batterie amovible et un slot microSD pour être dans ma liste de choix.

Lien vers le commentaire
Partager sur d’autres sites

Voyons voir ce que proposera l'iPad 3, à savoir si ça tournera ou non sur du Cortex A15, ça donnera de bonnes indications quand à la sortie du Galaxy S3 au niveau CPU.

Jusqu'à maintenant, je reste très perplexe de voir du dual core A15 pour le 1er semestre, mais l'an dernier j'étais aussi sceptique quand à la production de dual core pour l'iPad 2. Finalement, l'iPad a eu le dual core le plus performant à ce jour.

Lien vers le commentaire
Partager sur d’autres sites

Voyons voir ce que proposera l'iPad 3, à savoir si ça tournera ou non sur du Cortex A15, ça donnera de bonnes indications quand à la sortie du Galaxy S3 au niveau CPU.

Mettre un A15 dans une tablette c'est une chose (que Samsung s'apprête à faire, ils l'ont déjà dit). Le mettre dans un smartphone c'est pas pareil et, franchement, si le SGS3 a un Exynos 5250 alors à quoi va servir le 4412 ? Personnellement, je pense que c'est déjà une réponse quand à ce qu'on trouvera dans le S3. Par contre on aura certainement du A15 chez Samsung au deuxième srmestre (Note 2?)

Jusqu'à maintenant, je reste très perplexe de voir du dual core A15 pour le 1er semestre, mais l'an dernier j'étais aussi sceptique quand à la production de dual core pour l'iPad 2. Finalement, l'iPad a eu le dual core le plus performant à ce jour.

Niveau CPU, l'A5 n'est pas le meilleur SoC dualcore. C'est sur le GPU qu'ils ont fait forte impression et qu'ils laisse la conccurence loin derrière.

Modifié par Alex98
Lien vers le commentaire
Partager sur d’autres sites

Excellent post Alex.

@Kyogiro : Ce que tu sous entends par là, c'est que comme Samsung construit les processeurs Apple depuis un certains temps, cela nous donnerais une indication sur la structure du SGS III ?

Edit suite au post d'alex : Tout à fait pour le GPU de l'iPad, sur le CPU c'est moins glorieux (même si c'est bon)

Sinon une simple remarque, c'est bien beau de vouloir du A15 chz Samsung, mais je ne sais pas s'ils ont une structure avec des coeurs à moindre consommation comme les M4 chez TI.

Parce que je rappelle que les A15 consomme plus que les A9 (à gravure égale), c'est tout du moins ce que j'avais lu.

Modifié par Infernus
Lien vers le commentaire
Partager sur d’autres sites

Je me demande si les constructeurs Android ne sont pas en train de se fourvoyer en tombant dans le même piège que celui du PC a savoir miser sur le "toujours plus grand, toujours plus puissant" mais sans forcement se concentrer sur la réalité des besoins!

Beaucoup ne sont pas interessés par des ecrans 4.6" et plus encore, trop gros, pas pratique à transporter, difficile à tenir correctement en main..

Quel est l'interet des QuadCoeurs a tout prix? Pour le marketing? Soit, mais peut etre vaudrait il mieux fluidifier Android, optimiser les interfaces, etc.. plutôt que miser sur un maximum de puissance qui au final n'apportera rien de plus compte tenu de ce que l'on fait actuellement... eventuellement des jeux un peu plus beau mais bon...

Par contre, a part Motorola qui communique dessus (avec des tres grosses batteries), l'autonomie reste encore un gros point faible de ces smartphones, etc. etc.

Bref, perso les quadcoeurs, ca me fait pas rever,

Lien vers le commentaire
Partager sur d’autres sites

Ben, du Quad-core sur un smartphone, ça fait rêver quand même... c'est comme des écrans flexibles ou transparent... ou un windows qui boot en 2 secondes...

Mais sur smartphone, je pense que le rêve de tout à chacun (comme ça qu'on dit ? lol), c'est une autonomie de plusieurs jours.

Avec les avancées technologiques comme le rechargement solaire, ou bien les batteries en carbone, on a aussi du rêve :)

Lien vers le commentaire
Partager sur d’autres sites

Sinon une simple remarque, c'est bien beau de vouloir du A15 chz Samsung, mais je ne sais pas s'ils ont une structure avec des coeurs à moindre consommation comme les M4 chez TI.

Samsung a annoncer qu'ils intégreraient la technologie big.LITTLE à un SoC (sans doute l'Exynos 5250) dès cette année.

Sinon, question consommation, les nouveaux Exynos (4412 et supérieur) n'auront plus la même architecture que les 4210. Certains élément (comme la mémoire cache) seront divisés en plusieurs parties indépendantes qui s'éteindront et s'agit activeront en fonction des besoins (un peu comme sur le modèle de ce que fait TI avec la RAM). On verra les résultats mais sur un Exynos 4210, près de la moitier du voltage CPU est lié à des éléments extérieurs aux unités de calcule donc l'impact pourrait-être important.

À voir à l'usage pour moi.

Beaucoup ne sont pas interessés par des ecrans 4.6" et plus encore, trop gros, pas pratique à transporter, difficile à tenir correctement en main..

Quel est l'interet des QuadCoeurs a tout prix? Pour le marketing? Soit, mais peut etre vaudrait il mieux fluidifier Android, optimiser les interfaces, etc..

L'optimisation de l'OS n'appartient pas aux concepteurs de SoC. C'est à Google de s'en occuper. Chacun son métier et son travail. Et je vois mal TI mettre la clé sous la porte parce que Google n'optimise pas Android donc qu'on va attendre qu'ils le fasse pour faire d'autre SoC lol.

plutôt que miser sur un maximum de puissance qui au final n'apportera rien de plus compte tenu de ce que l'on fait actuellement... eventuellement des jeux un peu plus beau mais bon...

L'intérêt a tout de même été présent jusque là. La nouvelle génération de SoC apporte, par exemple, la capacité de décoder n'importe quel fichier vidéo. La prochaine (en A15) apportera de vraies performances de computing ce qui permettra enfin de faire avec des tablettes ce qu'on fait avec nos PC (de l'encodage vidéo par exemple, ou, pourquoi pas, compiler du code).

Par contre, a part Motorola qui communique dessus (avec des tres grosses batteries), l'autonomie reste encore un gros point faible de ces smartphones, etc. etc.

Contrairement aux apparences, chaque constructeur y va de sa petite innovation pour réduire la consommation : TI aura ses coeurs M4 basse consommation ; Nvidia a son 4-PLUS-1 ; Qualcomm mise sur l'Asynchrone et la finesse de gravure ; Samsung utilisera la finesse de gravure, une nouvelle architecture et le big.LITTLE.

Lien vers le commentaire
Partager sur d’autres sites

Oui d'autant plus qu'il est très bien construit :)

Et comme le souligne un des commentaires, on aura toujours pour être sûr une comparaison possible entre le HTC One X et XL, étant donné que les deux embarques l'une et l'autre solution, là ça sera véridique.

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

Mettre un A15 dans une tablette c'est une chose (que Samsung s'apprête à faire, ils l'ont déjà dit). Le mettre dans un smartphone c'est pas pareil et, franchement, si le SGS3 a un Exynos 5250 alors à quoi va servir le 4412 ? Personnellement, je pense que c'est déjà une réponse quand à ce qu'on trouvera dans le S3. Par contre on aura certainement du A15 chez Samsung au deuxième srmestre (Note 2?)

Niveau CPU, l'A5 n'est pas le meilleur SoC dualcore. C'est sur le GPU qu'ils ont fait forte impression et qu'ils laisse la conccurence loin derrière.

C'est clair comme je le disais au début le S3 aura le 4412 en quad (avec je pense le mali T604)mais en fréquence élevé genre 1.6-7GHz minimum, et la réel innovation sera le 5250quad A15 à 2 GHzen fin d'année (note2 car extrêmement puissant) .Ou sinon je le dit il y a des rumeurs sur un s2 HD plus un S3 soit deux modèles donc un s2 en 4412 et un s3 en 5250 mais la 40% de cette hypothèse soit réalisable

Lien vers le commentaire
Partager sur d’autres sites

@Alex : En fait, je n'ai jamais réellement trouvé la partie CPU de l'A5 à la "ramasse" (et il est cadencé moins vite) mais par contre, le GPU, lui est loin devant, une génération d'avance.

@Infernus : Comme Samsung fournit les A4 et A5 à Apple et qu'à chaque fois, des similitudes importantes apparaissaient au niveau architecture (hors GPU), il me semblait logique que 2012 serait aussi dans cette optique là. Je pense avoir ma réponse assez tôt avec l'annonce de l'iPad 3 (qui aurait donc lieu peu avant celle du Samsung Galaxy S3).

Concernant l'utilisation du 4412 si le 5250 sort, sur le S3, ça m'étonnera pas de voir le 4412 sur du S3 modifié type "Samsung Galaxy S3 R" ou autre lettre à la fin, c'est pas comme si Samsung n'avait jamais fait le coup à base de SG2 sous du Qualcomm S3 ou du TI.

Après, je pense qu'il est toujours important d'apporter des innovations technologiques (plus de puissance, optimisation ou autre). De nouvelles utilisations peuvent être créées à partir de ça. On a eu bien plus de bande passante, ça a permis la généralisation du streaming, de la VOD, des podcasts, etc...

Modifié par Kyogiro
Lien vers le commentaire
Partager sur d’autres sites

Sans être méchant avec Qualcomm, ils ont une certaine réputation dans la manipulation de chiffre. Sans remonter trop loin, je me rappelle encore des Adreno 205 qui devait rivaliser avec les performances graphique de la PSP ou même des PowerVR SGX540 (j'en ris encore... jaune, j'avais un SoC Qualcomm S2, peu de temps après la sortie du SoC il y avait des jeux trop gourmand pour lui...), des S3 aussi rapide que les A9 ou de l'asynchrone qui faisait économiser 50% d'énergie (lol) ou bien Velamo où, à la sortie, les S3 étaient référencés avec des perfs javascript supérieures aux Exynos 4210 alors qu'ils avaient en fait entre 33% et 50% de retard de perfs à ce niveau...

Déjà, dans leur chiffre, il y a un truc qui ne va pas, c'est que les S4 sont indiqué comme ayant des performances supérieurs aux Tegra 3 en CPU sur Quadrant sauf que, d'après les vidéos du MWC qu'on trouve sur YouTube, c'est tout le contraire. Sur Quadrant, les Tegra 3 détruisent les S4 (un Tegra 3 fait 12.000+ en CPU contre environ 8000+ pour les S4)...

On pourra aussi s'interroger sur les résultats Linpack Multithread qui sont assez différents de la différence que Anandtech à trouvé et publié sur leur site... alors que normalement elle est largement à l'avantage des S4. A se demander si ils ont vraiment fait le test.

Le reste des benchs n'étant pas encore connu on va dire qu'on leur fait confiance... enfin plus ou moins quoi...

@Alex : En fait, je n'ai jamais réellement trouvé la partie CPU de l'A5 à la "ramasse" (et il est cadencé moins vite)

Je n'ai jamais dit qu'il était "à la ramasse". D'aileurs il ne l'est pas. Il a exactement les mêmes performances/Mhz qu'un SoC Exynos 4210 ou qu'un TI 4460 sauf qu'il est cadencé moins vite effectivement (faute à la consommation plus importante du SoC je présume).Du coup les Exynos et OMAP4 l'emporte quand même une fois intégré dans un smartphone.

Lien vers le commentaire
Partager sur d’autres sites

@Alex : je sais bien, je n'essayais pas de te faire dire quelque chose. Nous sommes d'accord, c'est d'ailleurs pour ça que j'ai bien donné une précision quand à la différence de fréquence.

Lien vers le commentaire
Partager sur d’autres sites

Bon, comme on commence en fait à avoir un certains nombre de chiffres intéressant sur les S4 et les Tegra 3, je me suis dit que c'était le moment pour un premier résumé (détaillé) de ce à quoi on peut s'attendre. Au programme, plein de chiffres et de benchs donc préparez vous à dormir =p.

A l'origine, Qualcomm annonçait ses CPU Krait comme 32% plus rapide que des A9 en calcule d'entiers (3.3DMIPS/Mhz contre 2.5DMIPS/Mhz pour les A9). Pour égaler les performances théoriques d'un quad A9 @ 1.3Ghz, un S4 dualcore doit être cadencé à 2Ghz et à 2.3Ghz si il veut rivaliser avec un Quad A9 @1.5Ghz. @ 1.5Ghz, un S4 est sensé rivaliser avec un Quad A9 @ 1Ghz. Bien entendu, c'est purement théorique et pas vraiment représentatif de ce qu'on aura en réalité.

Passons donc à la réalité (actuelle) justement. Nous disposons actuellement de pas mal de benchs (Sunspider, Nenamark 2, Quadrant, Linpack, Antutu, GLBenchmark) des deux plateformes ce qui peut nous permettre de tirer, déjà, quelques enseignements sur ce à quoi nous devons nous attendre (à vrai dire c'est plus de benchs que n'en utilise n'importe quel site spécialisé HW lol).

A mon sens, pour bien faire, il faut séparer ces benchs en 3 catégories : performance de calcule d'entier (ce qui compte dans la vie de tous les jours, pour lancer une apps, la faire tourner ou naviguer sur le Web), performane de calcul à virgule flottante (utile pour le décodage vidéo ou pour la physique dans certains jeux) et performance du GPU (utile pour jouer mais aussi pour l'accélération HW de l'OS sur ICS).

Commençons donc par les performances en calcule d'entier.

Dans un premier temps, on peut s'attacher à deux benchs en particuliers qui sont intéressant car ils ne gérent pas les Quadcore. Ils sont donc, d'une certaine façon, l'occasion de voir ce que valent les Tegra 3 lorsqu'ils sont mit à "égalité" avec les S4. Ils s'agit bien entendu de Sunspider et de Browsermark (deux web-benchs).

Une première constatation donc : sur ces deux benchs les Tegra 3 et S4 sont pratiquement à égalité et pas très loin (du tout) devant des A9 dualcore ayant des versions de Webkit comparable mais une fréquence moindre. Comme je l'avais déjà montrer, à fréquence similaire et sous ICS, un SGS2 a les mêmes performances sur ces benchs qu'un S4 ou un Tegra 3. C'est normal pour un Tegra 3 basé lui même sur du A9 et limité ici à deux cores mais pour un S4 c'est mauvais signe. Notons que la MDP MSM8960 ne fait pas beaucoup mieux qu'un S4 dans un smartphone (et ça c'est bien).

source : http://images.anandtech.com/graphs/graph5584/44430.png

http://images.anandtech.com/graphs/graph5584/44432.png

Toujours sur les performances en calcule d'entier, interessont nous cette fois à des benchs prenant en charge les quadcore (Quadrant V2 et Antutu).

Quadrant d'abord : les résultats des Tegra 3 y sont carrément démentiels 12.000+ en CPU contre "seulement" 8500 pour les S4. Sur ce bench (multithreadé cette fois), les Tegra 3 donnent vraiment tout ce qu'ils et font 50% mieux qu'un S4 et 100% qu'un dualcore A9 @ 1.2Ghz. Du côté des S4 c'est moins glorieux puisqu'ils font 40% mieux qu'un A9 @ 1.2Ghz sous ICS (6000 en CPU sous Quadrant) mais avec une fréquence 25% plus élevée. On peut estimer qu'à la même fréquence un S4 fait, actuellement, 14% à 20% mieux qu'un A9 dualcore.

Source :

Pour les S4 :

One S à 1m46 :

One XL à 2m10 (contrairement à ce qui est dit dans la vidéo ce n'est pas un X mais bien un XL c'est spécifié dans l'article de HTC Hub) :

One X (en Tegra 3) à 1m31 :

LG X3 (Tegra 3) : http://www.androidbuster.com/2012/02/lg-x3-ics-quadrant-benchmark.html?m=1

Dans la même ligné, un bench Antutu (multithreadé, compatible quadcore) des Tegra 3 nous montre que la bête atteint 3200+ en calcule d'entier contre 1700 pour un A9 dualcore @ 1.2Ghz. Encore une fois, on frise le 100% de gain de performances. Cette fois, nous n'avons pas les résultats des S4 pour comparer mais il est presque certain, au vu de ce qu'on sait sur les CPU Krait et les A15, que les S4 dualcore @ 1.5Ghz puisse même s'approcher de ce résultat.

Source : One X à 5m43 :

Passons maintenant aux performances de calcules à virgules flottantes.

Sur ce point, on devra se contenter des résultats de la MDP MSM8960 face à des Tegra 3 déjà intégrés à des appareils. Mais la différence est telle que, même une fois placés dans un smartphone, les S4 resteront certainement les grands vainqueurs : sur Linpack, les S4 font plus de 210contre un "modeste" 135 pour les Tegra 3. Les performances des S4 s'envolent tandis que les Tegra 3 restent prochent des A9 dualcore (110 pour un Note @ 1.4Ghz). On pourrait éventuellement se demander si il n'y a pas un problème de multithread sur Linpack mais la vu des performances des Tegra 3 en single-thread a de quoi nous faire comprendre que non.

Source : http://images.anandtech.com/graphs/graph5559/44377.png

http://images.anandtech.com/graphs/graph5559/44378.png

Question 3D, c'est encore assez floue pour le moment. On dispose, en gros, de 3 benchs : Egypt 720p, Pro 720p et Nenamark 2.

Sur GLbenchmark Egypt 720p, les Tegra 3 l'emporte très nettement avec une différence de 28% de framerate par rapport aux S4 et de 50% par rapport au Mali-400 @ 267Mhz.

Sur Pro 720p, là encore, les Tegra 3 l'emporte sur le S4 mais avec un écart de seulement 7%.

Sur Nenamark 2, l'écart se réduit encore plus puisqu'un HTC One XL et une Transformer Prime avec des résolutions proches affichent presque les mêmes scores.

Source : http://images.anandtech.com/graphs/graph5584/44441.png

http://images.anandtech.com/graphs/graph5584/44442.png

Nenamark 2 720p sur HTC One XL (S4) à 0m49 :

Nenamark 2 800p sur Transformer Prime 4.0 (Tegra 3) à 7m47 :

Au final, pour le moment, je pense qu'il faut donner la victoire aux Tegra 3.

Si, en termes de GPU, pour moi, c'est du pareil au même et même si Qualcomm fait une belle percée niveau calcule à virgule flottante, ils perdent manifestement le nerf de la guerre : les calcules d'entiers.

Bien sûr, sur 2 coeurs les S4 semblent avoir une (très) légére avance sur les A9 mais pas assez, je pense, pour nous faire oublier la toute puissance des Tegra 3 dans une app multi-threadé.

Les Tegra 3 s'imposent, pour moi, à la fois comme un choix d'avenir et un SoC d'aujourd'hui. Et j'irai même plus loin, je pense que, malheureusement, il faudra attendre de vrai Dualcore A15 @ 2Ghz pour enfin dépasser le niveau de performances atteind par les Tegra 3.

Toutefois, si je devais choisir entre un S4 dualcore et un Tegra 3 aujourd'hui et bien je choisirais sans hésiter le S4.

D'abord car je n'adhère pas au concept du 4-plus-1. Pour moi la question se pose ainsi : pourquoi avoir un Quadcore ultra-puissant si c'est pour que ton mobile tourne en fait sur monocore ?

De plus je n'ai pas confiance dans la consommation des Tegra 3. Dès lors que tu fait autre chose que lire tes mails, la puce switch en quadcore et là je m'interroge : combien peut consommer une puce quadcore basée sur la même architecture hyper énergivore que les Tegra 2 et toujours gravée à 40nm ? À mon avis, faudra pas trop regarder de vidéo en flash sur le web lol.

Lien vers le commentaire
Partager sur d’autres sites

Très bon résumé !

Même questions sur le Tegra 3, qui sait, ce sera peut être une bonne surprise ! (j'ai de gros doute vu l'archi mais bon <<)

Edit : C'est d'ailleurs pour ça que je ne comprendrais pas l'interêt de Samsung pour sortir un Quad Core A9 :/

Modifié par Infernus
Lien vers le commentaire
Partager sur d’autres sites

Même conclusion, ce serait le S4 sans hésiter. Gravure 28 nm (et processeurs asynchrones) contre gravure en 40 nm sur le Tegra 3.

Sans discréditer l'utilisation du "4 plus 1", c'était déjà courant. Il me semble que les OMAP de TI utilisent une technologie comparable sans pour autant en faire la publicité.

A mon sens, le core companion est surtout un aveu d'échec de n'avoir pas pu revoir la consommation des quad cores à la baisse (après faut dire,, 4 cores Cortex A9 à 40 nm...).

Lien vers le commentaire
Partager sur d’autres sites

Rejoignez la conversation

Vous pouvez poster maintenant et vous enregistrez plus tard. Si vous avez un compte, connectez-vous maintenant pour poster.

Invité
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...