Aller au contenu

quad-core trop puissant ?


Recommended Posts

Bonjour, j'ai lu des rumeurs comme quoi des smartphones quad-core sortiraient l'année prochaine. Mais quad-core n'est pas totalement inutile ?? Le s2 avec son dual-core 1,2 ghz son largement suffisants non ? et puis tant de puissance dois bouffer plein de batterie... bref je me demandais si c'était bien ou plutôt inutile.. Merci à tous :)

Lien vers le commentaire
Partager sur d’autres sites

Non non c'est du marketing. Il faudrait d'abord qu'android soit bien optimisé pour les dual avant de faire des quad mais bon, ça se vendra, il y en a tjs qui veulent plus puissant ;)

En revanche les dual gravés en 28nm peuvent etre intéressants!

Modifié par Reggie
Lien vers le commentaire
Partager sur d’autres sites

Le problème ce n'est pas vraiment le système.

Android n'a pas à être plus optimisé pour les dual ou les quad, ce genre de chose est déjà intégré depuis longtemps.

Ce qui fait ou fera la différence ce sont, comme toujours dans ce genre de considération, les logiciels que l'on utilise.

Forcément si on se contente de regarder ses mails et envoyer des SMS on n'a pas besoin d'un dual ou d'un Quad-coeur.

Par contre celui qui joue beaucoup trouvera rapidement le bénéfice de la chose une fois que les jeux commenceront à en tirer partie.

Par ex de mon coté je me satisfais encore pleinement du "petit" mono-coeur 1Ghz de mon motorola Defy. L'usage que j'en ai ne m'apporte aucune nécessité quant à un CPU plus puissant.

Après, ça reste une question d'evolution des choses. Comme sur les CPU desktop x86 la montée en fréquence arrive à une barrière, la seule façon d'augmenter les perf. etant de multiplier les coeurs et d'optimiser les architectures. Et comme on cherchera toujours la performance bah ce genre de chose fait partie de la logique même du truc.

Lien vers le commentaire
Partager sur d’autres sites

Non mais regarde bien le gs2 n'a pas de mal sur les jeux? Et su tu ne le savais pas, si tu veux comparer à un iphone (faut l'avouer, les iphones ont toujours été fluides ou presque), c'est parce que le systeme demande moins de ressources. Et la faiblesse des téléphones android n'est pas le CPU mais le GPU! Ils n'ont pas tellement évolués depuis tres longtemps...

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

Non mais regarde bien le gs2 n'a pas de mal sur les jeux?

C'est pas ça la question...

Aujourd'hui GS2 est le maître étalon sur la puissance, mais les développeurs de jeux n'en doivent pas moins tenir compte du fait que des gens voudraient faire tourner le jeux sur une machine moins puissante.

C'est le même problème que sur PC: tu peux avoir des gens avec des PC gavés de GPU ultra puissants et d'un autre coté tu as Joe le Plombier qui veut aussi jouer au dernier jeux sur son Packard Bell acheté en solde chez Aldi.

C'ets comme ça depuis plus d'une décennie et ça n'a jamais empêche la course à la puissance des GPU entre Nvidia et ATI/AMD.

C'est pareil pour les smartphone aujourd'hui.

La course à la puissance cela tire tout le monde vers le haut au final ... On en bénéficie tous plus ou moins un jour même si l'on ne fait partie de ceux qui s'achètent le dernier truc "kikitoutdurjailaplusgrosse"

Et su tu ne le savais pas, si tu veux comparer à un iphone (faut l'avouer, les iphones ont toujours été fluides ou presque), c'est parce que le systeme demande moins de ressources

Attention avec les comparaisons hasardeuses avec l'iphone.

Si les jeux tournent mieux sur iPhone c'est que les développeurs peuvent optimiser leur code pour un matériel spécifique.

Là aussi on a le parallèle Consoles <-> PC. L'iPhone c'est la Playstation, Android c'est le PC. Résultat: pour avoir le même rendu final il faut une machine beaucoup plus puissante, non pas parce que le PC fait tourner un OS plus gourmand, mais parce que les développeurs ne peuvent pas optimiser leur code comme ils le peuvent quand ils ne visent qu'une seule configuration figée sur plusieurs années.

Et la faiblesse des téléphones android n'est pas le CPU mais le GPU

Nop. en partie peut-être. Mais le plus gros vient de la diversité d'appareils, de la diversité de chip SoC qui sont franchement différents.

Et dans le cas des machines ARM c'est même encore pire que sur PC où au moins les CPU x86 fonctionnent tous pareils.

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

les 4 coeurs du TEGRA3 c'est clairement du marketing inutile, aucune applis ne les utilisent ...

en revanche les futurs processeurs samsung, TI et qualcomm en dual-core architecture A15 (ou équivalent chez qualcomm qui a sa propre license ARM) ca sera beaucoup plus intéressent !

Lien vers le commentaire
Partager sur d’autres sites

les 4 coeurs du TEGRA3 c'est clairement du marketing inutile, aucune applis ne les utilisent

C'est toujours l'eternel problème:

Si aucun appareil n'est equipé de x coeur alors les développeurs ne vont pas s'em##er à développer des appli optimisées pour.

Mais quand on sort les premieres puces x coeurs forcément les appli n'existent pas encore pour en tirer partie et là on taxe ça de marketing inutile.

Il faut faire la part des choses:

- Soit c'est vraiment du marketing inutile et dans ce cas la question des applications optimisées ou non ne se pose pas car cela ne fait pas partie du problème. (exemple de marketing inutile: la 3D stéreoscopique sur un téléphone)

- Soit c'est juste un problème d'applications qui n'en tirent pas partie et là ça n'a rien d'un marketing inutile, c'est juste la logique des choses: on sort les puces d'abord pour que les développeurs commencent à s'y mettre et au fur et à mesure que ce type de puce se démocratise on aura de plus en plus de soft qui exploiteront cette puissance.

Dans tout ça une chose est sûre: personne ne vous oblige à acheter un truc equipé de x coeurs si vous n'en n'avez pas l'usage.

Pour ma part autant je n'envisage plus un PC sans minimum 4 coeurs, autant je me satisfais pleinement de mon Defy monocoeur 1Ghz compte tenu de mon usage.

Mais entre les deux, une tablette Tegra3 franchement j'dirais pas non, parce que je n'achète pas ce genre de chose tous les 6 mois donc j'espère bien qu'au bout d'un moment la partie logiciel aura rattrapé la partie matérielle.

Lien vers le commentaire
Partager sur d’autres sites

D'autant plus que les 4 coeurs n'est pas si marketing que ça, si l'OS se débrouille bien, il réparti la charge entre les coeurs, au lieu de tout mettre sur un coeur à fond (bien que le tegra 3 ne gère par l'asynchrone mais bon, dans l'idée c'est ça)

Lien vers le commentaire
Partager sur d’autres sites

le problème n'est pas uniquement "si les développeurs le veulent" encore faut il le pouvoir, sur un PC le multitâche est vraiment plus intense que sur un appareil android, multi-fenetre etc ...

une seul appli ne peut pas forcément couper ses processus en 4.

de plus des coeurs qui sont synchrones c'est vraiment ridicule

D'ou l’intérêt de seulement 2 coeurs , mais 2 coeurs vraiment puissants, (contrairement au Tegra3...) ce que vont faire tout les concurrents en passant au A15 très bientôt en 2 coeurs.

pour infos un OMAP4460 a 1.2Ghz a déja une puissance de calcul supérieur au Tegra3 sur deux coeurs, alors le 4460 a 1.5Ghz qui sort dans moins de deux semaines cher Archos, autant dire qu'il est bien plus puissant qu'un Tegra3.

le seul intérêt de ce SOC c'est la partie graphique, même si elle reste inférieur a des processeurs ARM standarts déja existants comme celui dans la puce "Apple" A6. Et c'est un intérêt très limité puisque déja aucun jeu ni applis ne peut faire plié les différents GPU haut de gamme actuel qui sont bien moins puissant que ce Tegra3.

Bref, il sera peut être utile dans 6 mois, sauf que dans 6 mois tout le haut de gamme sera en dual-core A15 et pulvérisera un Tegra3.

Acheter un Tegra3 aujourd'hui a 600 euros, c'est prendre le risque de le revendre 400 euros en mars/avril, sans en avoir jamais profité

Modifié par karenax
Lien vers le commentaire
Partager sur d’autres sites

  • 3 weeks later...
  • 1 month later...

Pour le moment les technologies ARM cortex-A? ne permettent pas l'utilisation supérieure a un A15 quad core a 2.5ghz. Donc il est peu probable que nVidia puisse mettre au point un 8 ceurs aussi rapidement.

Je pense plutôt que le prochain Tegra4 aura toujours 4 coeur mais avec une fréquence d'horloge plus elevé et une finisse de gravure meilleure. Bref plutôt qu'une course a la puissance nVidia devrait se concentrer sur la consommation d'énergie.

Il faut quand même penser que le 5 coeur "companion" du Tegra3 est en quelque sorte une aberation, un processeur ARM est normalement capable de correpondre au critères. Pour moi ce 5 ème coeurs est une preuve de l'incapacité de nVidia a rendre le Tegra3 moins energivore. Une rustine rien de plus.

Lien vers le commentaire
Partager sur d’autres sites

Le Tegra4 sera le passage au Cortex A15 pour Nvidia. Cela dit ils auront encore plus besoin de leur companion core.

@Xtrmboss : Ce que tu dis est faux, Nvidia utilise le Cortex A9 tel qu'il est proposé par ARM. Si tu regardes même TI l'a compris depuis longtemps en ajoutant ses coeurs M4, et pourtant tu n'es pas en train de râler sur eux.

Les coeurs A9 consomment (les A15 encore plus) et pouvoir décharger ces coeurs est une nécessité. Car il ne me semble pas que quelqu'un à part Qualcomm ne gère l'asynchrone (d'ailleurs pour ça qu'ils n'ont pas de coeurs supplémentaire)

On a beau cracher sur Nvidia mais ils arrivent très souvent en avance avec leur matos (bon c'est de la puissance brute certes), mais quand on voit le retard que prend TI par exemple :/

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

tu as raison Infernus en plus la série 5XXX de TI est annoncé mais vraiment comme une des plus puissantes!!! en therme CPU pour l'instant et en milieu d'années TI commencera à les envoyer chez les constructeurs

sinon le S4 de qualcomm est sortie et apparemment le s4 pro serait en préparation pour combler/effacer le manque de puissance sur sa partie GPU adrenos 225 est puissant mais vraiment pas assez par rapport à sa partie CPU qui déboite tout !!!

http://www.androidgen.fr/qualcomm-snapdragon-s4-pro-version-ameliore-s4-classique-actualite-2802.html

cette version devait sortie un peut plus tard mais je crois qualcomm à revue la date de sortie!!!

voila un gros processeur en A15!!!!! la tu as de la puissance!!

Lien vers le commentaire
Partager sur d’autres sites

Cela dit chez Qualcomm ce n'est pas du A15 ;)

Sauf que TI je crains fortement qu'ils arrivent trop tard :/ j'adore leur architecture et leur nouveau système de composition.

Ben l'Adreno 320 je trouve dommage qu'il ne soit pas encore prêt, ça aurait fait un tout génial avec le S4

Lien vers le commentaire
Partager sur d’autres sites

Il faut pas comparer un PC à un smartphone. De un.

De deux, le quad-core smartphone m'apparait de plus en plus comme un argument marketing pour vendre et pour dire qui a la plus grosse (comme les tailles des écrans..)...

Le prochain dual-core sera chez qui ?

Lien vers le commentaire
Partager sur d’autres sites

Beaucoup d'entre-vous sont particulièrement optimistes au sujet des performances des S4 mais personnellement, je le suis de moins en moins.

Les comparatifs Sunspider et Browsermark des One S et One X par Anandtech avaient déjà montrés que les Tegra 3 avaient des performances très très proches des S4 (voir carrément égales) en termes de calcules d'entiers et les dernières vidéos de HTCHub ne font que le confirmé.

Sur Quadrant v2.0 (qui prend en charge les dualcore directement avec les API ICS), les performances des Tegra 3 et des S4 sont encore totalement similaires.

One S :

One X :

Finalement, sortie des calcules à virgules flottantes, les S4 sont loin d'être impressionnant à mes yeux. Il faudra toutefois attendre de vrai benchs CPU (CF-Bench par exemple, pour ses résultats détaillés) pour mieux juger mais pour le moment c'est pas exceptionnelle.

PS : j'updaterai ce soir avec les perfs d'un SGS2 sous ICS pour comparer.

Lien vers le commentaire
Partager sur d’autres sites

J'aimerais aussi prendre en compte le rapport consommation/puissance du processeur.

Comprenez par là que si le S4 est lègèrement plus performant que le tegra 3, aura-t-il la même consommation ? Et vice versa ;)

Sachant que le S4 est en 28nm et que le tegra 3 en 40nm, on a des chances que le S4 soit plus intéressant que le Tegra 3.

Après une autre question : quand est-ce que le S4 sera dispo ? :)

Modifié par Morak
Lien vers le commentaire
Partager sur d’autres sites

Rejoignez la conversation

Vous pouvez poster maintenant et vous enregistrez plus tard. Si vous avez un compte, connectez-vous maintenant pour poster.

Invité
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...