Aller au contenu

[Discussion] La technique et les smartphones/tablettes (ex-topic Cortex A15)


Alex98

Recommended Posts

Je ne suis vraiment pas expert dans le domaine (ma connaissance est même très limité) mais il me semble que les fonctions de chiffrement/déchiffrement sont particulièrement liés aux unités de calcule à virgule flottante et qu'elles sont, de plus, assez "faciles" à adapter au calcule parallèle.

J'imagine qu'une approche GP-GPU serait donc potentiellement la plus efficace dans ce domaine. Mais là mes connaissances sont vraiment trop limité pour le certifier.

Modifié par Alex98
Lien vers le commentaire
Partager sur d’autres sites

C'est le fait de faire calculer au GPU (processeur graphique) des choses destinées au CPU

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

Dans l'ordre les résultats sont ceux de :

- Snapdragon 600 @ 1.7Ghz [HTC One]

- Tegra 4 @ 1.9Ghz (fréquence +12%) [devboard donc probablement en mode "Performance"]

Les résultats entre parenthèses correspondent aux scores par rapport aux Snapdragon 600.

Antutu [CPU Natif]

RAM : 4200 / 7700 (+83%)

CPU : 11400 / 20300 (+78%)

GPU : 7400 / 7600 (+3%)

PS : la devboard de Nvidia a une résolution supérieure au 1080p d'environ 9%. Même en prenant en compte cette différence de pixels à traiter. Les Tegra 4 sont tous sauf impressionnant du point de vue GPU.

I/O : 900 / 900 (+0%)

Même si les performances des Tegra 4 semblent assez loin de ce qu'avait pu annoncé Nvidia* (particulièrement niveau GPU), il est clair que Qualcomm risque de se retrouver en grosse difficulté face aux futurs architectures A15 qui s' annoncent bien plus performantes que Krait.

Le seul espoir de Qualcomm réside sans doute encore dans l'éventuelle consommation des A15.

* on est environ 20% en dessous de ce qu'annonçait Nvidia.

Modifié par Alex98
  • Like 2
Lien vers le commentaire
Partager sur d’autres sites

Je m'en doutais pour le GPU, par contre pour le CPU le A15 est vraiment a des kilometres de Krait ... esperons que Qualcomm nous optimise tout ca pour le S800 (pour rappel les Snapdragon S3 en Cortex A8 de Qualcomm arrivaient a tenir les Cortex A9 des concurrents, alors on peut toujours esperer ... ou pas ^^ )

Apres le HTC One est quand meme peut etre ralentis par Sense et une ROM pas encore optimisée, alors que les devboards tournent sur de l'AOSP ... mais ca n'explique pas une telle différence ...

Il faut aussi voir ce que ca vaut niveau conso, parce que si il faut une batterie de 6000 mAh pour tenir la journée c'est mort pour les smartphones ... ou alors il va faloir clocker ca autour du Ghz mais c'est moins bon niveau marketing (Quand j'ai montré a un pote ma machine de guerre equipée d'un Core i7 3770k a 3.5Ghz, il m'a répondu "c'est nul moi mon processeur il a 3.8Ghz" ... c'est un Pentium qui doit dater de 2005 ou 2006 - -' )

Modifié par HoM3r
Lien vers le commentaire
Partager sur d’autres sites

De l'aveux même de Qualcomm, les Scorpions n'étaient guère plus efficace que les A8. Les architectures scorpions etaient estampillés 2.1 DMIPS/Mhz contre 2 DMIPS/Mhz pour les A8 et 2.5 DMIPS/Mhz pour les A9. Sachant que les A9 étaient surtout une architecture qui visait à réduire la consommation (-30% par rapport aux A8) et que le gain de perfs étaient assez faible car essentiellement assuré par la multiplication des cores (on gagnait seulement 0.5 DMIPS/Mhz là ou les A15 nous font gagner au moins le double).

Dans la pratique, Qualcomm a du tout de même monter en fréquence plus rapidement que la concurrence (un A9 @ 1.2Ghz affichait des perfs similaires à un S3 @ 1.5Ghz).

Le problème est donc plus complexe pour Qualcomm aujourd'hui car les A15 ont été conçu dans l'optique d'augmenter les performances par core et non plus simplement le nombre de cores (probablement aussi plur faire face à l'accroissement potentiel de la concurrence du X86 sur le marché de la mobilité).

Cela étant dit, je pense que la consommation des A15 est effectivement astronomique. Nvidia a beau communiquer sur le fait que les A15 ont un rapport perfs/Watt meilleur que celui des Kraits, leur volonté de ne pas communiquer de TDP ni sur la consommation en veille ou même les difficultés qu'ils ont à trouver des partenaires en disent long à mon sens.

Adreno 320 vs Adreno 320 : un question de bande passante ?

Un nouvel appareil à fait son apparition dans les datas de GLBenchmark : le Samsun SHV-E300S.

Il s'agit d'un modèle équipé d'un Snapdragon 600 @ 1.9Ghz, d'un écran de résolution 1080p (pas de boutons virtuels), et d'Android 4.2.1.

Pourquoi j'en parle ici ? Et bien car il affiche un "impressionnant" score de 41.3 FPS à GLBenchmark Egypt HD Offscreen (2eme derrière l'iPad 4) là où le HTC One affiche 34.1 FPS avec le même GPU.

Cela représente 21% d'écart entre les deux appareils alors que rien, de prime abord, ne semble le justifier. En réalité, il semblerait que cet écart soit du à un manque de bande passante sur le One lié à l'usage de LPDDR2 tandis que le modèle de Samsung utiliserait de la LPDDR3.

On savait déjà, depuis l'iPad 3, que les GPU avait atteint un seuil où ils pouvaient être limité si la bande passante mémoire n'augmentait pas. Il semble malheureusement que le HTC One soit là pour nous en donner un exemple.

Le tout reste bien entendu à confirmé car l'on parle d'un appareil qui n'est même pas encore annoncé (car il s'agit probablement du GS4) mais il sera intéressant de voir en usage réel l'impact d'une plus grosse bande passante sur les perfs globale d'un mobile.

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

Y'a un truc qui me chiffonne, c'est l'absence d'ATI/AMD......

S'ils étaient entrés dans la danse, je suis sur que le hardware serait plus performant (puisque plus de concurrence) et la bibliothèque d'applications un peu plus fournies...

C'est dommage, ATI font d'excellents GPU, et de bons CPU... Leur gamme Radeon HD couplée à un vieux Athlon II donne d'excellents résultats en jeux (je fais tourner tous les jeux en 1080p).

Et je parle pas des FX et la qualité de la crypto...

Lien vers le commentaire
Partager sur d’autres sites

ATI fut présent sur le marché de la mobilité avec les GPU Adreno qui ont ensuite été racheté par Qualcomm. Actuellement, ils prevoient un retour sur le marché en 2014 de mémoire.

Salut @Alex98

Le Galaxy S4 aura bien un processeur exynos octa avec un GPU powerVR SGX 544MP.

D'ailleurs il est même compatible LTE.

De plus les résultats son visible depuis l'application Antutu.

Voici les premiers résultats sur antutu.

http://mobile.fanpage.it/samsung-galaxy-s-iv-exynos-5-octa-o-qualcomm-snapdragon-600-il-dubbio-persiste/

Modifié par kulasse
Lien vers le commentaire
Partager sur d’autres sites

J'en ai parlé (hier je crois) sur le topic du GS4. Malheureusement, si l'identification est bien celle d'un Exynos 5, les scores (publié sur le site d'Anandtech), eux correspondent à un S600 équipé LPDDR3 (ce qui rappelle au passage le bench GLBenchmark).

LG Optimus G Pro

J'en profitepour signaler que le LG Optimus G Pro (Snapdragon 600) affiche des scores GLBenchmark inférieurs au LG Optimus G (S4 Pro).

Lien vers le commentaire
Partager sur d’autres sites

La première question à se poser est, à mon avis, de savoir si Samsung avait le choix ?

Les Mali-T628 ne sont pas encore disponible, idem pour les PowerVR Serie 6. Les SGX554MP et Mali-T678 sont, quant à eux, sûrement bien trop gourmands pour un mobile.

Il ne reste donc que les Mali-T604 et T624 qui sont sensé développer à peu de chose prêt les même performances, c'est à dire, en gros, des performances similaires aux Adreno 320 des S600 de Qualcomm.

De fait, les SGX544 sont un meilleur choix car ils sont potentiellement plus performants que les 3 autres compétiteurs disponibles.

Si Anandtech tombe juste, il s'agit de PowerVR SGX544MP3 (confirmé par Samsung à l'ISSCC) qui serait cadencé à 533Mhz (ça c'est la partie rumeur mais c'est crédible).

Il s'agit en gros du même GPU que celui de l'iPhone 5 (SGX543MP3) mais avec une compatibilité DirectX en plus.

A 533Mhz, il double la fréquence de l'iPhone 5 et devrait théoriquement afficher des performances en production de polygones similaires à l'iPad 4 tandis que son filerate pourrait lui doubler celui de l'iPad 4.

Dans la théorie, il pourrait donc être le nº1 des GPU du marché actuel mais cela reste de la théorie.

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

Y'a un truc qui me chiffonne, c'est l'absence d'ATI/AMD......

S'ils étaient entrés dans la danse, je suis sur que le hardware serait plus performant (puisque plus de concurrence) et la bibliothèque d'applications un peu plus fournies...

C'est dommage, ATI font d'excellents GPU, et de bons CPU... Leur gamme Radeon HD couplée à un vieux Athlon II donne d'excellents résultats en jeux (je fais tourner tous les jeux en 1080p).

Et je parle pas des FX et la qualité de la crypto...

Le gros probleme d'AMD c'est la consommation et la dissipation thermique, ils ont moins de fric qu'Intel, et ne peuvent pas faire évoluer aussi vite leur architecture, (Tous leurs CPU sont encore gravés en 2013 a 32nm quand Intel a déja sorti des CPU 22nm depuis l'ete 2012, et veux vendre des CPU et SoC mobiles gravés a 14nm avant la fin de cette année 2013 ... autant dire qu'ils ont une bonne longeur d'avance) ce retard sur l'architecture leur coute cher, en effet meme si ils ont fait un gros travail avec leurs architectures Bulldozer et Bobcat, il est dur pour eux de garder un TDP correct avec des performances a la hauteur des concurrents, et bien souvent la température s'en ressent aussi, tout cela est incompatible avec le monde du mobile ...
  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

Intel n'utilise pas son process 22nm pour le marché des SoC mobiles. Ils sont encore sur du 40/32nm avec en plus un désavantage en terme de densité (sur ces process) par rapport à TSMC. Je ne pense pas que ce soit ce qui retient AMD de se lancer dans ce secteur.

A mon avis c'est plutôt qu'ils ont un gros retard de R&D à ce niveau et pas de cash pour le rattraper.

Intel lui avait déjà des architectures basses consommation et beaucoup de cash pour les convertir rapidement en quelque chose de viable pour les smartphones/tablettes.

Info Amusante

On se rappelle que Nvidia disait obtenir 57fps à GLBenchmark Egypt HD 1080p... et bien c'est vrai. Mais pas avec la version standard de GLBenchmark. Ils ont utilisé une version custom de l'app pour forcer l'usage d'un format de compression de texture moins lourd.

Modifié par Alex98
  • Like 2
Lien vers le commentaire
Partager sur d’autres sites

Juste pour le fun, voici la différence entre l'exécution d'un programme avec des textures en ETC1 (utilisé par Nvidia pour "optimiser"* les résultats des Tegra 4) et la même chose avec des textures normales :

Normal vs ETC1

Framerate : 13.2 fps vs 28.6 fps

Taille de la texture : 6021KB vs 1858KB

Temps de chargement : ~2033ms vs ~296ms

Bien entendu, c'est juste pour le fun. Ceci n'ayant pas vraiment d'intérêt

* Lol

Lien vers le commentaire
Partager sur d’autres sites

Et on a pas des images pour voir la différence en terme de rendu ? tu bacles le travail :P

Intel n'utilise pas son process 22nm pour le marché des SoC mobiles. Ils sont encore sur du 40/32nm avec en plus un désavantage en terme de densité (sur ces process) par rapport à TSMC. Je ne pense pas que ce soit ce qui retient AMD de se lancer dans ce secteur.

A mon avis c'est plutôt qu'ils ont un gros retard de R&D à ce niveau et pas de cash pour le rattraper.

Intel lui avait déjà des architectures basses consommation et beaucoup de cash pour les convertir rapidement en quelque chose de viable pour les smartphones/tablettes.

C'est vrai que j'ai pas trop suivi les Clover Trail et cie ... mais il me semblait qu'ils avaient dit prévoir des Atom (ou equivalent) gravés a 22nm pour 2013 et 14nm pour la fin d'année ... mais c'est peut etre dans ma tete ...

AMD a aussi des solutions tout en un avec ces APU (qu'ils vont d'ailleurs mettre dans les nouvelles consoles de salon) dont des solutions basse consommation (TDP a 4.5W) et ils doivent etre performants puisqu'AMD a promis que les tablettes sous Windows 8 qui utiliseront cet APU (Hondo de son p'tit nom) feront tourner des jeux PC tels que le dernier COD ... le soucis c'est que pour l'instant c'est que du vent, on en a pas encore vu la démonstration, on ne sait pas ce que ca vaut niveau conso, température ect ...

Lien vers le commentaire
Partager sur d’autres sites

Rejoignez la conversation

Vous pouvez poster maintenant et vous enregistrez plus tard. Si vous avez un compte, connectez-vous maintenant pour poster.

Invité
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...