Aller au contenu

[Discussion] La technique et les smartphones/tablettes (ex-topic Cortex A15)


Alex98

Recommended Posts

Et du coup va falloir augmenter et la batterie et la mémoire que les jeux vont pomper de la place avec des résolution comme sa

Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk

Encore une fois ca dépendra des développeurs, si le jeu est en 1080p et les textures a faible résolution, pas de soucis du coté de la mémoire ou du stockage ... d'ailleurs Alex tu sais comment ca fonctionne coté graphique ? sur PC je sais que les cartes graphiques ont toutes une mémoire dédiée avec une bande passante phénoménale, pour stocker les textures et cie, ainsi que le buffer (unité mémoire qui stocke les images pendent leur création jusqu'a leur affichage) mais sur mobile c'est comme sur les chipset intégrés, c'est la RAM dédiée au CPU qui est utilisée par la partie graphique non ?
  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

Ça dépend des GPU. Certains sont clairement plus économes que d'autres.

Parlant de GPU, Anandtech à publier un article ( http://www.anandtech.com/show/6666/the-tegra-4-gpu-nvidia-claims-better-performance-than-ipad-4 ) qui récapitule certain changement opérés sur les ULP Geforce qui équiperont les Tegra 4. L'article reprend aussi une déclaration de Nvidia qui annonce que les Tegra 4 seront plus rapide que les A6X du point de vu GPU.

Ense basant sur les déclarations de Nvidia, Anandtech a tenté de calculer les performances, en GFlops des Tegra 4 ce qui donne :

Exynos 5 Octa : 51.1 GFLOPS

A6X : 71.6 GFLOPS

Tegra 4 : 74.8 GFLOPS

En toute honnêteté, les performances de calcules ne peuvent pas réellement mener à une conclusion quelconque sur les performances réelles des GPU. Bien au contraire si on observe ce qui se passe en pratique :

GFlops théoriques :

IPad 3 : 32 Gflops

IPad 4 : 71.5 Gflops (+123%)

IPhone 5 : 25 Gflops (-22%)

Résultats GLBenchmark offscreen 1080p pas de V-Sync :

Egypt HD :

IPad 3 : 3019 Frames

IPad 4 : 5868 Frames (+94%)

IPhone 5 : 3290 Frames (+9%)

Egypt Classic :

IPad 3 : 9882 Frames

IPad 4 : 14999 Frames (+52%)

IPhone 5 : 10363 Frames (+5%)

Encore une fois ca dépendra des développeurs, si le jeu est en 1080p et les textures a faible résolution, pas de soucis du coté de la mémoire ou du stockage ... d'ailleurs Alex tu sais comment ca fonctionne coté graphique ? sur PC je sais que les cartes graphiques ont toutes une mémoire dédiée avec une bande passante phénoménale, pour stocker les textures et cie, ainsi que le buffer (unité mémoire qui stocke les images pendent leur création jusqu'a leur affichage) mais sur mobile c'est comme sur les chipset intégrés, c'est la RAM dédiée au CPU qui est utilisée par la partie graphique non ?

En général c'est effectivement la RAM qui sert au CPU qui est utilisé par le GPU. En général le système réserve une partie de la mémoire RAM au démarrage pour cette usage (c'est pour cette raison que le système ne voit pas toujours toutes la mémoire). C'est pour cela que les bandes passantes mémoire sont très rapide

Il n'y a qu'un seul GPU qui fonctionne différemment : les Tegra. Il n'est par contre pas clair si les Tegra réservent dynamiquement la mémoire dans la RAM générale ou bien si ils ont de la RAM dédiée. Rien n'indique que la seconde possibilité soit vraie (ni dans la doc. ni dans les teardown) mais certains le soutienne.

AMOLED quand tu nous tiens

Curieux de savoir si le nouveau matériau est bien l'usage du pholed mais en tout cas le gain d'énergie correspond et la situation "écran bien lumineux" ici choisi soutient aussi cette idée :

CES2013-5825_575px.jpg

Vicieux d'utiliser une image noir sur l'écran LCD :

CES2013-5824_575px.jpg

Edit :

Soyons clair sur un point (dont Anandtech essaie au maximum de ne pas parler) : si Nvidia a communiqué sur le GPU des Tegra 4 c'est uniquement pour répondre au leak de la honte (les résultats des devboards Tegra 4 ont été publiés par erreur sur GLBenchmark).

Je vous en propose un beau screenshot :

gsmarena_002.jpg

D'après ces résultats, les GPU des T4 seraient derrière le Mali-T604

Modifié par Alex98
  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

Moi j'aime l'OLED quand c'est pas Samsung qui fait les réglages (au CES sur les TV ils se sont gavés sur la saturation :/ )

Lien vers le commentaire
Partager sur d’autres sites

Sur mobile on ne peut plus vraiment dire ça aujourd'hui.

Hormis Apple et Nokia (et un peu Sony depuis peu mais c'est vraiment variable chez eux), aucun constructeur ne se soucis de la fidélité des couleurs sur smartphone/tablette. Et parmis les nuls, HTC et Samsung sont ceux qui s'en sortent le mieux et ils sont vraiment au coude à coude.

Lien vers le commentaire
Partager sur d’autres sites

Oui enfin la MAJ du Galaxy S2 prouve bien que les couleurs d'origine étaient volontairement horribles, meme si sue les Note et le S3 ils se sont appliqués ca doit etre aussi eux qui ont droit a la palme du pire ecran non ?

Lien vers le commentaire
Partager sur d’autres sites

Le GS2 dans son firmware d'origine a un dE d'environ 15 pour les couleurs en mode dynamique associé à une belle température de couleurs qui dpit taper les 9000k. Il avait, en revanche, un dE pas trop horrible pour les gris.

Il n'y a qu'un mobile LG qui rivalise je crois.

Modifié par Alex98
Lien vers le commentaire
Partager sur d’autres sites

<3 Amoled/Oled :P

Galaxy tab 7.7 : écran SAmoled+ HD de 7.7 pouces

Galaxy S3 : écran SAmoled HD de 4.8 pouces

PS vita : écran Oled de 5 pouces

Et j'ai remarqué que c'est le Samoled+ qui donne un des noirs des plus profonds donc j'espère un retour du + pour le SGS4 ^^

Suivi du Galaxy S3 (noir gris dans le noir) et de la vita (noir qui se rapproche trop du SLCD :()

Lien vers le commentaire
Partager sur d’autres sites

Le burn-in c'est du a quoi en clair ? C'est des pixel qui sont figée non ? Que je comprends pas pourquoi c'est que les écrans amoled qui soit toucher. Mon ancien S2 avait un burn-in au niveau de la barre de notif

Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk

Modifié par LoLoBaRjO
Lien vers le commentaire
Partager sur d’autres sites

Le burn-in c'est du a quoi en clair ? C'est des pixel qui sont figée non ? Que je comprends pas pourquoi c'est que les écrans amoled qui soit toucher. Mon ancien S2 avait un burn-in au niveau de la barre de notif

Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk

Le termes burn-in est utilisé à tord en fait. Je vais expliquer pourquoi.

En fait sur les écrans OLED les sous-pixels perdent progressivement de la luminance à mesure qu'on les utilise. Cette perte n'est pas uniforme en fonction des sous-pixels (un vert vit beaucoup plus longtemps qu'un bleu, par exemple), ni en fonction de leur usage (un pixel qui affiche uniquement du noir ne s' usera jamais, un pixel qui affiche souvent du bleu s' usera très vite).

Le burn-in sur OLED c'est en fait une différence visible d'usure des pixels (des sous pixels en fait). Ainsi, une zone qui affiche constamment une zone de notification noire perdra bien moins vite en luminance ce qui entraîne une démarcation visible pour l'utilisateur. A l'inverse, pour un clavier qui affiche ses lettres en bleu ou en blanc : les pixels perdent plus vite en luminance et là encore on pourra constater une démarcation.

Il existe plusieurs moyen de ralentir cette dégradation : mieux dimensionner les sous-pixels le plus sensible pour allonger leur durée de vie (PenTile), utiliser des sous-pixels pholed, homogénéiser l'usure des pixels (luminance faible sur les noirs, interface mieux adapté, ...)

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

De rien. D'ailleurs, j'en profite =p.

OLED vs PHOLED

J'en parle mais finalement je me dis que le concept n'est pas forcément connu de tous (car la technologie est récente)..

Actuellement, les écrans OLED utilisent le principe de la fluorescence pour produire de la lumière. Le problème est qu'avec ce procédé, une diode OLED n'a que 25% de chance de voir chaque exciton former un photon et donc produire de la lumière. En clair, un écran OLED gaspille 75% du courant qu'il consomme (c'est schématique bien entendu).

Une diode PHOLED est aussi une diode organique mais qui utilise le principe de la phosphorescence pour créer de la lumière. Avec cette technologie, l'efficience grimpe statistiquement à 100%. Ce qui permet une économie d'énergie drastique mais allonge aussi considérablement la durée de vie des sous-pixels (on passe de 14.000h pour un sous-pixels bleu fluorescent à 20.000h en pholed).

Depuis près d'un an on sait que Samsung teste cette technologie (qui aurait dû arriver avec le GS3) et on sait aussi qu'ils souhaitent remplacer dans un premier temps les sous-pixels verts.

L'Edit de la mort

Juste pour le fun, une matrice est composé de 33% de sous-pixels verts. Si chaque sous-pixels verts consomment 75% moins alors la matrice consomme finalement 33x0.75=25% moins.

Tiens ce n'est pas la baisse de consommation annoncée par Samsung justement ?

Modifié par Alex98
  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

Pour le noir si je me souviens bien de la conférence du S2 c'est plus d'ordre technique non? Le Samoled+ apportait un noir encore plus profond d'après samsung. Donc logiquement tous les samoled pentile ont un noir pas vraiment parfait ^^

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

J'ai pt'etre un train de retard, mais finalement le exynos 5 Ocra serait équipé d'un GPU PowerVR (le SGX 544MP3) a la place du Mali habituel ? une question me vient a l'esprit : Samsung fabrique presque tous ses composants, pourquoi ne développent t'ils pas leurs propre GPU ? ils en sont capables pourtant je pense non ?

Lien vers le commentaire
Partager sur d’autres sites

J'ai pt'etre un train de retard, mais finalement le exynos 5 Ocra serait équipé d'un GPU PowerVR (le SGX 544MP3) a la place du Mali habituel ?

[/Quote]

C'est la bataille des rumeurs : Anandtech annonce un SGX544MP3 @ 533Mhz tandis que Sammobile annonce un Mali-T658MP8.

Le problème est que le T658 a récemment été retiré de la liste des produits chez ARM puisqu'il faisait doublon avec le T628 qui, d'après AndreiLux, n'est pas encore prêt.

Du coup, le PowerVR SGX544MP3 est crédible, surtout à cette fréquence il sera compétitif (logiquement bien meilleur que les futurs Adreno 330).

une question me vient a l'esprit : Samsung fabrique presque tous ses composants, pourquoi ne développent t'ils pas leurs propre GPU ? ils en sont capables pourtant je pense non ?

Samsung a probablement les ressources R&D pour le faire mais pas forcément l'intérêt pour.

Les design de SoC vendu par ARM sont loin d'être parfait. Malgré leur réputation, cela reste une petite boîte qui met toutes ses ressources dans le design CPU/GPU et leurs intégrations sont souvent médiocres ou facilement améliorables. C'est pour ça que tous s'engouffrent dans le design de SoC avec core ARM (alors que ARM vend des design de SoC).

Par contre côté GPU il y a du monde et ce qui est produit est intelligent et bien adapté. Parfois même les GPU mobiles sont bien plus intelligemment fait que sur PC.

Du coup, Samsung ne doit pas voir un intérêt à se lancer dans du design GPU alors qu'il y a déjà des gens qui en vendent de bon pour un bouché de pain.

Lien vers le commentaire
Partager sur d’autres sites

Il est vrai que s'il y a revirement de situation de la part de Samsung concernant le GPU équipant le SoC du Galaxy S IV, cela pourrait être un coup dur pour ARM. De très loin, avec la gamme Galaxy (S2 et S3), Samsung est le premier acheteur des puces Mali400 même si on les retrouve dans d'autres appareils (mais leur nombre reste assez marginal par rapport aux volumes dégagées par Samsung).

D'ailleurs Alex, est-ce que tu sais ce qui aurait motivé Samsung, dans un premier temps, à abandonner les solutions IT (qui étaient déjà les plus performantes) pour aller vers les GPU ARM Mali avec son Galaxy S2 ?

Le Galaxy S1, avec son SoC, Humminbird était équipé d'un PowerVR SGX 540 (GPU qui me donne l'impression d'être resté pendant un bon moment).

Modifié par Kyogiro
Lien vers le commentaire
Partager sur d’autres sites

Ouais mais justement si ils ne se servent plus en GPU mali ARM va se retrouver le bec dans l'eau un peu non ?

Côté GPU, c'est probable.

La génération T6xx à d'excellentes performances et une architecture parfaitement équilibrée (contrairement aux Mali-400), le tout à très bas coût ce qui en fait assurément un GPU attirant pour les designer de SoC. Le problème c'est que la plupart des concepteurs de SoC (Apple, Qualcomm, Nvidia) ont déjà des partenariats ou des GPU maisons et n'iront donc pas vers ARM.

Il ne reste donc guère que ST-E et les designers chinois qui pourrait éventuellement être intéressé par les modèles bas/moyen de gamme

D'ailleurs Alex, est-ce que tu sais ce qui aurait motivé Samsung, dans un premier temps, à abandonner les solutions IT (qui étaient déjà les plus performantes) pour aller vers les GPU ARM Mali avec son Galaxy S2 ?

Le Galaxy S1, avec son SoC, Humminbird était équipé d'un PowerVR SGX 540 (GPU qui me donne l'impression d'être resté pendant un bon moment).

Difficile à dire. Les PowerVR SGX543 étaient déjà partiellement dispo quand Samsung a fait son switch donc ce n'est pas forcément un problème de Time To Market.

A l'époque, les Mali-400 etaient certes des GPU totalement déséquilibré (comme les ULP Geforce) mais (contrairement aux ULP Geforce) ils suivaient la tendance du marché du software mobile et offraient des perfs hors normes en pixel processing. Le tout à bas coût et avec une consommation maitrisée.

Je pense que c'est potentiellement ce qui a pu justifier le switch.

Modifié par Alex98
Lien vers le commentaire
Partager sur d’autres sites

Ça ne repond pas vraiment à la question de l'arrêt des livraisons depuis environ 1mois. Que la production qsoit insuffisante c'est une chose mais que la production soit quasi-inexistante c'est douteux.

De la à penser qu'il n'y a pas de hasard dans le fait qu'ils prevoient une reprise des libraisons après les annonces des constructeurs, il n'y a qu'un pas que je franchis allègrement

Lien vers le commentaire
Partager sur d’autres sites

Rejoignez la conversation

Vous pouvez poster maintenant et vous enregistrez plus tard. Si vous avez un compte, connectez-vous maintenant pour poster.

Invité
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...