lolobarjo Posté(e) 15 janvier 2013 Share Posté(e) 15 janvier 2013 Et du coup va falloir augmenter et la batterie et la mémoire que les jeux vont pomper de la place avec des résolution comme sa Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 15 janvier 2013 Share Posté(e) 15 janvier 2013 Et du coup va falloir augmenter et la batterie et la mémoire que les jeux vont pomper de la place avec des résolution comme sa Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Encore une fois ca dépendra des développeurs, si le jeu est en 1080p et les textures a faible résolution, pas de soucis du coté de la mémoire ou du stockage ... d'ailleurs Alex tu sais comment ca fonctionne coté graphique ? sur PC je sais que les cartes graphiques ont toutes une mémoire dédiée avec une bande passante phénoménale, pour stocker les textures et cie, ainsi que le buffer (unité mémoire qui stocke les images pendent leur création jusqu'a leur affichage) mais sur mobile c'est comme sur les chipset intégrés, c'est la RAM dédiée au CPU qui est utilisée par la partie graphique non ? 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 15 janvier 2013 Share Posté(e) 15 janvier 2013 Ok que je pensait que si la résolution augmenter les données supplémentaires (comme sur dead trigger) allait augmenter Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 15 janvier 2013 Auteur Share Posté(e) 15 janvier 2013 (modifié) Ça dépend des GPU. Certains sont clairement plus économes que d'autres. Parlant de GPU, Anandtech à publier un article ( http://www.anandtech.com/show/6666/the-tegra-4-gpu-nvidia-claims-better-performance-than-ipad-4 ) qui récapitule certain changement opérés sur les ULP Geforce qui équiperont les Tegra 4. L'article reprend aussi une déclaration de Nvidia qui annonce que les Tegra 4 seront plus rapide que les A6X du point de vu GPU. Ense basant sur les déclarations de Nvidia, Anandtech a tenté de calculer les performances, en GFlops des Tegra 4 ce qui donne : Exynos 5 Octa : 51.1 GFLOPS A6X : 71.6 GFLOPS Tegra 4 : 74.8 GFLOPS En toute honnêteté, les performances de calcules ne peuvent pas réellement mener à une conclusion quelconque sur les performances réelles des GPU. Bien au contraire si on observe ce qui se passe en pratique : GFlops théoriques : IPad 3 : 32 Gflops IPad 4 : 71.5 Gflops (+123%) IPhone 5 : 25 Gflops (-22%) Résultats GLBenchmark offscreen 1080p pas de V-Sync : Egypt HD : IPad 3 : 3019 Frames IPad 4 : 5868 Frames (+94%) IPhone 5 : 3290 Frames (+9%) Egypt Classic : IPad 3 : 9882 Frames IPad 4 : 14999 Frames (+52%) IPhone 5 : 10363 Frames (+5%) Encore une fois ca dépendra des développeurs, si le jeu est en 1080p et les textures a faible résolution, pas de soucis du coté de la mémoire ou du stockage ... d'ailleurs Alex tu sais comment ca fonctionne coté graphique ? sur PC je sais que les cartes graphiques ont toutes une mémoire dédiée avec une bande passante phénoménale, pour stocker les textures et cie, ainsi que le buffer (unité mémoire qui stocke les images pendent leur création jusqu'a leur affichage) mais sur mobile c'est comme sur les chipset intégrés, c'est la RAM dédiée au CPU qui est utilisée par la partie graphique non ? En général c'est effectivement la RAM qui sert au CPU qui est utilisé par le GPU. En général le système réserve une partie de la mémoire RAM au démarrage pour cette usage (c'est pour cette raison que le système ne voit pas toujours toutes la mémoire). C'est pour cela que les bandes passantes mémoire sont très rapide Il n'y a qu'un seul GPU qui fonctionne différemment : les Tegra. Il n'est par contre pas clair si les Tegra réservent dynamiquement la mémoire dans la RAM générale ou bien si ils ont de la RAM dédiée. Rien n'indique que la seconde possibilité soit vraie (ni dans la doc. ni dans les teardown) mais certains le soutienne. AMOLED quand tu nous tiens Curieux de savoir si le nouveau matériau est bien l'usage du pholed mais en tout cas le gain d'énergie correspond et la situation "écran bien lumineux" ici choisi soutient aussi cette idée : Vicieux d'utiliser une image noir sur l'écran LCD : Edit : Soyons clair sur un point (dont Anandtech essaie au maximum de ne pas parler) : si Nvidia a communiqué sur le GPU des Tegra 4 c'est uniquement pour répondre au leak de la honte (les résultats des devboards Tegra 4 ont été publiés par erreur sur GLBenchmark). Je vous en propose un beau screenshot : D'après ces résultats, les GPU des T4 seraient derrière le Mali-T604 Modifié 15 janvier 2013 par Alex98 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 15 janvier 2013 Share Posté(e) 15 janvier 2013 J'adore les écrans amoled, j'espère que les nouveaux écran seront géniaux. Je regrette que la N7 soit pas amoled ^^ Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 15 janvier 2013 Share Posté(e) 15 janvier 2013 Moi j'aime l'OLED quand c'est pas Samsung qui fait les réglages (au CES sur les TV ils se sont gavés sur la saturation :/ ) Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 15 janvier 2013 Share Posté(e) 15 janvier 2013 C'est vrai que quand Sammy fait c'est réglage sa pique un peu les yeux Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 15 janvier 2013 Auteur Share Posté(e) 15 janvier 2013 Sur mobile on ne peut plus vraiment dire ça aujourd'hui. Hormis Apple et Nokia (et un peu Sony depuis peu mais c'est vraiment variable chez eux), aucun constructeur ne se soucis de la fidélité des couleurs sur smartphone/tablette. Et parmis les nuls, HTC et Samsung sont ceux qui s'en sortent le mieux et ils sont vraiment au coude à coude. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 15 janvier 2013 Share Posté(e) 15 janvier 2013 Oui enfin la MAJ du Galaxy S2 prouve bien que les couleurs d'origine étaient volontairement horribles, meme si sue les Note et le S3 ils se sont appliqués ca doit etre aussi eux qui ont droit a la palme du pire ecran non ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 15 janvier 2013 Auteur Share Posté(e) 15 janvier 2013 (modifié) Le GS2 dans son firmware d'origine a un dE d'environ 15 pour les couleurs en mode dynamique associé à une belle température de couleurs qui dpit taper les 9000k. Il avait, en revanche, un dE pas trop horrible pour les gris. Il n'y a qu'un mobile LG qui rivalise je crois. Modifié 15 janvier 2013 par Alex98 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Dragonn Posté(e) 15 janvier 2013 Share Posté(e) 15 janvier 2013 <3 Amoled/Oled :P Galaxy tab 7.7 : écran SAmoled+ HD de 7.7 pouces Galaxy S3 : écran SAmoled HD de 4.8 pouces PS vita : écran Oled de 5 pouces Et j'ai remarqué que c'est le Samoled+ qui donne un des noirs des plus profonds donc j'espère un retour du + pour le SGS4 ^^ Suivi du Galaxy S3 (noir gris dans le noir) et de la vita (noir qui se rapproche trop du SLCD :() Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 15 janvier 2013 Auteur Share Posté(e) 15 janvier 2013 (modifié) Je suspecte Samsung d'avoir réintroduit une fuite très faible de lumière sur les noirs pour éviter le burn-in. Chose qui n'aura plus de sens avec le pholed Modifié 15 janvier 2013 par Alex98 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 15 janvier 2013 Share Posté(e) 15 janvier 2013 (modifié) Le burn-in c'est du a quoi en clair ? C'est des pixel qui sont figée non ? Que je comprends pas pourquoi c'est que les écrans amoled qui soit toucher. Mon ancien S2 avait un burn-in au niveau de la barre de notif Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Modifié 15 janvier 2013 par LoLoBaRjO Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 15 janvier 2013 Auteur Share Posté(e) 15 janvier 2013 Le burn-in c'est du a quoi en clair ? C'est des pixel qui sont figée non ? Que je comprends pas pourquoi c'est que les écrans amoled qui soit toucher. Mon ancien S2 avait un burn-in au niveau de la barre de notif Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Le termes burn-in est utilisé à tord en fait. Je vais expliquer pourquoi. En fait sur les écrans OLED les sous-pixels perdent progressivement de la luminance à mesure qu'on les utilise. Cette perte n'est pas uniforme en fonction des sous-pixels (un vert vit beaucoup plus longtemps qu'un bleu, par exemple), ni en fonction de leur usage (un pixel qui affiche uniquement du noir ne s' usera jamais, un pixel qui affiche souvent du bleu s' usera très vite). Le burn-in sur OLED c'est en fait une différence visible d'usure des pixels (des sous pixels en fait). Ainsi, une zone qui affiche constamment une zone de notification noire perdra bien moins vite en luminance ce qui entraîne une démarcation visible pour l'utilisateur. A l'inverse, pour un clavier qui affiche ses lettres en bleu ou en blanc : les pixels perdent plus vite en luminance et là encore on pourra constater une démarcation. Il existe plusieurs moyen de ralentir cette dégradation : mieux dimensionner les sous-pixels le plus sensible pour allonger leur durée de vie (PenTile), utiliser des sous-pixels pholed, homogénéiser l'usure des pixels (luminance faible sur les noirs, interface mieux adapté, ...) 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 15 janvier 2013 Share Posté(e) 15 janvier 2013 Merci Alex pour toutes tes réponses et explications qui sont vraiment au top, tu gère ;) Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 15 janvier 2013 Auteur Share Posté(e) 15 janvier 2013 (modifié) De rien. D'ailleurs, j'en profite =p. OLED vs PHOLED J'en parle mais finalement je me dis que le concept n'est pas forcément connu de tous (car la technologie est récente).. Actuellement, les écrans OLED utilisent le principe de la fluorescence pour produire de la lumière. Le problème est qu'avec ce procédé, une diode OLED n'a que 25% de chance de voir chaque exciton former un photon et donc produire de la lumière. En clair, un écran OLED gaspille 75% du courant qu'il consomme (c'est schématique bien entendu). Une diode PHOLED est aussi une diode organique mais qui utilise le principe de la phosphorescence pour créer de la lumière. Avec cette technologie, l'efficience grimpe statistiquement à 100%. Ce qui permet une économie d'énergie drastique mais allonge aussi considérablement la durée de vie des sous-pixels (on passe de 14.000h pour un sous-pixels bleu fluorescent à 20.000h en pholed). Depuis près d'un an on sait que Samsung teste cette technologie (qui aurait dû arriver avec le GS3) et on sait aussi qu'ils souhaitent remplacer dans un premier temps les sous-pixels verts. L'Edit de la mort Juste pour le fun, une matrice est composé de 33% de sous-pixels verts. Si chaque sous-pixels verts consomment 75% moins alors la matrice consomme finalement 33x0.75=25% moins. Tiens ce n'est pas la baisse de consommation annoncée par Samsung justement ? Modifié 15 janvier 2013 par Alex98 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Dragonn Posté(e) 15 janvier 2013 Share Posté(e) 15 janvier 2013 Pour le noir si je me souviens bien de la conférence du S2 c'est plus d'ordre technique non? Le Samoled+ apportait un noir encore plus profond d'après samsung. Donc logiquement tous les samoled pentile ont un noir pas vraiment parfait ^^ 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 16 janvier 2013 Share Posté(e) 16 janvier 2013 J'ai pt'etre un train de retard, mais finalement le exynos 5 Ocra serait équipé d'un GPU PowerVR (le SGX 544MP3) a la place du Mali habituel ? une question me vient a l'esprit : Samsung fabrique presque tous ses composants, pourquoi ne développent t'ils pas leurs propre GPU ? ils en sont capables pourtant je pense non ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 16 janvier 2013 Auteur Share Posté(e) 16 janvier 2013 J'ai pt'etre un train de retard, mais finalement le exynos 5 Ocra serait équipé d'un GPU PowerVR (le SGX 544MP3) a la place du Mali habituel ? [/Quote] C'est la bataille des rumeurs : Anandtech annonce un SGX544MP3 @ 533Mhz tandis que Sammobile annonce un Mali-T658MP8. Le problème est que le T658 a récemment été retiré de la liste des produits chez ARM puisqu'il faisait doublon avec le T628 qui, d'après AndreiLux, n'est pas encore prêt. Du coup, le PowerVR SGX544MP3 est crédible, surtout à cette fréquence il sera compétitif (logiquement bien meilleur que les futurs Adreno 330). une question me vient a l'esprit : Samsung fabrique presque tous ses composants, pourquoi ne développent t'ils pas leurs propre GPU ? ils en sont capables pourtant je pense non ? Samsung a probablement les ressources R&D pour le faire mais pas forcément l'intérêt pour. Les design de SoC vendu par ARM sont loin d'être parfait. Malgré leur réputation, cela reste une petite boîte qui met toutes ses ressources dans le design CPU/GPU et leurs intégrations sont souvent médiocres ou facilement améliorables. C'est pour ça que tous s'engouffrent dans le design de SoC avec core ARM (alors que ARM vend des design de SoC). Par contre côté GPU il y a du monde et ce qui est produit est intelligent et bien adapté. Parfois même les GPU mobiles sont bien plus intelligemment fait que sur PC. Du coup, Samsung ne doit pas voir un intérêt à se lancer dans du design GPU alors qu'il y a déjà des gens qui en vendent de bon pour un bouché de pain. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Azdine57 Posté(e) 16 janvier 2013 Share Posté(e) 16 janvier 2013 Et puis faut pas oublier que Samsung est le plus gros client de la firme Britannique ARM... Envoyé depuis mon Nexus 10 avec Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 16 janvier 2013 Share Posté(e) 16 janvier 2013 Ouais mais justement si ils ne se servent plus en GPU mali ARM va se retrouver le bec dans l'eau un peu non ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Kyogiro Posté(e) 16 janvier 2013 Share Posté(e) 16 janvier 2013 (modifié) Il est vrai que s'il y a revirement de situation de la part de Samsung concernant le GPU équipant le SoC du Galaxy S IV, cela pourrait être un coup dur pour ARM. De très loin, avec la gamme Galaxy (S2 et S3), Samsung est le premier acheteur des puces Mali400 même si on les retrouve dans d'autres appareils (mais leur nombre reste assez marginal par rapport aux volumes dégagées par Samsung). D'ailleurs Alex, est-ce que tu sais ce qui aurait motivé Samsung, dans un premier temps, à abandonner les solutions IT (qui étaient déjà les plus performantes) pour aller vers les GPU ARM Mali avec son Galaxy S2 ? Le Galaxy S1, avec son SoC, Humminbird était équipé d'un PowerVR SGX 540 (GPU qui me donne l'impression d'être resté pendant un bon moment). Modifié 16 janvier 2013 par Kyogiro Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 16 janvier 2013 Auteur Share Posté(e) 16 janvier 2013 (modifié) Ouais mais justement si ils ne se servent plus en GPU mali ARM va se retrouver le bec dans l'eau un peu non ? Côté GPU, c'est probable. La génération T6xx à d'excellentes performances et une architecture parfaitement équilibrée (contrairement aux Mali-400), le tout à très bas coût ce qui en fait assurément un GPU attirant pour les designer de SoC. Le problème c'est que la plupart des concepteurs de SoC (Apple, Qualcomm, Nvidia) ont déjà des partenariats ou des GPU maisons et n'iront donc pas vers ARM. Il ne reste donc guère que ST-E et les designers chinois qui pourrait éventuellement être intéressé par les modèles bas/moyen de gamme D'ailleurs Alex, est-ce que tu sais ce qui aurait motivé Samsung, dans un premier temps, à abandonner les solutions IT (qui étaient déjà les plus performantes) pour aller vers les GPU ARM Mali avec son Galaxy S2 ? Le Galaxy S1, avec son SoC, Humminbird était équipé d'un PowerVR SGX 540 (GPU qui me donne l'impression d'être resté pendant un bon moment). Difficile à dire. Les PowerVR SGX543 étaient déjà partiellement dispo quand Samsung a fait son switch donc ce n'est pas forcément un problème de Time To Market. A l'époque, les Mali-400 etaient certes des GPU totalement déséquilibré (comme les ULP Geforce) mais (contrairement aux ULP Geforce) ils suivaient la tendance du marché du software mobile et offraient des perfs hors normes en pixel processing. Le tout à bas coût et avec une consommation maitrisée. Je pense que c'est potentiellement ce qui a pu justifier le switch. Modifié 16 janvier 2013 par Alex98 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 16 janvier 2013 Share Posté(e) 16 janvier 2013 https://www.frandroid.com/actualites-generales/125423_nexus-4-enfin-des-explications-claires/ => Bullshit ou pas ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 16 janvier 2013 Auteur Share Posté(e) 16 janvier 2013 Ça ne repond pas vraiment à la question de l'arrêt des livraisons depuis environ 1mois. Que la production qsoit insuffisante c'est une chose mais que la production soit quasi-inexistante c'est douteux. De la à penser qu'il n'y a pas de hasard dans le fait qu'ils prevoient une reprise des libraisons après les annonces des constructeurs, il n'y a qu'un pas que je franchis allègrement Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Recommended Posts
Rejoignez la conversation
Vous pouvez poster maintenant et vous enregistrez plus tard. Si vous avez un compte, connectez-vous maintenant pour poster.