Infernus Posté(e) 26 janvier 2012 Share Posté(e) 26 janvier 2012 Ouais enfin moi je parle simplement dans des tests GPU. Pour donner mon exemple, mon ami avait une 1950pro et atteignait un score de 4k/5k sur 3Dmark alors que je tapais les 10k avec un CPU supérieur. Il a changé il est monté a 11k. Je sais bien que 3Dmark teste aussi le CPU, mais ce n'est pas le score CPU seul qui va faire varier de 5k le score ;) Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 26 janvier 2012 Share Posté(e) 26 janvier 2012 3DMark a des éléments de physique intégré au bench si je me rappelle bien (ça fait longtemps que je ne l'ai pas utilisé). Ce n'est guère le cas des Bench GPU sur Android. Quoique 3DMark mobile est dispo alors peut-être que lui poserait ce problème mais je ne l'ai jamais testé. Lien vers le commentaire Partager sur d’autres sites More sharing options...
greg_p Posté(e) 27 janvier 2012 Share Posté(e) 27 janvier 2012 Il y a plusieurs facteurs qui entre en ligne de compte pour les raisons suivantes: -Sur un PC, la carte graphique a sa propre memoire, mais il faut la remplir. Il y a donc, en general, des lag a des moment bien precis ou le dma copie des grosses quantites de donnes de la main DDR sur la ddr embarquee sur la carte graphique. Ca genere un peu plus d'activite cpu, mais ensuite, le CPU n'a plus a gerer de probleme de bande passante. -sur un SOC, il y a une seule DDR, et et une seule copie des elements, surface, structure, ... Mais on a egalement une utilisation plus importante de la DDR...parce que tout le monde y accede (display driver, gpu, cpu). Il est ici important d'avoir une grosse cache CPU pour eviter les lags. Et la prise en compte de la BP memoire est primordiale sur un SOC, car c'est une memoire 32bit et qu'elle est encore a 1/2 de la frequence d'un PC. Pour vous donner une exemple sur l'interface d'ICS sur omap4, le display driver possede 3 flux video sur l'affichage principale, plus le frame buffer du GPU, on a donc grosso modo 4 buffer de la taille de l'ecran pour empiler les differentes overlay, ce qui genere beaucoup de traffic memoire, mais l'affichage est sans lag (wall paper, barre de notif, la surface des widget ensuite). Quand il n'y a pas d'activite sur ces surface, tout est stocke dans le framebuffer du GPU qui permet d'eteindre le DSS est divise par 4 les flux memoire - on endors aussi la DDR 3/4 du temps.Quand on a une activite sur une couche, on sors les couches du Framebuffer, on gere l'activite, puis on remet quand ca se calme... C'est la grande force de l'omap sur ICS, et c'est aussi sur ca que butte les SOC plus ancien. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 27 janvier 2012 Share Posté(e) 27 janvier 2012 Ah merci, je ne savais pas que c'était une mémoire partagée avec le gpu. Est ce que tu sais si les exynos gèrent ces temps d'idle de la même manière ? Parce qu'a t'entendre les omap offrent une meilleurs autonomie théorique mais qu'en est il vraiment ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
3rr0r404 Posté(e) 27 janvier 2012 Share Posté(e) 27 janvier 2012 Petite question : que peux ton reprocher à la matrice pentile ? Je lis que certains n'en veulent pas sur le GS3, pourquoi ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
greg_p Posté(e) 27 janvier 2012 Share Posté(e) 27 janvier 2012 (modifié) Ah merci, je ne savais pas que c'était une mémoire partagée avec le gpu. Est ce que tu sais si les exynos gèrent ces temps d'idle de la même manière ? Parce qu'a t'entendre les omap offrent une meilleurs autonomie théorique mais qu'en est il vraiment ? Theoriquement sur ICS, il y a un avantage. Tous les soc d'aujourd'hui autorise l'idle de la memoire, mais elle est conditionne par l'utilisation qu'ils en font. Par exemple, en supposant qu'il y ait pas un display qui gere autant de flux sur le proc du nexus S, c'est au CPU de gerer les flux supplementaires, plusieux frame buffer, donc 2 ou 3 buffer de 800x480x24 dans la DDR, qui sont accedes au ritme du refresh rate... Petit calcul, ca fait pres de 66Mbit/s en terme de debit occupe par l'affichage (deja pas negligeable). Sur un T2 sur un bus memoire non entrelace, on doit etre autour de 2 a 3 Gb/s, soit 20ms pour lire les data. Avec une frame pour 16ms (60 img/s), on a deja bien congestionne le bus... donc forcement on baisse le framerate ou ca lague... Je pense que c'est la raison pour laquelle la maj sur le nexus S s'est arrete. Les perf display etaient la, mais la memoire etant tout le temps allume, ca consomme... Pour l'exynos, je connais pas. Mon premier sentiment est que c'est une copy du A5 au niveau architecture, avec un GPU different parce que c'est Apple qui a du negocier pour avoir le sgx544mp. Pour le reste ca doit etre identique. Donc forcement une acceleration 2d qui tient la route (les architectes apple sont pas des neuneu). Je pense qu'on le saura difficilement, parce qu'il faudra se plonger dans l'aosp du galaxy 2/ICS et faire du reverse... Modifié 27 janvier 2012 par greg_p Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 27 janvier 2012 Share Posté(e) 27 janvier 2012 Les Matices PenTile (RGBG sur AMOLED) sont des Matrices amputés d'un certain nombre de sous-pixels (30% en moins). En temps normal, une Matrice d'écran compte 3 sous-pixels par pixels (1 rouge, 1 vert, 1 bleu). Ce qui permet à chaque pixel d'être autonome dans l'affichage de n'importe quelle couleur. Une Matrice PenTile RGBG elle compte 2 sous-pixels par pixel. Le premier pixel compte un sous-pixels vert et un rouge, le second un vert et un bleu, le troisième un vert et un rouge et ainsi de suite. Donc l'affichage des couleurs se fait "2 pixels par 2 pixels". Ce type de Matrice pose plusieurs problèmes. D'abord la surcharge en diode verte a tendance à entrainer des dérives colorométriques mais surtout, la précision d'affichage est nettement réduite dans la majorité des cas (parfois diviser par deux, en moyenne 30% inférieure à une Matrice RGB). Cependant, il semble que l'impact de ce type de Matrice soit moins important sur des écrans ayant de fort DPI. Il existe aussi des Matrices PenTile RGBW mais ça ne concerne pas les écrans AMOLED Theoriquement sur ICS, il y a un avantage. Tous les soc d'aujourd'hui autorise l'idle de la memoire, mais elle est conditionne par l'utilisation qu'ils en font. Par exemple, en supposant qu'il y ait pas un display qui gere autant de flux sur le proc du nexus S, c'est au CPU de gerer les flux supplementaires, plusieux frame buffer, donc 2 ou 3 buffer de 800x480x24 dans la DDR, qui sont accedes au ritme du refresh rate... Petit calcul, ca fait pres de 66Mbit/s en terme de debit occupe par l'affichage (deja pas negligeable). Sur un T2 sur un bus memoire non entrelace, on doit etre autour de 2 a 3 Gb/s, soit 20ms pour lire les data. Avec une frame pour 16ms (60 img/s), on a deja bien congestionne le bus... donc forcement on baisse le framerate ou ca lague... Je pense que c'est la raison pour laquelle la maj sur le nexus S s'est arrete. Les perf display etaient la, mais la memoire etant tout le temps allume, ca consomme... Pour l'exynos, je connais pas. Mon premier sentiment est que c'est une copy du A5 au niveau architecture, avec un GPU different parce que c'est Apple qui a du negocier pour avoir le sgx544mp. Pour le reste ca doit etre identique. Donc forcement une acceleration 2d qui tient la route (les architectes apple sont pas des neuneu). Je pense qu'on le saura difficilement, parce qu'il faudra se plonger dans l'aosp du galaxy 2/ICS et faire du reverse... Pour l'Exynos, je ne pense pas qu'on puisse raisonnablement penser qu'il s'agit d'une copie du A5. 2 points au moins montrent que ces deux CPU sont différents malgrès une proximité apparente sur le papier. D'abord de récents tests d'Anantech et d'Intel tendent à montrer que la consommation de l'Exynos est bien inférieure à celle de l'A5 du 4S malgrè une fréquence 50% plus élevée. Ensuite, l'A5 est un CPU manifestement conçu pour tourner à 1Ghz là où, dès le départ, les Exynos ont été conçu dès le départ à plus de 1.5Ghz (l'ambition de Samsung était de produire des Exynos à 2Ghz dès cette année. Bon, il y a aussi le jeu des dates d'annoncement. Samsung ayant annoncé son SoC et dévoilé son architecture plus de 6mois avant la mise en production des A5. Le A4 et l'Humming étaient en revanche bien les mêmes CPU. Info sans rapport avec nos débats actuels mais qui peut avoir son importance. Samsung a commencé à remplacer dans plusieurs pays dont la France ses SGS2 i9100 par des i9100G équipé de SoC TI OMAP4 (4430 de mémoire). Le i9100 n'est d'ailleurs plus dispo en France (j'ai vu qu'aux USA aussi certains avaient eu droit à des i9100G dernièrement). Il est fort probable que Samsung commence donc à réaffecter ses ligne de production vers d'autres SoC. Lien vers le commentaire Partager sur d’autres sites More sharing options...
mouths91 Posté(e) 27 janvier 2012 Auteur Share Posté(e) 27 janvier 2012 calmez vous les mecs !!! olala les pages défiles comme... bref elle défilent vite quoi le tel est pas sortie calmez vous svp !! Lien vers le commentaire Partager sur d’autres sites More sharing options...
Reggie1000 Posté(e) 27 janvier 2012 Share Posté(e) 27 janvier 2012 Exactement comme avec le fameux Nexus Prime... Lien vers le commentaire Partager sur d’autres sites More sharing options...
greg_p Posté(e) 27 janvier 2012 Share Posté(e) 27 janvier 2012 LE nexus prime c'est pas pareil... c'est google qui a voulu l'omap4460, c'est google qui defini ses plateforme entierement. Pour le galaxy S2, c'est samsung qui a transitionne a omap. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 27 janvier 2012 Share Posté(e) 27 janvier 2012 Difficulté de production de l'exynos ? ou alors switch vers la production du nouvel exynos ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
greg_p Posté(e) 27 janvier 2012 Share Posté(e) 27 janvier 2012 Tout ce que je peux dire, c'est que samsung est un grande entreprise qui a plusieur departements, donc un oem de telephone et une R&D de SOC, ainsi qu'une grosse fab (usine) de soc. La fab produit des SOC pour samsung, pour Apple, et d'autres... Ya qu'a voir le volume de ce que ca represente au niveau mondial, les 2 plus gros phone de l'annee y ont trouve leur composant... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 27 janvier 2012 Share Posté(e) 27 janvier 2012 Difficulté de production de l'exynos ? ou alors switch vers la production du nouvel exynos ? Je pensais plutôt à l'A6 d'Apple. L'iPad 3 ne va plus tarder maintenant. Ils doivent commencer à faire du stock (remarque rien ne dit que Samsung produira l'A6). Lien vers le commentaire Partager sur d’autres sites More sharing options...
Reggie1000 Posté(e) 27 janvier 2012 Share Posté(e) 27 janvier 2012 calmez vous les mecs !!! olala les pages défiles comme... bref elle défilent vite quoi le tel est pas sortie calmez vous svp !! Exactement comme avec le fameux Nexus Prime... LE nexus prime c'est pas pareil... c'est google qui a voulu l'omap4460, c'est google qui defini ses plateforme entierement. Pour le galaxy S2, c'est samsung qui a transitionne a omap. Je parlais du fait des 70 pages qui etaient écrites avec 80% des infos fausses, ou tout le monde s'excitait pour rien Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 27 janvier 2012 Share Posté(e) 27 janvier 2012 Ouais enfin là on discute de principes et finalement ça a très peu a voir avec le sujet << Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 27 janvier 2012 Share Posté(e) 27 janvier 2012 (modifié) Le SGS3 ne devrait finalement pas trop tarder à être annoncer car sa très probable référence (i9300) est apparue sur le site de Samsung . Petite surprise, les traces d'un i9800 ont aussi été repérer dans une procédure de certification WiFi. Source : http://androidcommunity.com/samsung-gt-9300-and-gt-9800-appear-online-galaxy-s-iii-and-something-new-20120127/ Édit : Androidandme ajoute qu'un responsable de Samsung a avoué qu'actuellement la date de sortie n'était pas fixer et toujours en discution. Modifié 27 janvier 2012 par Alex98 Lien vers le commentaire Partager sur d’autres sites More sharing options...
greg_p Posté(e) 28 janvier 2012 Share Posté(e) 28 janvier 2012 Mouaip, je dirai donc que ca sera un cortexA9 based, peut etre un quad, peut etre un dual a haute frequence (>= 1.5), avec probablement un refresh du GPU, une DDR 2 channel 2GB a 533 (elles sont dispo), peut etre une optimisation des display pour gerer les gros ecran (720p). Lien vers le commentaire Partager sur d’autres sites More sharing options...
kenzo979 Posté(e) 28 janvier 2012 Share Posté(e) 28 janvier 2012 Tu dois avoir raison un exynos 4412 quad core en cortex A-9 avec sûrement une fréquence minimimum de 1,5 GHz, pour ce qui est du gpu je pense au mali-t 604 (le 658 pour l'exynos 5250) Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 28 janvier 2012 Share Posté(e) 28 janvier 2012 Pour les A15, ça semblait mal partie du fait de la date de mise en production de ces SoC mais en plus, Samsung réserverait, dans un premier temps, les 5250 aux tablettes d'après Androidandme qui ont eu la chance de voir quelques prototypes. Par contre, niveau RAM, Samsung pourrait très bien se tourner vers sa propre technologie DRAM devant être dispo dans des appareils mobiles cette année et annoncé en 2011. Pour rappel, cette nouvelle DRAM atteindrait, selon Samsung, les 12GB/s et consommerait 87% moins que la LPDDR2. http://m.engadget.com/default/article.do?artUrl=http://www.engadget.com/2011/02/22/samsung-develops-mobile-dram-capable-of-12-8gb-sec-data-transfer/&category=classic&postPage=1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
greg_p Posté(e) 28 janvier 2012 Share Posté(e) 28 janvier 2012 12.8GB/s ca signifie au moins 4 channel@533. Ce qui se confirme vu les 512 pins, une LPDDR dual channel en ayant aux alentour de 250. Si c'est le cas, c'est pas mal, encore faut il pouvoir en profiter. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 28 janvier 2012 Share Posté(e) 28 janvier 2012 Du Quad Channel ? a t'on vraiment besoin d'autant de bande passante ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 28 janvier 2012 Share Posté(e) 28 janvier 2012 Non. C'est l'équivalent, en GB/s, de ce que doit proposer de la DDR3 PC12800 (cadencé à 1600Mhz). Mais bon, compte tenu de l'économie d'énérgie, cette technologie vaut le détour. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 28 janvier 2012 Share Posté(e) 28 janvier 2012 Ouais enfin de la DDR3PC12800 sur un téléphone on en reparle dans un certains temps. C'est de la LPDDR2 pour le moment et elle n'est pas a 1600Mhz encore il me semble ^^ Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 28 janvier 2012 Share Posté(e) 28 janvier 2012 (modifié) Ouais enfin de la DDR3PC12800 sur un téléphone on en reparle dans un certains temps. C'est de la LPDDR2 pour le moment et elle n'est pas a 1600Mhz encore il me semble ^^ Non mais la nouvelle DRAM pour mobile de Samsung (celle dont on parle, que Samsung a annoncé et montré en 2011 et qui sortira... on sait pas trop quand) permet les mêmes débits théorique que de la PC12800 (12.8GB/s). D'où ma comparaison puisque tu demandais si c'était vraiment utile sur mobile ce genre de RAM. Je me suis dit qu'une comparaison avec quelque chose d'existant sur PC te permettrait de mieux appréhender la chose. Modifié 28 janvier 2012 par Alex98 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 28 janvier 2012 Share Posté(e) 28 janvier 2012 Ok, au temps pour moi, mais bon même sur PC l’intérêt est très faible Lien vers le commentaire Partager sur d’autres sites More sharing options...
Recommended Posts