seandk Posté(e) 18 février 2011 Share Posté(e) 18 février 2011 Vous pensez que l'iphone 5 profitera d'orion ? Ou alors je vois bien Steve jobs nous dire " 2 cœur ? Pourquoi faire ? Vous en avez besoin de 2 vous ? " Donc iPhone 5 monocore ? Lol Sent from my Desire HD Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 18 février 2011 Share Posté(e) 18 février 2011 (modifié) @ seandk À vrai dire, j'y ai moi-même pensé (à l'iPhone 5 monocore) et je pense que c'est tout à fait plausible pour d'assez nombreuses raisons. Mais si Apple opte pour un Dual-Core, ce sera un Apple A5 de toutes façons =p. Modifié 18 février 2011 par Alex98 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 18 février 2011 Share Posté(e) 18 février 2011 Je vote pour un proco Samsung, comme Apple a commandé pour plusieurs millions chez Samsung Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
DroidO Posté(e) 18 février 2011 Share Posté(e) 18 février 2011 Aucune date de sortie annoncé? Prix? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 18 février 2011 Share Posté(e) 18 février 2011 Les dates sont très confuses. Engadget (de source officielle) et Android Comunity parlent de fin février/début mars pour l'Europe et l'Asie (plus tard pour les USA). FrAndroid parle de mai. Le JDG a obtenu un "aucune date fixe n'est arrété pou le moment, il est trop tôt. Tout ce que je peux vous dire c'est qu'il sera disponible pour l'été" d'un représentant de Samsung. La Chaine Techno a obtenu d'un autre représentant (Clairement très mal informé sur son produit) qu'il sortirai en juin. Pour le prix, rien n'est annoncé pour le moment mais beaucoup de sites semble tabler sur 650-700$ mais ça me semble peu probable. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
laulau8395 Posté(e) 19 février 2011 Share Posté(e) 19 février 2011 Pour être plus sûr dans les dates faut généralement compter un an après la sortie du premier... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
pspflashsystem Posté(e) 19 février 2011 Share Posté(e) 19 février 2011 Salut, Une petite citation : "Beaucoup avaient remarqué la petite étoile sur le site officiel du Galaxy S2 qui disait que le processeur du Galaxy S2 pouvait varier selon les pays. A ceci il faut ajouter que certains Galaxy S2 présentés en démo au Mobile World Congress sont équipés de Tegra2 en place de l'Orion. Il devenait évident que Samsung allait vendre cette version de Galaxy S2 / Tegra2. C'est maintenant sûr." Source: http://www.maxisciences.com/galaxy-s-2/un-nouveau-galaxy-s2-le-gt-i9103-avec-tegra2_mrm58993.html M'enfin tout cela reste à vérifier mais si c'est vrai le processeur orion pourra nous réserver de belles (ou mauvaises en j'espère vu les annonces de samsung) surprises niveau performances lorsque le produit sera abouti ^^ Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
kenzo979 Posté(e) 19 février 2011 Share Posté(e) 19 février 2011 salut à tous je pense vraiment que c'est du Orion ( même dans la vidéo de présentation du SGS II le mec le dit indirectement) car dans la pages de présentation il parle d'un GPU quad core , ce n'est pas du tegra 2 présentation du SGS II Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 19 février 2011 Share Posté(e) 19 février 2011 (modifié) @ kenzo979 Non, tu as raison, le GPU des Tegra 2 est un GPU 8 cores =p (et c'est pas une blague). Et malgré tout, il risque bien de s'agir du GPU le moins puissant du marché parmis les SoC Dual-Core. Modifié 19 février 2011 par Alex98 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
seandk Posté(e) 19 février 2011 Share Posté(e) 19 février 2011 (modifié) Je viens de voir ça, effectivement le tegra 2 a 8 coeurs ! Sent from my Desire HD Modifié 19 février 2011 par seandk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 19 février 2011 Share Posté(e) 19 février 2011 Je ne crois pas qu'il faille se laisser impressionner par le nombre de coeurs du GPU des Tegra 2. Les Tegra 2 sont annoncés par Nvidia comme 10 à 30% plus rapide que les PowerVR SGX540 donc ils seront d'office moins puissant que les GPU de l'OMAP 4 qui utilise un PowerVR SGX540 visiblement cadencé à 300Mhz (donc en gros 50% plus performant qu'un SGX540 classique). Tandis que les Adreno 220 de Qualcomm devraient être 2 fois plus rapide que les Adreno 205 (donc ils devraient se situer à peu près au même niveau que les Tegra 2 si on en croit les chiffres donnés par Nvidia). Quand aux Exynos de Samsung, leurs GPU sont annoncés 5 fois plus rapide sue les PowerVR SGX540 mais Samsung aime gonfler les chiffres il faut donc logiquement s'attendre à moins à mon avis. Mais vu les donnés actuelles, ils devraient quand même se situer notablement au dessus des GPU des SoC concurrents je pense. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 19 février 2011 Share Posté(e) 19 février 2011 Je demande à voir des tests concret Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
kenzo979 Posté(e) 19 février 2011 Share Posté(e) 19 février 2011 le Gpu quad core de l'orion est un arm mali 400 je croit à +- 320 pyg/s contre 90 pour le powerVR SGX540 du SGS II ( on dit qu'il se rapproche de la ps3) par contre si celui du tegra 2 est un 8 cores , pour l'instant on ne connait pas sa puissance réel et aussi les 8 ne sont pas géré d'un coup( peut être un soft débouchera la bête ) ou pas :P Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 19 février 2011 Share Posté(e) 19 février 2011 @ kenzo979 Je ne conseil à personne de se référer aux données constructeurs type "nombre de polygones par secondes" ou "nombre de pixels seconde". Ce sont généralement des données irréaliste au possible et sortie de tout contexte. Deja, comme tu le dit, Samsung annonce sont GPU Mali-400 comme capable de traiter 320 millions de polygones/s... la PS3 est sensé pouvoir traiter "seulement" 275 millions de polygones secondes et la Xbox 360 500 millions. Le Mali-400 aurait donc une puissance de calcule supérieure à la PS3... Ensuite, Samsung annonçait le GPU PowerVR SGX540 comme capable de traiter 90 millions de polygones/s à titre de comparaison : - Le GPU de la PSP peut traiter 41 millions de polygones/s (le Hummingbird serait donc 2 fois plus rapide en 3D qu'une PSP). - Nvidia annonce les Tegra 2 comme capable de traiter 71 millions de polygones par secondes (Le Hummingbird est donc plus puissant qu'un Tegra 2 en 3D). - Imagination Technologies (le créateur du SGX540) annonce le PowerVR SGX540 (celui du Humminbird de Samsung donc) comme capable de traiter 20 millions de polygones/s à 200Mhz... donc pour traiter 90 millions de polygones/s il faudrait qu'il soit surcadencé à 900Mhz... sachant que le même GPU dans l'OMAP 4 (visiblement cadencé à 300Mhz d'après Anandtech) fait nettement mieux que dans le Hummingbird... Enfin est pour rire, face aux 20 millions de polygones/s à 200Mhz du SGX540, le Mali-400 est sensé (selon ARM) offrir des perfs de l'ordre de 30 millions de polygones à 275Mhz (soit à peine mieux que le PowerVR SGX540). À cela d'ailleurs s'ajoute le fait qu'ARM recommande de ne pas dépassé les 395Mhz pour son Mali-400 sur un SoC à 65nm. Alors bon, l'Exynos 4210 étant un SoC gravé à 45nm, Samsung pourra dépasser cette fréquence mais je doute qu'ils parviennent à atteindre les 2933Mhz de fréquence nécessaire pour obtenir une puissance de calcule de 320 millions de polygones/s avec un Mali-400 lol. Donc voilà. Il vaut mieux éviter de se référer à ces données qui ne veulent rien dire et dépendent principalement du type de calcules graphique qu'on demande au GPU. Désolé de se long post ^^. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
a-spec Posté(e) 20 février 2011 Share Posté(e) 20 février 2011 Un post de fou ouais !!! ^^ Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 20 février 2011 Share Posté(e) 20 février 2011 (modifié) @Alex98 : Très bon post, ca reflète aussi ma pensée ;) Comme d'habitude on peut faire dire ce que l'on veut à des chiffres, mais une fois sorti du contexte ca ne veut plus rien dire. @kenzo979 : J'aimerai bien savoir ce qu'ils comptent comme des coeurs, si un Shader par exemple est compté comme un coeur ( si ca se compose comme ca evidemment ), ca ira vite. Ensuite les comparaisons des nombres de coeurs et de la fréquence sont TOTALEMENT fausses ! En informatique une notion très importante (que les vendeurs ne connaissent pas ou ne disent pas ), c'est la notion d'architecture. 2 architectures différentes, possédant le même nombres de coeurs et tournant à la même fréquence peuvent obtenir des résultats totalement différents ! La preuve entre un C2D et un i3 par exemple. Mais aussi la différence de mémoire cache, la largeur des pipelines, la fréquence de la mémoire, sa qualité, les instructions utilisées. Un truc que j'avais appris il n'y a pas si longtemps, sur les cartes graphiques d'ordinateur ( mais ca doit être extrapolable ), c'est le SIMD (Single Instruction Multiple Data), MIMD (Multiple Instruction Multiple Data). En gros en SIMD tout les "coeurs" sont utilisés pour calculer le même type de choses, mais avec des données différentes, si d'autres types de calculs sont à effectuer, il faut attendre que ceux-là soient finis. En MIMD, on peut tout faire en même temps ( dans la logique ). Cela modifie les résultats, même en ayant les mêmes chiffres théoriques. Ce que je veux dire par là, c'est que les chiffres constructeurs sont le maximum théorique observés, mais avec des calculs qui plaisent au GPU, sur un autre type de calcul, ou avec une multitude de calculs différents, les performances s'effondrent ( surement ). P.S : J'avais oublié de conclure, suivant le test effectué les résultats seront surement différents et offriront un classement différent de nos GPU Modifié 20 février 2011 par Infernus Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
seandk Posté(e) 20 février 2011 Share Posté(e) 20 février 2011 @Alex98 et Infernus trés instructif j'ai bien aimé Par contre on s'écarte du sujet ^^" Sent from my Desire HD Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 20 février 2011 Share Posté(e) 20 février 2011 @seandk : Ca fait plaisir de partager ;) Effectivement on s'écarte. Le GSII va être très interessant ;) Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 20 février 2011 Share Posté(e) 20 février 2011 Ok revenons au sujet : Je veux un SGS II !! Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
seandk Posté(e) 20 février 2011 Share Posté(e) 20 février 2011 Par contre j'espère que la ROM d'origine ne sera pas aussi désastreuse que celle du 1er Déjà vu que gingerbread tourne sur du ext4, on aura pas le vieux RFS c'est une bonne chose Mais reste à voir si il pourra bien exploiter l'Orion Sent from my Desire HD Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Infernus Posté(e) 20 février 2011 Share Posté(e) 20 février 2011 J'espere aussi qu'ils ne feront pas trop de la m**** :( Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
kenzo979 Posté(e) 20 février 2011 Share Posté(e) 20 février 2011 très bonne leçons en 2 parties excellents , :lol: :lol: en tout cas espérons que Samsung réussi à bien gérer la bête !! Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
seandk Posté(e) 20 février 2011 Share Posté(e) 20 février 2011 Dans le pire des cas, vu son hardware beaucoup de dev s'en occuperont Sent from my Desire HD Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 20 février 2011 Share Posté(e) 20 février 2011 Je pense que la ROM vraiment importante sera la "2.4" qui permettra une gestion plus avancé des processeurs multicore. La 2.3 ne devrait pas tirer vraiment partie des Dualcores de toute façon (en tout cas pas les deux core sur une seule application). Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
kenzo979 Posté(e) 20 février 2011 Share Posté(e) 20 février 2011 Comme tu le dit seandk il y aura les devs pour le soutenir surtout avec un hard puissant Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Recommended Posts
Rejoignez la conversation
Vous pouvez poster maintenant et vous enregistrez plus tard. Si vous avez un compte, connectez-vous maintenant pour poster.