Aller au contenu

[AUTRE] Samsung galaxy S3


mouths91

Recommended Posts

En termes de performance pure oui, on sera pas rassasié t'en fait pas ;)

J'espère surtout un écran HD sans pentile comme le Rezound, et avec un Delta qui ne soit pas digne d'une soirée à base de champignon hallucinogènes

Lien vers le commentaire
Partager sur d’autres sites

Pour l'écran HD avec Matrice RGB, je pense que c'est bon. La technologie est dispo (Super Amoled Plus HD sur la Tab 7.7).

Pour le dE et la temperature de couleur, c'est à la chance sur les écrans Amoled. Certains ont un dE proche de celui de l'iPhone 4S, d'autre un dE à 12+.

Lien vers le commentaire
Partager sur d’autres sites

Hey ho les amis!

Bon, le GS3 a été retardé apparament... Il sera meme pas presenté au mwc

http://www.bgr.com/2...tedly-canceled/

Je doute sérieusement que ce soit un A15...

Je penche plutôt pour un quad A9, mais on a peu d’élément pour le moment. Ils veulent pas communiquer. Le A15 est arrivé il y a trop peu de temps, et pour le moment, c'est pas encore adapté au smartphone.

Pour le 4470, c'est un SGX544SP (single core), soit une grosse evo du 540. C'est le meme que le 543 avec des adaptation a l'api directX, et en simple core, sachant qu'il existe en 543MP (proc A5 des apple) et 544MP (omap5).

Entre le sgx540 et 543/544SP, on est a peu pres a 2x plus de Mtexel si je me souvient bien, et on rajoute encore un 2x avec les version MP

Pour les phone a base de T3, je m'avancerai pas trop en betise, mais je pense qu'on en verra pas beaucoup. La conso en pointe est assez importante et fera chauffer exagerement pas mal de phone, ce qui ne se voit pas sur un tablette car on peut mettre un mini dissipateur sur le chip. Il n'y en a qu'un de memoire, et il fera peu de volument. Quand au reste, il n'y a qu'un gpu correcte sans plus. Le reste de la plateforme est pas au niveau des omap/exynos et consommera exagerement sous ICS.

Modifié par greg_p
Lien vers le commentaire
Partager sur d’autres sites

Ouais justement, d'après les tests des numériques, le Note/Gnexus ont un delta pas trop mal de 4/5 je crois. Contre 7 pour le GSII (bon les chiffres sortent de mes souvenirs <<)

Edit : Ah ce bon vieux greg =)

Pronostic pour toi ?

Modifié par Infernus
Lien vers le commentaire
Partager sur d’autres sites

Ouais justement, d'après les tests des numériques, le Note/Gnexus ont un delta pas trop mal de 4/5 je crois. Contre 7 pour le GSII (bon les chiffres sortent de mes souvenirs <<)

De mémoire :

4S : 6.2

SGS2 noir : 12+

SGS2 Blanc : 6.6 sachant qu'ils ont les mêmes écrans que les noirs, ça montre la variations d'un mobile à l'autre sur AMOLED

Note : 5.7

Edit : pour les A15 l'un des gros problème c'est la consommation car ce sont des CPU conçu pour des serveurs basse consommation, pas pour des smartphone. De plus la taille du Die reste un mystere.

Sinon j'ai déjà posté hier l'article de The Verge pris en source par l'article qui vient d'être posté :-p mais ça reste une rumeur.

Modifié par Alex98
Lien vers le commentaire
Partager sur d’autres sites

TI comme Qualcomm ont deux problèmes important : leurs SoC sont toujours à la bourre et la partie graphique est toujours nettement inférieures aux meilleurs SoC du marché (surtout chez Qualcomm qui est complètement à la rammasse à ce niveau).

Malheureusement pour Qualcomm, il y a un risque que les Kraits ne marquent encore plus leur déclin. En effet, selon Qualcomm, les SoC Krait atteindrons les 3.3 DMIPS/Mhz ce qui aurait dû être très bien car nettement au dessus des A9 (2.5 DMIPS/Mhz) et légèrement moins bon que les A15 que la rumeur prétendait capable d'atteindre les 3.5 DMIPS/Mhz... sauf que récemment Samsung a annoncé ses nouveaux SoC A15 qui sont capable de dépasser les 4.8 DMIPS/Mhz ce qui laisserait les Krait bien loin derrière. Et malheureusement, Qualcomm n'a pas, à court termes, les moyens de riposter.

Pourrais tu donner tes sources? Samsung a licencier un cortex a15 dual core comme TI, et cette implementation est donnée pour 3.5 Dmips/mhz, ce qui se retrouve au niveau siliium. Je ne voit pas comment samsung pourrait faire plus, il n'ont ni la possibilite ni le temps de faire mieux, sachant que quand tu achete une license d'exploitation A15 (comme Ti et samsung), tu n'achete pas une license d'architecture, tu ne peux rien modifier.

Lien vers le commentaire
Partager sur d’autres sites

Malheureusement oui. La production de ce type d'écran est e'core assez instable donc les résultats le sont aussi.

Le même problème se pose avec la température de couleur. Certains ont des écrans jaunis, d'autre bleuté et certain parfaitement blanc. J'avais déjà parlé de l'impact du lieu de fabrication sur la qualité de l'écran sur le forum du SGS2 d'ailleurs.

Lien vers le commentaire
Partager sur d’autres sites

Pourrais tu donner tes sources? Samsung a licencier un cortex a15 dual core comme TI, et cette implementation est donnée pour 3.5 Dmips/mhz, ce qui se retrouve au niveau siliium. Je ne voit pas comment samsung pourrait faire plus, il n'ont ni la possibilite ni le temps de faire mieux, sachant que quand tu achete une license d'exploitation A15 (comme Ti et samsung), tu n'achete pas une license d'architecture, tu ne peux rien modifier.

Le fameux 3.5 DMIPS/Mhz n'est qu'une rumeur pour le moment. ARM n'a pas encore communiqué de chiffre officiel.

Par contre je vois que je m'étais trompé dans mes calcule puisqu'il me semblait que le 5250 était prévu pour être cadencé à 1.5Ghz mais qu'il est en fait à 2Ghz ce qui nous donne effectivement 3.5DMIPS/Mhz pour les 14000DMIPS annoncé.

Modifié par Alex98
Lien vers le commentaire
Partager sur d’autres sites

Ouais justement, d'après les tests des numériques, le Note/Gnexus ont un delta pas trop mal de 4/5 je crois. Contre 7 pour le GSII (bon les chiffres sortent de mes souvenirs <<)

Edit : Ah ce bon vieux greg =)

Pronostic pour toi ?

yop,

Je sais pas trop... qualcomm peine a montrer qqch qui tient la route. Le T3 est aussi pourri que le T2, il est juste plus gros, mais ICS tiendra pas a cause du manque d'accelerateur hw, de traitement audio qui tient la route, ... Il reste donc samsung qui doit profiter du gap tant que le 4470 se montre pas... et 6 mois plus tard les premiers omap5.

Le prochain nexus sera probablement un qualcomm si ils se ratent pas trop. Mais la proximité des omap4 et omap 5 fait qu'on aura peut de bonne surprise en fin 2012...

@greg_p : A part Qualcomm et Nvidia qui d'autre a une licence architecture comme tu l'appelles ?

Pour les écrans on a le droit de renvoyer si la colorimétrie ne nous plait pas ? :P

Nvidia n'a pas de license d'archi, ils ont acheté un A15 comme TI et samsung. Seul qualcomm possede une license d'archi sur le A15. Enfin a ma connaissance.

Lien vers le commentaire
Partager sur d’autres sites

Ben perso, je dis qu'en 3 semaines (apres la sortie de fab), sur un chip process driver en 28nm, TI a sortie un ICS qui marche bien, qui clampe nenamark2 au refresh rate de l'ecran a 50% de ses possibilité, dont le cpu tient ses perf (c'est la demo du CES). donc c'est challenging, mais je pense que c'est realisable.

C'est pas les meme equipe entre omap4 et omap5. Mais TI a un gros boulot pour tuer tous les vilain bug aussi vite que possible :D. Et puis Ti va distribuer des plateformes de dev aux client qui achetent, avec ICS qui tourne. ca va faire gagner beaucoup de temps. Mais Ya pas que TI, dans l'histoire, ya aussi l'oem qui achete... Lui aussi peut perdre du temps.

Modifié par greg_p
Lien vers le commentaire
Partager sur d’autres sites

Process driver, ca veut dire que c'est le premier chip de la fab et de Ti en 28nm. Et clampe, les perf sur le nenamark2 etait a 64 fps, c a d le refresh rate de l'ecran. a priori sans ecran, ca arrivait au double ^^. Oui, la demo est a 800. Mais le dmips etait au niveau du 4470 ^^. en fait, en perf globale, on est entre 1.4 et A.6 a frequence egale, car le memoire est plus rapide aussi.

Modifié par greg_p
Lien vers le commentaire
Partager sur d’autres sites

Nenamark 2 pour tester un CPU ? Belle démagogie lol

Je viens de faire le test juste pour m'amuser. Je tape 57.7fps (la limite de framerate de l'écran quoi) avec le CPU @ 500Mhz (je n'ai pas locké plus bas pour ne pas freezé le mobile) avec mon GPU @ 400Mhz (la fréquence max des Mali-400)

Modifié par Alex98
Lien vers le commentaire
Partager sur d’autres sites

Ah je ne connaissais pas le mot clamp, je nommait ça refresh limited (par rapport au CPU/GPU Limited sur PC)

Bon après nenamark c'est du test GPU principalement il me semble non ?

Merci de tes réponses comme d'hab ;)

Lien vers le commentaire
Partager sur d’autres sites

Non, nenamark c'est pour le gpu ^^, voyons. Mais un SOc aujoud'hui, c'est pour le public geek, un CPU + un GPU, meme si dans la realité c'est bien plus...

Un resultat nenamark n'a rien a voir avec le cpu, enfin j'espere. Le cpu ne fait que preparer les données, et envoie les primitives au gpu. Et la limite de l'ecran, tu l'atteint quand le framerate ne varie jamais sur le test. Si c'est le cas, c'est bon, ca veut dire que le test n'est pas conclusif. Il faut soit un plus gros ecran ^^ soit bypasser l'ecran et utiliser les api de test opengles.

Lien vers le commentaire
Partager sur d’autres sites

C'est exact. en fait tout la scene est loadée et il y a peu de mouvement "d'intelligence", ce ne sont que des mouvement de camera qui sont integralement calculé par GPU. Le test GLbenchmark Egypt , lui, est un peu plus dependant du cpu, mais le GPU est tellement chargé que c'est surement pas le CPU qui limitera...

Lien vers le commentaire
Partager sur d’autres sites

@greg_p : Un test GPU a à voir avec le CPU dans la mesure où il a besoin de lui pour ramener les infos comme tu le dis.

Ceci dit, je ne sais pas si dans le monde du SoC Arm il arrive des moments de CPU-limited comme ça peut arriver sur PC (du fait de la non possibilité de changer de GPU sans changer de CPU, pour le commun des mortels évidemment).

Lien vers le commentaire
Partager sur d’autres sites

C'est vrai dans le theorie, mais compltement marginal en terme de perf... Grosso modo, le cpu execute des api qui gave le gpu manager de pointeurs memoire physique + des code d'operation (qui suivent les etapes de l'api opengl), et recoit une IT quand c'est fini, alors il passe a la suivante... Mais il calcul les mouvements des objets, evidement. Mais l'ensemble des dessins d'une scene, la camera, l'ecrairage, le fenetrage, ... tout est geré par le gpu, le cpu ne fait que donner des ordres via l'api.

Modifié par greg_p
Lien vers le commentaire
Partager sur d’autres sites

Dans la théorie, un cas de CPU-limited nécessite simplement une activité assez gourmande pour que le CPU fasse goulot d'étranglement et empêche le GPU de donner son maximum.

Sur PC il y a un paquet de jeux qui posent ce problème (surtout les STR ou des jeux avec une physique très poussé) mais sur mobile je n'ai pas d'exemple en tête.

Lien vers le commentaire
Partager sur d’autres sites

Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.
×
×
  • Créer...