Aller au contenu

[AUTRE] Samsung Galaxy S IV, parlons-en


Ster97

Recommended Posts

Un 544MP3 même à 533Mhz ça ferait quand même assez juste alors qu'Apple va très surement sortir un bon gros Rogue.

Même si cela reste un bon GPU.

Pour la batterie ce sera quand même bien fluctuant suivant l'utilisation (si c'est bien l'octa). Vu la différence de consommation faramineuse entre A7/A15.

Lien vers le commentaire
Partager sur d’autres sites

Salut Infernus. Ça fait un bail ^^.

En fait, les Rogues ne sont semble-t-ils pas encore prêt. Donc difficile de vouloir les intégrer à un produit pour le moment. Idem pour les Mali-T628 ce qui ne laisse guère le choix.

Concernant la consommation, c'est clair que, dans des situations très spécifique, les architectures big.LITTLE risquent d'avoir une consommation énorme (4.5W c'est plus du double des Tegra 3).

Le problème c'est qu'il est difficile d'évaluer dans quelles situations le problème va se poser.

Avec toujours la même erreure de descriptif (PowerVR d'ARM). Lol.

Lien vers le commentaire
Partager sur d’autres sites

Je l'ai posté hier dans un autre topic (pour parler d'autre chose).

Mais un nouvel appareil a fait son apparition dans GLBenchmark : le Samsung SHV-E300.

Il s' agit d'un appareil 1080p équipé d'un S600@1.9Ghz et d'Android 4.2.1

A mon avis c'est probablement un prototype de GS4

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Samsung+SHV-E300S&testgroup=overall

Modifié par Alex98
Lien vers le commentaire
Partager sur d’autres sites

@Alex98 : Effectivement, j'essaie de ne plus trop tourner sur les forums, histoire de bosser un peu ^^

Pour la conso, je me base sur la démonstration de l'octo sur la tablette de samsung au MWC.

Les A15 n'ont l'air de monter à la charge que lorsque ça suce beaucoup, donc je pense que l'on peut s'attendre à du bien niveau conso.

Par contre en jeu, ça va consommer sévère.

D'ailleurs d'après ce qui est indiqué sur GLBenchmark, toujours pas de boutons sur l'écran...

Je trouverai ça dommage si Samsung ne pouvait pas intégrer un Exynos dans son flagship, ça repousserait au nouveau GNote.

Lien vers le commentaire
Partager sur d’autres sites

En jeu, les CPU ne sont pas forcément beucoup sollicités. Les jeux mobiles sont très différents des jeux PC ou console. Ils n'ont que peu d'animation, des IA extrêmement limitées et pas ou peu de moteur physique. Les jeux mobiles sont surtout gourmand en GPU.

Ce qui consommera beaucoup à mon avis ce sera l'encodage de vidéos

Une version SCH-I959 pour la Chine découvert sur Antutu:

http://www.ibtimes.co.in/articles/441441/20130303/samsung-galaxy-s-4-cdma-smartphone-benchmark.htm

a6emajyj.jpg

L'écran est confirmé comme étant un SoLux...

1.8Ghz ce n'est sans doute pas du Qualcomm cette fois.

Lien vers le commentaire
Partager sur d’autres sites

C'est surtout qu'en jeu c'est souvent du monothread et que du coup y'a de fortes chances que ça parte sur le A15.

Après un détail que je ne connais pas, c'est est ce que l'exynos est capable de switcher les coeurs actifs indépendamment.

D'après la vidéo je dirais oui, mais je n'en sais pas plus. Des infos ?

Lien vers le commentaire
Partager sur d’autres sites

Capable oui.

D'un point de vue architecturel, chaque core est power gated (on peut couper son alim et l'éteindre) et la gestion du switch est externe aux clusters eux même (c'est une unité nommé GCI-400 qui s' en occupe et elle est programmable).

Avec une modification du DVFS ont peu donc sans soucis utiliser 2 A7 et 2 A15 en même temps ou bien 3 A7 et 1 A15 voir même 1 A15 tout seul.

Théoriquement ce mode d'usage n'est pas prévu par ARM mais Samsung l'a tout de même développé et ils appellent ça "CPU Migration" (en opposition au "Cluster Migration" d'ARM qui switch complètement de cluster). C'est effectivement le mode qu'on voyait sur les tablettes de demo Samsung.

Par contre de là à savoir si ils vont l'utiliser c'est autre chose. Ils ont publié un véritable pamphlet sur les architectures se basant sur des modifications du DVFS (asynchrone du coup) en expliquant que ça engendrait des problèmes de stabilité des perfs et qu'une architecture big.LITTLE basé sur le cluster migration était plus efficace.

Le document, qui était bien entendu à l'attention de Qualcomm, à été retiré depuis mais les problèmes détaillés (c'était un whitepaper) dedans sont bien réel donc...

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

Effectivement je me souviens qu'il y avait eu débat sur les techniques asynchrones de Qualcomm.

Cela dit activer le cluster de A15 pour une tâche monothread ça engendre une consommation assez énorme, sachant que les coeurs ne peuvent avoir une fréquence différente.

Faire du 2/2 ça pourrait être intéressant je pense.

Lien vers le commentaire
Partager sur d’autres sites

Le "40.000" c'est juste le marqueur de palier. Ça signifie que le GS4 fait entre 20.000 et 40.000.

Mais Antutu a publié le détail des scores :

Total: 24894

Ram: 5144

Integer: 5228

Float-point: 5536

2D: 1621

3D: 6449

DB: 565

SD-W: 150

SD-R: 201

Hormis la RAM, ce sont des scores typique des S600 (exactement les mêmes en fait). Et la RAM c'est probablement simplement car les autres S600 sont encore en LPDDR2.

Lien vers le commentaire
Partager sur d’autres sites

Au contraire. Le GS4 affiche des scores RAM supérieurs aux appareils S600 (One et G Pro) probablement car il utilise de la LPDDR3 (alors que les autres utilisent de la LPDDR2).

Ça coïncide aussi avec les scores GLBenchmark du Samsung SHV-E300S (S600 - 1080p) qui est nettement supérieur (+21%) aux autres S600 . Probablement car les autres sont limités par leur bande passante

Lien vers le commentaire
Partager sur d’autres sites

Rejoignez la conversation

Vous pouvez poster maintenant et vous enregistrez plus tard. Si vous avez un compte, connectez-vous maintenant pour poster.

Invité
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...