lolobarjo Posté(e) 12 janvier 2013 Share Posté(e) 12 janvier 2013 Le i/o scheduler c'est SW nan ? Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Neutre0 Posté(e) 12 janvier 2013 Share Posté(e) 12 janvier 2013 Non, c'est un composant HW qui sert de feu pour donner la priorité à tell ou tell composant HW. 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 12 janvier 2013 Auteur Share Posté(e) 12 janvier 2013 (modifié) De mémoire, le modèle d'utilisation (IKS ou HPM) est chargé dans un hypervisor au démarrage qui fait croire au système qu'il n'y a qu'un seul cluster et l'hypervisor switch ensuite entre les clusters sans prévenir le système (en fonction du workload). Tu as aussi une interface qui gère la cohérence du cache entre tout le système. D'où l'intérêt d'avoir un nombre égal de core dans chaque cluster et d'avoir des cores qui gèrent les mêmes instructions et extensions. Sinon ça ne marche pas. Edit : En gros dans le cadre de l'IKS ça donne quelque chose comme ça : Le système ne voit qu'un cluster A15. Quand la charge passe un certain niveau, le SoC met en pause le système, allume le cluster B, transfert les registres du cluster A vers le B, éteint le A, rallume le système exactement au même endroit et il n'a rien vu du tout. Modifié 12 janvier 2013 par Alex98 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 janvier 2013 Auteur Share Posté(e) 13 janvier 2013 L'Exynos 5 Octa supporte tous les modèles de big.LITTLE : cluster migration, cpu migration, Big.LITTLE MP. Cluster migration (IKS) : Les A7 et A15 sont considérés comme 2 CPU séparé et l'hypervisor switch entre les 2 en fonction de la charge du système. CPU migration : L'hypervisor peut activer au maximum 4 Cores indépendamment de leur "type" (A7 ou A15). Il peut donc activer 3 A7 + 1 A15 ou 2 A7 + 2 A15, ... big.LITTLE MP : L'hypervisor peut activer tous les cores (les 8) et repartie les instructions en fonction de leur complexité (les apps les moins lourdes pour les A7, les grosses apps pour les A15). 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 13 janvier 2013 Share Posté(e) 13 janvier 2013 Je croyais avoir lu (The Verge je crois) que dans aucun cas les 8 coeurs pourraient etre activés au meme moment, ca serait faux ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 janvier 2013 Auteur Share Posté(e) 13 janvier 2013 Oui c'est effectivement totalement faux lol. Le mode big.LITTLE MP (8 core actifs) est prévu par ARM depuis le lancement du projet et devait être finaliser au Q1 2013 (maintenant en fait lol). Lien vers le whitepaper d'ARM si tu n'as pas confiance =p (page 7 de mémoire) : http://www.arm.com/files/downloads/big_LITTLE_Final_Final.pdf Dans le cas de l'Exynos 5 Octa : PS : il faut éviter les sites non spécialiser dans le HW sur ce genre de sujet. 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Kyogiro Posté(e) 13 janvier 2013 Share Posté(e) 13 janvier 2013 L'architecture big.Little est avantageuse sur bien des points mais il semblerait que seul Samsung s'y essaierait durant cette 1ere moitié de 2013. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Azdine57 Posté(e) 13 janvier 2013 Share Posté(e) 13 janvier 2013 Il semble plus évolué que les Tegra 4 et S800 non? Envoyé depuis mon Galaxy S3 I9305 4G LTE Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 janvier 2013 Auteur Share Posté(e) 13 janvier 2013 Samsung n'est pas vraiment le seul. TI aussi aura une architecture équivalente (à base de A15+core M4) qui reprend les mêmes concepts mais il semblerait qu'ils n'aient qu'un dual A15 dual M4 de prévu. Qualcomm n'a, de son côté, pas besoin du big.LITTLE puisqu'ils n'utilisent pas de A15 (parce que le problème c'est bien les A15 qui ont une consommation astronomique). Nvidia de son côté est dans une position étrange car ils ont opté pour un 4+1 où le "+1" est un A15 dont la fréquence est limités... Choix étrange car les A15 sont prévus pour être power gated (chaque core a sa propre unité d'alimentation et un core qui ne fait rien est éteint). De plus, le 4+1 de Nvidia fait assure sa cohérence au niveau du cache partagé (aucune économie de ce côté donc) et le +1 sera gravé via le même process que les autres... on ne peut donc que s'interroger sur l'intérêt de la solution de Nvidia face à un simple quad A15 capable de tourner sur 1 core jusqu'à une certaine fréquence (ce qui est le fonctionnement normal des A15). Honnêtement ça sent fort la feature marketing pour pigeon (contrairement au 4+1 du Tegra 3). D'autant plus qu'un A7 même à sa plus haute fréquence consomme plus qu'un A15 à sa plus basse fréquence (la faute au cache des A15 sans doute). Il semble plus évolué que les Tegra 4 et S800 non? Les Snapdragon 800 reste des cores Kraits et je partage l'avis d'Anandtech, même avec les optimisations annoncés par Qualcomm, ils ne devraient pas être en mesure de conccurrencer les A15 niveau perf/Mhz. Par contre, et c'est un avis perso, je suis certains qu'ils auront un meilleur rapport perf/W que les A15 pure... mais vu les résultats obtenus par ARM, Linaro et Samsung avec le big.LITTLE, Qualcomm a du soucis à se faire. Du côté de Nvidia, je dois avouer que je ne comprend pas leur choix (et je ne suis pas le seul, sur Anandtech un topic sur la.question existe et tout le monde est sceptique). Peut-être ciblent-ils une consommation modéré à un niveau de perfs moyens et non pas une consommation minimal en usage faible mais même là il est dur de voir l'avantage des Tegra 4 par rapport à du stock A15. 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 13 janvier 2013 Share Posté(e) 13 janvier 2013 Ti c'est pas retirer du marché de puce pour mobile ? Et c'est quoi la diff entre A7 et M4 ? Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 janvier 2013 Auteur Share Posté(e) 13 janvier 2013 (modifié) Ti c'est pas retirer du marché de puce pour mobile ? Et c'est quoi la diff entre A7 et M4 ? Ils devraient quand même mettre sur le marché les Omap 5. Par contre après il ne devrait plus rien y avoir. Les A7 et M4 sont des cores basses consommations mais les M4 sont designé par TI. Par contre je ne crois pas qu'ils aient communiqué sur l'architecture des M4 publiquement. Résultats de consommation des architectures big.LITTLE vs A15 vs A7 chez Linaro/ARM sur une pré-version Les résultats sont basés sur l'architecture test produite par TSMC. Elle contient un dualcore A15 et 3 cores A7. Légende : En bleu la consommation d'un dualcore A15 en lecture audio En rouge la consommation d'un dual A7 en lecture audio En jaune la consommation d'une architecture 2A15+2A7 en mode cluster migration en lecture audio En vert la consommation d'une architecture 2A15+3A7 en mode Big.LITTLE MP en lecture audio. Sur une activité plus complexe (web-bench + Audio). Légende : Losange bleu = A15 Rond violet = Big.LITTLE en mode Cluster migration première version Triangle rouge = Big.LITTLE en mode cluster migration deuxième version Carré rouge = A7 Résultats de consommation et performances des architectures big.LITTLE vs A15 vs A7 chez Samsung Modifié 13 janvier 2013 par Alex98 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 13 janvier 2013 Share Posté(e) 13 janvier 2013 Ok qu'il me semblait avoir lui que TI allait quitter le mode mobile et abandonné leur OMAP5 mais si il le sortent sa serait cool. Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 janvier 2013 Auteur Share Posté(e) 13 janvier 2013 (modifié) Concernant les Tegra 4, il reste amusant de voir que Nvidia refuse de répondre aux questions concernant la consommation du SoC. News : de l'AMOLED 4.99" 1080p 25% moins gourmand pour le T1 2013. Samsung a finalement annoncé durant le salon (annonce totalement passé inaperçue) que les écrans 4.99" AMOLED 1080p seraient dispo dès le premier trimestre 2013. Samsung ajoute que les nouvelles revisions de l'AMOLED utiliseront un nouveau matériau qui permet une réduction de la consommation de l'ordre de 25%*. En outre, les nouveaux écrans seront doté d'un mode d'économie d'énergie qui permettra d'abaisser la consommation de 47% supplémentaires. Source : Anandtech * même si le nouveau matériau n'est pas précisé, on peut raisonnablement avancé qu'il s' agit de l'utilisation de sous pixels pholed (à la place de l'Oled) pour certains sous-pixels (au moins les verts). Une technologie que Samsung test depuis un an et qui doit constituer le prochain bond technologique pour les écrans OLED. Modifié 13 janvier 2013 par Alex98 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Azdine57 Posté(e) 13 janvier 2013 Share Posté(e) 13 janvier 2013 D'après mes tests en utilisation intensive l'Exynos Quad Core 4412 tient bien mieux la charge que les Nvidia Tegra 3 et Qualcomm S4 Pro... La tendance risque-t-elle de s'inverser en 2013 vu que les A15 sont plus énergivores que les Kraits? -Qualcomm sortira-t-il son S800 en même temps que Samsung et Nvidia ou il va encore attendre le quatrième trimestre en proposant seulement un S600 les trois précédent ? Envoyé depuis mon Galaxy S3 I9305 4G LTE Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Kyogiro Posté(e) 13 janvier 2013 Share Posté(e) 13 janvier 2013 Le gain en autonomie semble énorme. Ce qui est excellent vu ce que consomme les A15. J'ai vraiment hâte de voir les 1ers appareils équipés de SoC big.Little arriver (peut être le Samsung Galaxy S IV ?). Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Neutre0 Posté(e) 13 janvier 2013 Share Posté(e) 13 janvier 2013 (modifié) Imaginez que le GNote 3 arrive avec le SoC Exynos 5, et il à une autonomie de 4 jours :) EDIT : @Alex98 : Je ne sais pas, est-ce que tu l'as dit ou pas, mais la Tegra 4 supporte la Ultra HD, c'est-à-dire que les appareils munis de cette puce seraient capables de faire tourner un film / vidéo en 4K (4x la FULL HD), et qui sait peut être même filmé en 4 K. Modifié 13 janvier 2013 par Neutre0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 janvier 2013 Auteur Share Posté(e) 13 janvier 2013 @ Azdine Ce sont des questions difficiles lol. En me basant sur les modèles de consommation/performances de ARM, Linaro et Samsung, il me paraît clair que les architectures big.LITTLE ont un net avantage en terme de consommation sur les architectures stock A15 ou Krait. Un A7 consomme beaucoup moins en veille qu'un A15 ou un core Krait. De même, en usage (comme on le voit dans les graphiques plus haut), le gain de consommation par rapport à une architecture A15 stock dépasse largement les 50% en moyenne et monte à au moins 40% sur les activités complexes type benchmark. La vitesse de switch (20 microsecondes bien mieux que les 2 milisecondes des Tegra) n'est sans doute pas étrangère à ces résultats. A mon avis le SoC switch à la moindre baisse de charge CPU ce qui divise immédiatement la consommation par deux mêmes si ça ne dure pas plus de quelques milisecondes. En me basant sur les informations données par Samsung, on peut dire que l'Exynos 5 octa intègre probablement un contrôleur GCI-400 programmable (sinon un seul mode serait possible) et que chaque core de chaque CPU est power gated (sinon le modèle de CPU migration ne serait pas possible). Dans l'absolue, ça signifie qu'en veille, on peut ne garder qu'un core A7 actif. Impossible pour les autres de consommer aussi peu avec des cores orientés performances. En activités, classique, les A7 peuvent gérer l'UI, la plupart des apps, les jeux non cpu-intensif (99% des jeux). Vu la vitesse du switch, la plupart du temps les A15 ne devraient s'activer que pour des tâches éphémères (ex : le mobile charge une page Web, les A15 s'active, une fois fini le déplacement sur la page est géré par les A7). Ce qu'il faut voir c'est que théoriquement, pour un même niveau de perfs, 4 cores A7 consomment 2 fois moins qu'un core A15. À l'inverse pour un même niveau de consommation, 4 cores A7 délivrent 2 fois les performances d'un core A15. Sinon pour les S800, connaissant Qualcomm, ce sera pour le S2 2013 au mieux. Ils évitent d'avoir 2 SoC HdG simultanément sur le marché en général. 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 13 janvier 2013 Share Posté(e) 13 janvier 2013 Imaginez que le GNote 3 arrive avec le SoC Exynos 5, et il à une autonomie de 4 jours :) EDIT : @Alex98 : Je ne sais pas, est-ce que tu l'as dit ou pas, mais la Tegra 4 supporte la Ultra HD, c'est-à-dire que les appareils munis de cette puce seraient capables de faire tourner un film / vidéo en 4K (4x la FULL HD), et qui sait peut être même filmé en 4 K. La 4K et Ultra HD c'est pas exactement la meme chose, meme si les constructeurs eux mêmes, et les journalistes ont tendance a mélanger les deux, l'Ultra HD représente réellement le double de pixels en hauteur et en largeur par rapport au Full HD (FHD : 1920 x 1080 => UHD : 3840 x 2160) alors que la 4K est plus large avec 4096 pixels en largeur et toujours 2160 en hauteur (soit une image au format 17:9 et non pas 16:9)@Alex98 du coup on parlait du fait que les 8 coeurs pouvaient fonctionner en meme temps grace au mode "big.LITTLE MP" mais est-ce qu'on a des infos sur l'utilisation réelle (dans quels cas de figure cette option sera activée) et sur l'impact sur la conso ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 janvier 2013 Auteur Share Posté(e) 13 janvier 2013 (modifié) @Alex98 du coup on parlait du fait que les 8 coeurs pouvaient fonctionner en meme temps grace au mode "big.LITTLE MP" mais est-ce qu'on a des infos sur l'utilisation réelle (dans quels cas de figure cette option sera activée) et sur l'impact sur la conso ? Malheureusement non. En fait l'utilisation de ce modèle nécessite que l'OS soit capable de déterminer le niveau de complexité d'une tâche afin de la rediriger vers le core adéquat. Chose qu'aucun OS actuel ne sait faire. L'autre soucis c'est que ce modèle ne devait être finalisé que durant ce trimestre et que donc il n'y a jamais eu que des implantations non-finalisés. ARM a tout de même fait le test et de leur propre aveux, cela consomme significativement plus que le cluster migration à cause d'une mobilisation inexpliquée des core A15 lorsqu'ils ne devraient normalement pas fonctionner. Il faut compter 30% de consommation en plus par rapport à du cluster migration sur des activités basiques (type lecture audio) où les A15 ne devraient pas fonctionner. Quand au cas de figure où elle serait activé et bien il faut plutôt y pense sur tablette à moyen terme puis probablement sur smartphone lorsque le système sera au point (car en principe, un core inactif est désactivé avec ce système). Edit : à mon sens le modèle de fonctionnement qui est potentiellement le plus efficace à court termes c'est celui du CPU Migration mais il semble que ce modèle soit spécifique à Samsung. Modifié 13 janvier 2013 par Alex98 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 13 janvier 2013 Share Posté(e) 13 janvier 2013 Et a votre avis Intel pourrait rivaliser avec ses SoC Atom ? Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 janvier 2013 Auteur Share Posté(e) 13 janvier 2013 Rivaliser à quel niveau ? Perf ou consommation ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 13 janvier 2013 Share Posté(e) 13 janvier 2013 Je pensait au perf mais tu vient de me faire penser qu'il y a la conso aussi donc je dirait les deux ^^ Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
oursondroidarm Posté(e) 13 janvier 2013 Share Posté(e) 13 janvier 2013 perso je pense peut êtr pendant un temps mais pas sur le long terme l'architecture x 86 à été choisi pour des raisons politico économique pas pour son rapport puissance taille consomation intel à beaucoup de moyens (contrairement a arm ...enfin tout est relatif) donc peut se permettre de s'arranger pour avoir un bon rapport perf / puissance/ taille mais il ne pourra pas faire sa à l'infini pour moi l'arm est l'avenir du processeur et pas seulement en mobilité 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 janvier 2013 Auteur Share Posté(e) 13 janvier 2013 Vous aimez les questions dures ^^. Pour le moment les Atom sont relativement compétitif dans le milieu de gamme. Ils sont peu gourmands et offrent des performances correctes voir excellente dans certains domaines (exécution javascript) ) grâce à de meilleurs jeux d'instructions. Je ne m'y suis pas trop intéressé mais si j'ai bien suivit, la prochaine génération devrait surtout passer aux dualcores et doubler les perfs GPU tout en étant gravé en 32nm HKMG. A vu de nez, rien de bien transcendant face à l'arrivée des A15 et nouvelles générations de GPU mais je préfère attendre de vrai résultats. A l'avenir, les choses seront sans doute encore moins simple : ARM complexifie lourdement ses architectures ce qui conduit à une augmentation drastique de la consommation (d'où le big.LITTLE). Avec les futures architectures 64bits ARM, l'évolution de la finesse de gravure et les améliorations des architectures x86, il y aura un chevauchement de plus en plus important je pense. 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
oursondroidarm Posté(e) 13 janvier 2013 Share Posté(e) 13 janvier 2013 mais moi jpense dans l'autre sens : des SoC arm dans nos pc!! (et on dira l'ancetre de tout da c'est la surface rt et les transformers d'asus xD) Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Recommended Posts
Rejoignez la conversation
Vous pouvez poster maintenant et vous enregistrez plus tard. Si vous avez un compte, connectez-vous maintenant pour poster.