HoM3r17 Posté(e) 13 mai 2013 Share Posté(e) 13 mai 2013 ok mais donc pour revenir a ma question le vrai soucis c'est quoi ? c'est Nvidia qui ne fournit pas encore les SoC ou les constructeurs qui vont se servir ailleurs ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 mai 2013 Auteur Share Posté(e) 13 mai 2013 C'est impossible de véritablement savoir car Nvidia est resté très vague sur la disponibilité réelle des Tegra 4 et 4i. Mais l'absence totale d'annonce de produits ou de partenariat montre bien que les constructeurs sont très réticent. D'autant plus que Nvidia n'a plus beaucoup de partenaires possibles maintenant que LG, HTC, Samsung, Sony et probablement Motorola leur ont tourné le dos. Il reste les constructeurs chinois (et je pense que c'est surement ce qui va se passer). D'ailleurs cette situation est très inquiétante pour ARM. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Azdine57 Posté(e) 13 mai 2013 Share Posté(e) 13 mai 2013 Salut j'aurai besoin d'une petite explication concernant le gain de perf ressenti confirmé par Antutu. Kernel Stock: Kernel d'AndreiLux (Perseus): Merci... Envoyé depuis mon GT-I9500 avec Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
oursondroidarm Posté(e) 13 mai 2013 Share Posté(e) 13 mai 2013 La dernière mise a jour Samsung comporte de nombreuses optimisations qui améliorent les perf envoyé depuis un univers parallèle, dans une autre dimension. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 mai 2013 Auteur Share Posté(e) 13 mai 2013 Le changelog ne mentionne aucune modification apportée qui puisse modifier les performances. Ce que AndreiLux confirme d'ailleurs. Cependant, tu n'es pas la seul à avoir constater ce changement. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
oursondroidarm Posté(e) 13 mai 2013 Share Posté(e) 13 mai 2013 Pardon j'avais lu sa pourtant. envoyé depuis un univers parallèle, dans une autre dimension. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 13 mai 2013 Share Posté(e) 13 mai 2013 C'est impossible de véritablement savoir car Nvidia est resté très vague sur la disponibilité réelle des Tegra 4 et 4i. Mais l'absence totale d'annonce de produits ou de partenariat montre bien que les constructeurs sont très réticent. D'autant plus que Nvidia n'a plus beaucoup de partenaires possibles maintenant que LG, HTC, Samsung, Sony et probablement Motorola leur ont tourné le dos. Il reste les constructeurs chinois (et je pense que c'est surement ce qui va se passer). D'ailleurs cette situation est très inquiétante pour ARM. En quoi est ce inquiétant pour ARM ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 mai 2013 Auteur Share Posté(e) 13 mai 2013 Si les A15 échouent (ce qui est entrain de se produire), ARM n'a pas d'alternative à proposer dans l'immédiat et c'est donc une bonne partie de leurs revenus qui s'effondrerait à un moment où la concurrence avec Intel risque de s'intensifier et où la plupart des concepteurs de SoC semblent prêt à abandonner les designs ARM (Nvidia, Apple, Qualcomm) pour ne garder que les jeux d'instructions. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 13 mai 2013 Share Posté(e) 13 mai 2013 (modifié) Mais pourtant ARM a sa solution big.LITTLE qui pourrait lui permettre d'intégrer ces A15 et qui est plutôt une bonne solution pour les constructeurs de SoC. Donc jene voit pas pourquoi les A15 échouraient Edit : Les constructeurs de SoC ARM actuel peuvent passer en x86 ? Modifié 13 mai 2013 par LoLoBaRjO Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 mai 2013 Auteur Share Posté(e) 13 mai 2013 Le big.LITTLE semble malheureusement ne pas être économiquement viable. Pour maintenir son big.LITTLE dans une enveloppe thermique et énergétique similaire au S600 de Qualcomm, Samsung a dû utiliser un fréquence plus faible de 16%. Certes, même à cette fréquence, le big.LITTLE reste environ 10%-15% supérieur au S600 mais à un coût 40% supérieur. Si une version vraiment finalisé de la technolohie avait pu arrivée actuellement sur le marché les choses seraient probablement différentes mais d'ici à ce qu'un modèle utilisant un kernel à jour arrive, les S800 auront déjà débarqués et ce sera un tout nouveau match. Les coûts de prod. de Qualcomm vont largement augmenter mais les performances devraient faire un bond elles aussi alors qu'aucune evolution technologique n'est guère possible avant 2014 et le 22nm FinFET pour les A15. Sachant qu'en plus, la hausse des coûts rapproche de plus en plus les SoC ARM des SoC Intel en termes de coût pour les constructeurs mais toujours avec des perfs bien moindre chez ARM. Jusque là, honnêtement, le match s'était surtout joué sur la qualité des produits mais le niveau de perfs est devenu tel que le match se déplace progressivement sur le terrain coûts de productions (probablement avant de basculer sur celui de l'image de marque comme sur PC) Edit : Sous réserve d'acquérir voir de pouvoir acquérir une license pour l'X86 (comme AMD), oui mais je doute de la capacité des acteurs du secteurs à faire ce changement. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 13 mai 2013 Share Posté(e) 13 mai 2013 TSMC a commencé a gravé du A53 et A57 en 16nm d'apres ce que j'avais lu non ? on savait déja que le A15 ne serait pas viable sur nos mobiles a cause de sa conso monstrueuse, mais le A7 et les évolutions du A9 tiennent encore la route une fois optimisées ... regardes Intel et son architecture x86, depuis Sandy Bridge rien de majeur n'a changé (soit 3 ans) et ils sont toujours au top des ventes a des prix pourtant loin d'etre attractifs ... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 mai 2013 Auteur Share Posté(e) 13 mai 2013 Sur le marché des PC, l'image de marque est plus importante que le coûts aujourd'hui. Les constructeurs préfèrent utiliser du Intel et du Nvidia parce que c'est bien plus facile à vendre au consommateur. Sur mobile, on en est pas encore là. TSMC produit effectivement des samples de SoC ARMv8 16nm mais le processus ne sera pas dispo avant un an pour les constructeurs et les samples ne sont même pas finalisé. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 13 mai 2013 Share Posté(e) 13 mai 2013 Ok d'ac donc en quelques sorte le big.LITTLE est voué à mourir et ARM risque de ce faire bouffer par Intel. Mais les A53-57 ne seront-ils pas plus gourmand que les A15 ? Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 mai 2013 Auteur Share Posté(e) 13 mai 2013 Impossible à predire. L'ARMv8 sera bien plus riche que l'ARMv7 ce qui devrait augmenter la complexité des SoC et donc leur consommation. Mais ils seront gravé en 22/16nm donc ça pourrait largement compenser. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 13 mai 2013 Share Posté(e) 13 mai 2013 Graver en 22/16 nm peut à ce point compenser ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Azdine57 Posté(e) 13 mai 2013 Share Posté(e) 13 mai 2013 (modifié) Pour l'instant tout roule aucun problème à signaler concernant l'autonomie ou la chauffe dans cette version Octa. J'ai flashé la ROM Wanamlite + Kernel Perseus et j'ai fait un Bench: J'en ai profité pour prendre la tête du Ranking on va voir qui va venir me chercher là haut ;) Envoyé depuis mon GT-I9500 avec Tapatalk Modifié 13 mai 2013 par Azdine57 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 mai 2013 Auteur Share Posté(e) 13 mai 2013 Graver en 22/16 nm peut à ce point compenser ? En fait ce n'est pas qu'une meilleure finesse de gravure, ce sera une toute nouvelle technique donc ont pourrait gagner pas mal par rapport à l'HKMG. Après ça dependra de la conso des ARMv8. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 13 mai 2013 Share Posté(e) 13 mai 2013 Et le 16nm risque de poser probleme sur la dissipation thermique non ? avec cette finesse la densité doit etre juste énorme, si on ajoute a ca la surface de dissipation moindre ca va faire mal non ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 13 mai 2013 Auteur Share Posté(e) 13 mai 2013 Pour moi ça fait partie des gros doutes sur la viabilité du sub-20nm. L'augmentation de la finesse de gravure va augmenter les fuites de courant donc il faudra plus de courant pour un même résultat donc la dissipation thermique sera plus importante. Bon le problème n'est pas neuf mais ce sera intéressant de voir comment ils vont gérer ça. Cela étant dit, il est intéressant de noter que le 14nm risque de ne pas arriver chez Intel avant 2015 (ils annonçaient 2014). Et même si Global Foundry et TSMC avaient annoncé 2015 eux aussi je les vois mal faire jeu égal avec Intel. (Même si Samsung et TSMC ont déjà réellement produit des SoC 14/16nm et que Samsung dit avoir finalisé son processus). Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 15 mai 2013 Share Posté(e) 15 mai 2013 A force de devenir de plus en plus fin, la surface de gravure s'étendra ? Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 15 mai 2013 Auteur Share Posté(e) 15 mai 2013 Non, justement, la surface se réduit ce qui pose un vrai problème car les fuites de courant augmente sur des surfaces de plus en plus petites. Mais bon, il commdnce à y avoir un sacré paquet de problèmes avec la gravure au silicium. Changement de sujet mais je me pose une question : comment les S600 peuvent-ils atteindre les 100% d'efficience dans l'interprétation du Java ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lolobarjo Posté(e) 16 mai 2013 Share Posté(e) 16 mai 2013 Les autres SoC que les S600 ne sont pas aussi performant dans le java ? Envoyé avec mon SGS2 Citizy accro à CM10.1 -> Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 16 mai 2013 Auteur Share Posté(e) 16 mai 2013 Non. Les A15 sont à environ 40% d'efficience et les A9 étaient à peine plus haut. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Azdine57 Posté(e) 16 mai 2013 Share Posté(e) 16 mai 2013 L'autonomie du S600 et de l'Exynos est sensiblement égale (j'ai testé les deux) pourtant on dit que l'Exynos consomme trop et que la fréquence a du être rabaissé à 1.6GHz... Donc on parle d'un rapport Consommation/Fréquence (ce qui ne veut pas dire grand chose)... Mais en réfléchissant bien on devrait pas plutôt parlait d'un rapport Consommation/Puissance comme dans l'automobile par exemple? Dans ce cas l'Exynos consommerait autant que le S600 tout en développant une puissance nettement supérieure... Ce qui veut dire qu'à performances egales l'Octa consommerait bien moins... Envoyé depuis mon GT-I9500 avec Tapatalk Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 16 mai 2013 Auteur Share Posté(e) 16 mai 2013 La notion de perf/Watt est déjà utilisé depuis longtemps dans les Whitepapers des constructeurs. Mais en l'état, vu l'efficience des S600 en Java ils ont de meilleurs perfs que les A15 sur Android. Ce qui est bien triste d'ailleurs. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Recommended Posts
Rejoignez la conversation
Vous pouvez poster maintenant et vous enregistrez plus tard. Si vous avez un compte, connectez-vous maintenant pour poster.