Kyogiro Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 Attendons de voir ce que vont vraiment donner les Tegra 4. Jusqu'à maintenant les Tegra se sont toujours faits dépasser sur une même generation par leurs concurrents (Samsung notamment). TI n'a plus vraiment été parmi les top depuis la fin des architectures sous ARM cortex A8. Le A9 est là depuis à peut près 24 mois déjà et les TI 4 (4430 et 4470) sont sortis très tardivement et le gpy embarqué (POWER VR SGX 540) se faisait dépasser par presque tout ce qui se faisait. Celui qui est bien revenu dans la course à la performance, c'est Qualcomm (au niveau des parts de marché, ça a toujours été devant) avec ses S4 et surtout smla version pro équipé enfin d'un GPU qui ne soit pas dépassé dès son lancement par la génération précédente. Le tout gravé en 28 nm, Qualcomm a vraiment fait une bonne impression depuis la fin d'année 2012. Il faudra surveiller de près le Tegra 4, le SoC serait vraisemblablement disponible assez tôt dans l'année comme nVidia a l'habitude de faire depuis le Tegra 2 mais surtout Samsung et son exynos sous cortex A15 dans une version plus évoluée et plus répandue que celle qui équipe l'actuel Nexus 10. Sent from my MI 2 using Tapatalk 2 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 Plus de détails sur le Tegra 4 ici ... première fois que j'ai envie de dire AMAZING devant un produit Nvidia depuis très longtemps, apres faut relativiser, Nvidia est très bon en marketing, c'est peut etre encore une entourloupe mais j'ai envie d'y croire ... le HDR en temps réel, les 72 coeurs graphiques ect ... je bave déja ^^ Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 En l'occurrence, 72 cores mais qui, vu les annonces de Nvidia, seront toujours des ULP Geforce ce qui signifie pas d'architecture unifié, pas de support de l'OpenGL ES 3.0 ni probablement de l'OpenCL. Autant de technologie qui vont devenir des normes sur les GPU en 2013. Et ce n'est pas le seul point où Nvidia semble stagner avec les Tegra 4 (à priori, toujours pas de power-gating très poussé, pas de dual-chanel, ...). Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 A ce niveau de performances le Dual Channel est vraiment important ? ca risque pas d'augmenter le cout de la memoire ? Pour la partie graphique tu penses que les Adreno 320 sont plus avancés techniquement ? d'ailleurs ils sont fait comment ces Adreno ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Kyogiro Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 Je ne connais pas le gain de performance du dual channel spécifiquement (probablement de l'ordre de 6-10% classiquement). Par contre, la non gestion de l'OpenGL ES 3.0 et de l'OpenCL pourraient se révéler préjudiciable. A côté de ça, on aura toujours droit à la TegraZone et les jeux dédiés Tegra... A voir dans quelle direction va le marché d'une manière globale. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 En fait c'est surtout pour gérer de très hautes résolutions que le dual/quad-chanel est important. Il permet d'obtenir des bandes passantes mémoire très élevés qui sont nécessaires pour la gestion de résolutions au-delà du 1080p. Apple (Quad-chanel LPDDR2) et Samsung (Dual-chanel LPDDR3) ont d'ailleurs dû considérablement augmenter la bande passante mémoire de leurs SoC pour sortir les iPad New et Nexus 10. Après, on suppose (en fait c'est la seule explications qu'on ait trouvée) aussi que l'absence de dual-chanel sur les Tegra 2/3 joue un rôle important dans la faiblesse de leurs performances d'architectures CPU face à la concurrence équipée dual-chanel (tout le monde aujourd'hui). Sinon, la RAM ça ne coûte pas très cher aux concepteurs de SoC (d'ailleurs les SoC eux-mêmes sont assez peu honereux pour les constructeurs). Pour les Adreno 320 et bien... c'est un GPU très moderne dans l'esprit : architecture unifiée, compatible OpenGL ES 3.0 et OpenCL (pas avec la toute dernière version par contre il me semble). Il offre beaucoup d'équilibre et surtout beaucoup de souplesse au développeurs. Il ouvre aussi de nouvelles perspectives de développement sur mobile grâce à sa compatibilité OpenCL mais je ne pense pas qu'il pourra tenir la comparaison en termes de perfs pures avec les Tegra 4 (vu le nombre d'unités de calcule) et il n'a aucune chance face au PowerVR Gen 6 et Mali-T658/78. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
MissAndroïd Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 Hello! Bon allez, j’ose faire mon retour sur l’iPhone 5… :ph34r: Longtemps j’ai été une grande utilisatrice d’iPhone (entre 2007 et 2011), avant j’avais eu un Qtek que j’appréciais bien à l’époque mais l’iPhone m’avait plût car je trouvais l’interface plus simple que le Windows Mobile de l’époque d’une part et l’écran devenait « dur » contrairement aux autres Smartphones à écran « mou » et pouvait être utilisé sans stylet… Bref, après plusieurs années à passer des heures à bidouiller pour réussir à modifier une pauvre icône, j’ai fini par me lasser et suis donc passée sous Android tout en revenant régulièrement à l’iPhone car je n’arrivais jamais à trouver un androphone qui réussisse à faire « tout » ce que faisait mon iPhone. Puis, j’ai fini, il y a 3 mois, par abandonner totalement mon iPhone 4S car petit à petit je m’étais habituée aux écrans plus grands et son 3.5’’ me paraissait ridicule. Mais, mon addiction m’a rattrapée et je viens de craquer pour l’iPhone 5 ! Et là, après 3 mois passés sans iOS, j’avoue apprécier de retrouver la simplicité, la rapidité, la fluidité, la qualité du matériel, la qualité des photos et vidéos, la qualité du son, etc… Car bien que certains androphones soient très bien (HTC One X+ et Note 2 sont les derniers que j’ai utilisés mais j’ai également eu en main les One S, GNote, Nexus 4 pour les plus récents d’entre eux), il y a toujours un point qui pèche L. Par exemple, et ne me dite pas que je fabule sans avoir fait le test vous même !!, une chose qui m’a toujours énervée sur les androphones, c’est le temps que l’écran met à se réactiver entre le moment où je VEUX raccrocher et le moment ou l’écran se rallume et ou je PEUX enfin le faire ! Alors que sur l’iPhone c’est instantané ! Et ce n’est qu’un exemple parmi bien d’autres mais je ne vais pas tous les énumérer… Bref, plusieurs petits détails font que je suis bien contente d’avoir retrouvé un iPhone, quitte à y perdre un peu niveau personnalisation mais après tout, on n’achète pas un smartphone uniquement pour personnaliser ses bureaux :-/ Ce qui me manque le plus sont donc les widgets, les possibilités de personnalisation, la possibilité d’utiliser le smartphone comme disque dur mais pour le reste j’avoue que l’iPhone comble tous mes besoins. Bien évidemment, je garde aussi mon One X+ pour faire tout ce que j’ai listé ci-dessus ! J Et je ne doute pas que je continuerai longtemps à faire des allers retours entre Android et iOS ;) Voila, j'ai essayé de faire court :P Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 (modifié) Tu es comme Funk, nomade ;) personellement la seule chose qui m’attire chez Apple c'est le design, et la qualité des matiriaux utilisés ainsi que les finitions des appareils, quand tu en as un dans la main, tu es en confiance, par contre j'ai beaucoup de mal avec IOS, on ne pourra pas s'entendre longtemps tous les deux ... @Alex98 OK ... de toutes facons Qualcomm est aussi présent a ce CES, meme si leur activité ne tourne pas qu'autour des SoC ARM on peut espérer avoir quelques nouveautés pour clouer le bec de Nvidia :) Modifié 7 janvier 2013 par HoM3r Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 (modifié) Qualcomm va sûrement nous dévoiler quelque part en 2013 un SoC Krait enfin gravé en 28nm HKMG avec une fréquence de 2Ghz+, une compatibilité LPDDR3 et une version OC du 320. Enfin j'imagine. Ce que je vais dire peut paraître étrange mais pour moi, les SoC pour mobiles ont en fait une conception qui reflète systématiquement la position et la stratégie adopté par son concepteur sur ce marché. Partant de là, il est finalement assez facile de savoir à quoi s'attendre globalement. Modifié 7 janvier 2013 par Alex98 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 Mais quel serait leur interet de rester sur une architecture Krait, alors qu'en pratique elle est assez loin derrière l'architecture Cortex A15 en termes de performances ? et puis une telle augmentation de fréquence risque de faire mal a nos piles au lithium non ? Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 Qualcomm n'a guère le choix : ils doivent amortir leur architecture. Les S4 Pro ne sont pas encore pleinement déployés et on sait que Qualcomm a prévu les Krait pour qu'ils montent à 2.5Ghz (pour concurrencer les A15 @ 2Ghz probablement). Dans le passé, Qualcomm avait déjà été confronté au même problème. Avec les S3, ils avaient gardé une base de cortex A8 lourdement optimisés mais qui ne parvenait pas à conccurencer les performances d'architecture des A9. Après question consommation, le passage au HKMG devrait tout de même pas mal aider. D'autant que la comparaison se fera face aux A15 qui seront sûrement assez gourmands vu la complexité de leur architecture et le fait que... ce n'est pas une architecture pour mobile à la base. Les Kraits eux sont encore conçu dans l'optique de garder une consommation maîtrisé. D'ailleurs je suis assez surpris de voir Nvidia arrivé avec une architecture Quad A15 qui semble faire la part belle aux A15 justement. Samsung, Apple, Qualcomm et TI ne semblent pas du tout chaud pour faire de même. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 C'est le probleme de qualcomm en fait ils se calent toujours entre deux générations, du coup sur les SoC de 2012 ils ont une avance technique considérable sur les concurrents, mais dés la sortie des A15 ils vont devoir redoubler d'efforts et d'optimisations pour pouvoir suivre le rythme sur les secteurs haut de gamme ... Le Tegra 2 etait en Cortex A9 ? parce que justement autant graphiquement j'ai toujours trouvé mon Adreno 220 plus rapide, mais par contre dans les taches courantes j'ai toujours eu l'impression que mon Snapdragon S3 etait lent face au Tegra 2 de la Iconia Tab (par exemple dans l'ouverture de pages web ect) Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 Le Tegra 2 etait en Cortex A9 ? parce que justement autant graphiquement j'ai toujours trouvé mon Adreno 220 plus rapide, mais par contre dans les taches courantes j'ai toujours eu l'impression que mon Snapdragon S3 etait lent face au Tegra 2 de la Iconia Tab (par exemple dans l'ouverture de pages web ect) Tegra 2 = A9 oui. Donc ton impression est normal lol. De même pour le GPU, les Adreno 220 sont environ 30% plus rapide que les ULP Geforce des Tegra 2. C'est le probleme de qualcomm en fait ils se calent toujours entre deux générations, du coup sur les SoC de 2012 ils ont une avance technique considérable sur les concurrents, mais dés la sortie des A15 ils vont devoir redoubler d'efforts et d'optimisations pour pouvoir suivre le rythme sur les secteurs haut de gamme ... C'est vrai mais ça c'est un point de vu d'utilisateur final averti. Du point de vu de Qualcomm, qui vend des SoC aux conxtructeurs, l'essentiel c'est d'avoir un SoC équivalent dans les grandes lignes (instructions supportées, nombre de cores, ...) et des features marketables (Asynchrone, ...). Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Kyogiro Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 (modifié) Samsung et Apple semblent, pour le moment, rester sur du Dual Core A15 (peut être du big.Little à venir ?), certainement pour des soucis de consommation. Là où Qualcomm est moins largué qu'auparavant, c'est qu'ils sont déjà "arrivés" avec leur structure S4 Pro (Prime vers le milieu d'année sans doute) alors que le S3 sortait après les premiers SoC sous Cortex A15. Si je n'ai pas de doute quand à la supériorité des solutions sous Mali 6x ou les générations actuelle et suivante des PowerVR d'IT, l'écart pourrait être relativement moins grand qu'en 2012 avec les Adreno 225 et la concurrence. Je serai curieux de voir ce que donne le Tegra 4 (surtout sa partie GPU) afin de le situer au futur Mali T6x et au GPU numéro 1 actuel, le PowerVR SGX 554MP4 de l'iPad 4. Je ne serai pas surpris de voir les 72 coeurs de nVidia derrière le GPU de l'A6X. Modifié 7 janvier 2013 par Kyogiro Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 (modifié) En fait Apple n'a pas d'architecture A15 mais un hybride maison nommé Swift qui globalement reprend l'idée derrière Krait (une architecture plus complexe que les A9 mais moins structuré que les A15) avec une meileure gestion de la RAM. Quand à Samsung, ils ont, pour leur part, déjà annoncé qu'ils seraient les premiers à sortir des architectures big.LITTLE en 2013 et on sait aussi qu'ils ont en préparation un Quad A15 (Exynos 5450). Après, sorti du Java, les Krait ont tout de même des performances assez similaires aux A9 tandis que les Exynos 5250 témoignent déjà d'un net progrès. Edit : Point important : les Adreno 225 ne sont pas vraiment largués. Sur mobile ils figurent parmi les GPU les plus performants grace à un bon équilibre entre pixel processing et production de polygones. Ils sont globalement aux niveaux des Mali-400MP4@440Mhz dans les activités complexes (mais arrivent en dernier quand on est uniquement sur une activité qui mise sur le pixel process). Ça reste moins bon que les powerVR SGX 543MP3 du i5 c'est sur lol. Mais c'est vraiment pas mal Modifié 7 janvier 2013 par Alex98 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Ghisy Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 (modifié) Car bien que certains androphones soient très bien (HTC One X+ et Note 2 sont les derniers que j’ai utilisés mais j’ai également eu en main les One S, GNote, Nexus 4 pour les plus récents d’entre eux), il y a toujours un point qui pèche L. Par exemple, et ne me dite pas que je fabule sans avoir fait le test vous même !!, une chose qui m’a toujours énervée sur les androphones, c’est le temps que l’écran met à se réactiver entre le moment où je VEUX raccrocher et le moment ou l’écran se rallume et ou je PEUX enfin le faire ! Alors que sur l’iPhone c’est instantané ! T'as pas vraiment du tester le Nexus 4 car j'en ai un et ce que tu dis n'est juste pas vrai sur celui-ci! C'est instantané! ;) Modifié 7 janvier 2013 par Ghisy Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Kyogiro Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 T'as pas vraiment du tester le Nexus 4 car j'en ai un et ce que tu dis n'est juste pas vrai sur celui-ci! C'est instantané! ;) De même, mais je suis sur MI2 ^_^ Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 Sur GS2 il y avait effectivement un gros temps de latence mais sur GS3 je n'ai jamais remarqué de latence à ce niveau (du moins le temps que je décolle le mobile de mon oreille, l'écran est allumé). Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
baastien Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 [...]-Je trouve personellement Android peu personnalisable.[...] J'ai pas pu lire jusqu'au bout, je me suis pissé dessus avant la fin du second paragraphe. 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
patou75 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 Moi aussi je vais craquer pour l'iPhone 5. Je vais peut être le regretter mais dans tout les cas à la revente il se vend TRES bien donc je pourrais même me faire un plus value tout en achetant le nexus 4. Pour moi un iPhone sans jailbreak c'est 0 pointé. J'attend juste le jailbreak. Mal grès qu'android est tip top, le jailbreak, la facilite et l'intégration des tweaks au système sont un gros plus. Car j'aime pas installé une app par dessus le système. Les seules choses qui vont VRAIMENT me manquer c'est le centre de notif, la possibilité de choisir par défaut le browser/lecteur par défaut (ça c'est vraiment un gros manque) et le grand écran. Regarder une vidéo sur mon nexus est un pur plaisir. Et surtout les app suivent les guidelines de google. J'adore l'ui ! Envoyé depuis mon Galaxy Nexus avec Tapatalk 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
GrimsoW Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 Concernant l'iPhone 5 et le comparatif Android - iOS... Je partage un peu votre avis mais je trouve surtout que iOS est parfait pour le commun des mortels. Malgré la simplification apparue au fil des versions d'Android, il est toujours plus simple d'utiliser un iPhone qu'un smartphone Android. Néanmoins je dirais qu'on devrait juger chaque surcouche indépendamment et Android stock aussi. Ce que je déteste sur iOS : iTunes, Apple, l'effet mouton. 1 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
HoM3r17 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 Oui faut voir les surcouches, meme si Sense est lourd c'est quand meme pour moi un des UI les plus ergonomiques, que tu sois un geek acharné ou un paysan qui voit un ecran tactile pour la premiere fois tu es enmené pas a pas pour les premiers réglages, et ensuite des "truc et astuces" apparaissent régulièrement si on je choisis dans les options au premier démarrage afin de tout savoir des fonctionnalités du téléphone ect ... depuis ICS d'ailleurs Google fait un peu pareil il me semble, au moins pour expliquer le launcher, la grille d'application, et l'onglet widgets ... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
taz067 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 ..., il est toujours plus simple d'utiliser un iPhone qu'un smartphone Android. heu que ce soit sur android ou IOS pour appeler suffit d'appuyer sur l’icône avec le téléphone, pour le surf suffit de cliquer sur l’icône de l'explorateur ou pour les contacts....en t'as l’icône contacts...je ne voie pas ce qui est plus simple sur IOS, par contre pour mettre une musique en sonnerie tu télécharge n'importe quel musique et tu la mets ce qui n'est pas le cas sur IOS (du moins sur le 3GS qu'avais mon frère, fallait passé par itunes et convertir en un format propriétaire...) Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alex98 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 (modifié) J'aurai quand même tendance à dire (mais c'est vraiment une impression personnelle) qu'il y a une confusion entre ergonomie et efficacité. Pour moi, une interface est ergonomique si en la voyant on en saisie immédiatement les mécanismes et si elle ne nous perd pas. En l'occurence, noyer l'utilisateur sous une pluie de boutons et de fonctions pas forcément affichées à l'écran, c'est totalement anti-ergonomique. A ce titre iOS ou Android AOSP me paraissent ergonomique car tout est à l'écran (ou presque), il y a, de base, peu d'interactions complexes et le mobile ne fait pas grand chose. Les interactions restent toutefois plus explicites sur iOS à mon sens (les boutons sont textualisés, les interfaces plus homogènes, ...) mais la gamme Nexus reste simple. A l'inverse l'efficacité c'est de pouvoir accéder rapidement à des choses relativement complexes et relativement nombreuses.C'est typiquement ce que permettent de bonnes surcouches comme Sense ou Touchwizz. On a de base beaucoup de fonctions rapidement accessibles mais tout n'est pas transparent pour l'utilisateur (même si il est pris par la main via des tutos contextuels). Ce sont deux conceptions assez différentes à mon sens. Edit : D'ailleurs iTunes est pour moi assez emblématique. L'ergonomie ce n'est pas de devoir deviner que je dois copier mes fichiers MP3 sur mon PC pour les coller dans la mémoire de mon mobile, c'est avoir un gros bouton avec marqué dessus "je suis idiot et je veux que ma musique aille dans mon mobile". L'efficacité ce n'est pas de passer 3 heures à créer une playlist pour la transférer ensuite sur mon mobile via un logiciel, c'est de faire un simple cliqué-glissé. Modifié 7 janvier 2013 par Alex98 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
taz067 Posté(e) 7 janvier 2013 Share Posté(e) 7 janvier 2013 ben pour ce que je m'en souviens (j'utilise nova) touchwizz est ergonomique est efficace: sur le bureau principale tu as dans le dock l’icône téléphone, l’icône contacts, l’icône du drawer, l’icône pour le surf et pour les mails... pour itunes justement lorsqu'on a voulut mettre une musique en sonnerie ce n'etais pas vraiment ergonomique j'ai due chercher un moment pour convertir la musique pour que ça fonctionne...par contre je fais juste cliqué-glissé sur mon S2 pour et je choisi n'importe quel fichier pour le mettre en sonnerie...( je sais ont va ma dire que l'ont ne change pas de sonnerie tous les jours, mais c'est juste un exemple...) Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Recommended Posts
Rejoignez la conversation
Vous pouvez poster maintenant et vous enregistrez plus tard. Si vous avez un compte, connectez-vous maintenant pour poster.