Pour nVidia, le double-coeur c’est déjà (presque) du passé…
A l’heure où les constructeurs passent à peine aux architectures double-coeur, nVidia taquine le marché et prévoit des architectures quadruple-coeur (quad-core).
- Jen-Hsun Huang, ancien employé de LSI Logic et d’AMD (en tant que designer de microprocesseurs), qui est aujourd’hui le PDG d’Nvidia.
Jen-Hsun Huang nous annonçait déjà il y a quelques temps que le Tegra 3 était dans sa bonne courbe d’évolution, ce qui laisse une place complète à l’élaboration du Tegra 4. Soit la création d’une nouvelle architecture par an, selon Jen-Hsun. Et d’après ce que nous avions découvert le 24 novembre dernier, cette nouvelle architecture risque de faire beaucoup parler d’elle, puisque beaucoup de points se confirment.
C’est à prendre avec des pincettes, mais voilà à quoi pourrait ressembler le Tegra 3 :
La nouvelle architecture nVidia Tegra 3 actuellement en finalisation est basée sur un ARM Cortex A9 quadruple cœur, le tout étant associé à un chipset graphique basé sur l’architecture d’une carte graphique GeForce 8/9, appuyé par la technologie nVidia Cuda. L’ARM Cortex A9 semble être en tout point un monstre de technologie capable d’encoder de la vidéo HD, voire de la ré-encoder après montage. Donc CPU + GPU, qui sont là pour soutenir et accompagner les performances.
Sans oublier que les prévisions de Mike Rayfield (responsable de la section Tegra chez nVidia) faites au mois d’avril dernier étaient fondées et vraies. Plus précisément, Mike avait annoncé que la puce Tegra 2 ne serait au finale pas destinée qu’aux tablettes, mais aussi aux smartphones et plus spécifiquement aux smartphones Android dès le quatrième trimestre.
Voici ce qu’il avait déclaré : J’ai manqué la première vague Android. La réalité est que j’ai investi plus lourdement dans Windows Mobile / CE. Il estime encore que l’investissement sera rentable, mais il a admis qu’il avait sous-estimé la rapidité avec laquelle progresserait Android. Cela pourrait marquer un départ plus que bénéfique pour la marque.
S’ajoute à ça une hypothèse qui a tenu la route, puisque aujourd’hui, nous savons que deux androphones supportant cette architecture vont arriver sur le marché dans les semaines, mois à venir. Il s’agit du Motorola Olympus et du LG (Optimus) Star.
D’ailleurs, si vous êtes passionné par ce sujet, n’hésitez pas à faire une recherche sur notre blog, nous regorgeons d’actualités qui traitent sur le sujet et l’évolution de nVidia dans le milieu Android.
À l’heure actuelle, il est difficile de donner une date de sortie exacte pour le Tegra 3 dans les terminaux. Si on me demandait un pronostic, je répondrais pas avant le milieu du 2 ème trimestre 2011 et l’intégration dans les terminaux vers le 3ème trimestre 2011.
En attendant, je vous conseille de consulter un très bon papier technique (en anglais) qui explique clairement la gestion de l’énergie et les performances qu’apportent la puce Tegra.
Sachant que le Tegra 2 n’est pas totalement géré par Android de par ses performances, il devrait prendre un tout autre tournant et se voir décupler de puissance avec Android Gingerbread (2.3) et Honeycomb dans les prochains mois.
Et puis avec l’arrivée du code source, ça ne laisse que de bonnes idées pour les développeurs.
Via AndroidandMe & nVidia.
Ce qui fait plaisir ici c’est de voir enfin le CEO d'NVIDIA admettre son erreur par rapport à l’investissement WinMo du Tegra 1 (sachant que leur seul client était Microsoft, ça pourrait se comprendre…), et d’être enfin revenu vers Linux grace (à cause d?) à Android.
Je pense aussi. Le Marvell 4 coeurs à 1,6GHz consomme 10W, c'est clairement pas pour les tel... ou alors avec une batterie de voiture... 8-) ARM pense l'A15 pour tel de 1 GHz - 1,5 GHz en simple ou dual-core. Les 2,5GHz en 4 ou 8 coeurs, voir plus, sont destinés à d'autres utilisations. On peut supposer qu'il en sera de même pour nVidia, au moins pour les 2 ans à venir...
Ok d'accord, je me suis aussi mal exprime ^^. Je parlais des implementations de a9 et a15 sur des Soc. Sur des Soc de telephone, on met pas encore de DDR3, je parlais surtout de cela, et de ce qui est en rapport avec le packaging du SOC. Sur une puce de telephone portable, je suis pas sur qu'on puisse deja faire tourner 4 coeur a 1Ghz sans quelques precautions...
+1
BIEN DIT!
Info venant directement de chez ARM : http://translate.google.com/translate?js=n&prev=_t&hl=en&ie=UTF-8&layout=2&eotf=1&sl=auto&tl=fr&u=http://arm.com/products/processors/cortex-a/cortex-a15.php&utm_source=blog&utm_medium=web&utm_campaign=ARM
Les derniers a9 de chez Marvell gère la DDR3. Avec la puissance de l'a15 ARM ne vise plus seulement le monde de l'ambarqué : "Cette nouvelle génération comprend ainsi des jeux d'instruction pour gérer la virtualisation ( pour serveurs mais aussi virtualisation mobile ), la correction d'erreurs, ainsi qu'une gestion étendue des plages d'adresses mémoire et des entrées / sorties." "Plusieurs grands groupes, comme IBM ou Dell, sont déjà en train de travailler sur des projets de serveurs ARM à très basse consommation pour des usages spécifiques, ce qui pourrait les détourner des processeurs x86 d' Intel sur ces créneaux." http://www.generation-nt.com/arm-cortex-a15-mpcore-processeur-smartphone-eagle-actualite-1077891.html Android n'est pas présent uniquement sur smartphone et ARM ne se destine plus uniquement pour l'embarqué.
Tu parles de 4GHz, mais les ARM n'y sont pas. Il y a encore une bonne marge de progression avant qu'il y arrive. Surtout qu'on fait fonctionner les ARM sans dissipateur thermique. En leur rajoutant ça, on peut les pousser bien + haut en fréquence. Surtout qu'Intel et AMD ne sont qu'une partie "visible" du monde des proc. Intel vend 3 fois moins de proc qu'ARM. IBM à réussi à faire + en fréquence en faisant un placement différent des transistors. S'il suffisait de multiplier les coeurs alors on devrait voir ceux de Tilera avec son 100 coeurs (c'est destiné à du Linux mais pas aux smatphones sous Android). C'est une "habitude" mais pas une obligation pour tout les domaines que la puissance à besoin d'être doublé tout les 18 mois, comme pour une machine à laver. Ici il y en a qui ne réclame pas spécialement + de perf du proc pour leur smartphone, mais elle augmentera certainement parce que c'est très vendeur de montrer qu'on a la + grande et la + grosse. Je n'ai encore pas vu d'annonce qui parle de l'utilisation de Jazelle. C'est pourtant de l'ARM destiné à exécuter du Java env. 4 fois + rapidement. Et là c'est particulièrement intéressant puisque les programmes pour Android sont en Java. Serveur ARM marginal, actuellement oui mais les 3 et 4 coeurs (qui gèrent la DDR3) viennent tout juste d'être annoncé et ne sont pas encore intégré dans des produits finis. J'ai juste pu voir une démo d'un proto de tablette avec le 3 coeurs. Et avant cette monté en puissance Google et Micro$oft test des solutions serveurs (la conso élec et le refroidissement sont très important dans une ferme de serveurs), et ces 2 là ne sont pas particulièrement marginaux (même si leurs besoins spécifique ne couvrent pas tous les besoins en serveurs, comme le bon ex. de fermes en PS3).
Le a9 tout comme l'a15 ne sont pas destines au utilisation en temps que serveur mais comme comme processeur embarque. Cela n'empeche paz d'y penser, mais on a des incompatibilites a priori qui sont les besoin en energie. La on est oblige de faire un choix entre peff et conso. Pour l'utilisation de la ddr23 ou x, cela ne depend pas du proc mais plutot du soc. Et la c'edt clairement un choix d'orientation entre phone/tablette ou microserveur.
@Skwaloo la montée en fréquence n'est plus possible. Il suffit de voir Intel et AMD plafonner à 4Ghz. Oui on peut encore monter en fréquence un peu mais la seule voie pour l'embarqué est de faire comme pour les processeurs desktop et serveur. Pour doubler la puissance tous les 18mois, il ne sera pas possible de faire autrement. Par ailleurs, ton ARM sur serveur est un marché de niche aujourd'hui. C'est exactement comme faire des clusters avec des PS3, ca peut marcher pour certaines applications mais cela reste marginal.
Je pense que greg_p parle du Tegra 3, qui est destiné à l'embarqué. Nvidia n'a jamais déclaré vouloir placer ses Tegra 3 dans des solutions Desktop ou Server. Si tu as de vraies infos sur la stratégie Nvidia, n'hésite pas à nous les communiquer.
Ce que j'ai lu "La vraie raison est qu’on ne sait pas monter en fréquence" alors que la freq courrante de 1GHz est déjà dépassé. L'ARM sans 64bits aura du mal à couvrir tous les domaines, mais il existe des PlugComputer qui ont une certaines utilité et des géants s'intéressent actuellement à la solution ARM comme Micro$oft ou Google : http://www.silicon.fr/l’architecture-arm-a-l’assaut-de-nouveaux-marches-1-–-les-serveurs-42887.html
???? Les SoC ARM ne sont pas forcément des proc à tous faire, mais généralement destiné à un domaine particulier. L'a15 ne devrait pas être là avant 2 ans. "le courant de 4 a9 ne sera pas gerable par nos batteries" ... un serveur ou un ordi de bureau sur batteries ??!!... connait pas !
Effectivement, mais on est pas à l'abris d'une innovation quelconque (même si le papier est assez marketing). J'attend de voir avant de me faire une (réelle) opinion de la chose, et pour l'instant les quelques machines sous Tegra 1 & 2 que j'ai pu prendre en main m'ont convaincu.
@Skwaloo si tu as bien lu, je ne critique pas les solutions ARM. Je dis juste que les arguments de nvidia sont un peu "marketing". Pour avoir des benchs de tegra2, la solution n'est pas aussi puissante qu'on veut nous le dire. En OpenGL, par exemple, le tegra2 ne fait pas mieux que l'Andreno 205 ou le powervr 540 du Galaxy S (tu peux consulter les résultats de gpu bench). Son principal défaut est ne pas utiliser de mémoire LPDDR 3, ce qui limite la bande passante. Enfin pour attaquer sérieusement le marché serveur, ARM devra sortir un jeu d'instructions 64bits, (ce qui devrait arriver assez vite d'après les rumeurs). Par ailleurs, le nombre de triangles ne fait pas tout; le fill rate est tout aussi important; j'attends donc de tester ces solutions pour oser dire que cela permettra de faire aussi bien qu'une PS3 ou une Xbox360.
J'ajoute que le quadruple coeur cortex a9 est clairement un decision markting pour faire du technique mais pas de l'efficace. Pour que ca ait une efficacite correcte, il faut une cache enorme qui donnera une conso a sa mesure. Un dual cortex a15 sera plus efficace a ces frequence la, car a cette frequence le courant de 4 a9 ne sera pas gerable par nos batteries. Dans la mesure ou le soft le gere...
Salut griphine. Le papier est un document marketting et trompeur. La conso d'un soc ne se resume pas seulement au proc. De plus. Le cortex a9 est loin d'etre irreprochable en terme d'idle, notamment au niveau de ses caches. J'ajoute que le tegra2 consomme bcp sur sa parti video. Il a cependant le merite d'arriver plus tot que les autres sur le marche.
????!!!! Incroyable qu'il y en ai qui ne pensent qu'uniquement smartphone. Il faudrait ouvrir les yeux et voir qu'il existe bien d'autres utilisations. Par ex., dans une tablette on peut se permettre une batterie bien + grosse. Des 3 et 4 coeurs à 1,6GHz existe déjà mais on ne vous à pas dit que c'est destiné aux téléphones (mais si ce n'est pas impossible : le 3 coeurs Marvell 628 à 1 coeur à 624MHz pour économie d'énergie + 2 coeurs à 1,6GHz activable quand il y a suffisamment d'énergie) ARM vise du 4 coeurs à 2,5GHz. Mais ce n'est pas destiné à vos petites boites de poche qui servent (... ou plutôt servaient) à téléphoner. Tout comme l'actuel Marvell 4 coeurs à 1,6GHz, ce sont les serveurs et les smartop qui sont visés. @Ellis Markov, Nufront fait du 2 coeurs à 2GHz et GlobalFondries à pousser jusqu'à 2,8GHz. L'OpenGL est d'autant + intéressant que le 3 coeurs Marvell 628 est capable de 200 Millions de Triangles à la Secondes. La PS3 en fait 250. Il est aussi capable d'afficher 2 flux 1080p pour voir la 3D !
merci pour toutes ces précisions.
c'est pas ça qui m'incitera à changer mon SGS car pour moi son processeur est largement suffisant pour un smartphone. Sa sert à quoi d'inventer des processeurs dual ou qualcore pour smartphones quand on voit que les monocores fonctionnent sans aucun problème et on des performances très poussées graphiquement ? Pourquoi ne pas améliorer encore plus les processeurs monocores (comme se qui a déja été fait si l'on compare le processeur snapdragon du desire avec le hummingbird du SGS) ?
Le discours de Nvidia est un peu trompeur. Si on a un proc Dual Core, et que l'on utilise qu'un coeur sur les deux, ca peut consommer plus que si les deux coeurs sont actifs. Mais si on conçoit de base, un proc mono core avec le meme nombre de transistor, on pourra baisser le voltage également d'où faire une économie d'énergie. Bref c'est marketing à fond comme discours. La vraie raison est qu'on ne sait pas monter en fréquence donc on augmente le nombres de coeurs et on laisse le travail aux développeurs. Mais il ne faut pas oublier que la parallélisation a un coup non nul et que certains traitements s'y prettent très mal. Bref un proc 4 coeurs c'est loin d'être quatre fois la puissance d'un coeur à quatre fois la fréquence. Pour aller plus loin, il suffit de voir les courbes Linpack sur 1, 2, 4, 8 coeurs ... pour s'en rendre compte. Et donc le rapport énergie consommée suit en conséquence. Enfin, l'augmentation des coeurs est la seule solution permettant aux fabricants de CPU d'apporter plus de puissance. Donc nous développeurs on s'en contentera mais cela demandera un travail plus important pour en tirer parti (et donc un coût de dev également plus important). Cela va devenir vraiment technique avec l'arrivée des quad cores, quant on voit sur Pc que les jeux ne tirent toujours pas parti des quatre coeurs. Enfin, une information pertinente serait de savoir si la prochaine génération de tegra (Tegra3) supporte le jeu d'instruction Neon (l'équivalent du SSE sur ARM), ce qui n'est pas le cas aujourd'hui. EllisMarkov Ps: les processeurs ARM pour les clusters de calculs ne sont pas interessants car ils n'offrent pas un adressage mémoire 64bits. On est donc limité à 4go de ram et leurs performances en virgule flottantes sont aussi très limités. Mais l'arrivée d'OpenCL (délégation des calculs au GPU) pourrait être une excellente solution pour les gros traitements.
Quelque soit la charge, si tu appliques la même à un mono-core et à un multi-core, l'énergie nécessaire sera plus faible pour le multi-core. Et puis même si tu utilises toute la puissance de ton dual-core, le calcul se fait deux fois plus rapidement que pour un mono-core, ça revient au même. Par contre, quand il sera à fond dans des vidéos ou des jeux, ça va être un vrai gouffre à énergie non ?
allez, avec 2 ports réseaux gigabit et 64 G0 de ram, on se monte un cluster de 1000 * 4 coeurs pour du calcul scientifique ... le tout dans un frigo. C'est l'armée américaine qui va être jalouse !
Le point sur la gestion d'énergie a été énoncé dans l'article et les précédents commentaires. Après oui, les batteries actuelles méritent évolution, mais ça c'est pas le boulot de nVidia.
Je veux bien croire qu'un dual-core voir un quad-core consomme moins qu'un mono-core en idle...Mais la finesse de gravure et le dégagement de chaleur induit y est pour quelque chose... Mais en burn c'est une tout autre histoire je pense!!! De plus : "La nouvelle architecture nVidia Tegra 3 actuellement en finalisation est basée sur un ARM Cortex A9 quadruple cœur, le tout étant associé à un chipset graphique basé sur l’architecture d’une carte graphique GeForce 8/9, appuyé par la technologie nVidia Cuda" Les Nvidia Geforc 8/9 étaient déja des goufres énergétiques au moment de leur sorties... Les batteries des smartophones telles qu'on les connais vont devoir évoluer un max d'ici la parce que sinon, on vera a peine le logo du portable a l'allumage puis...pfiou...plus rien...
Aucun, c'est une caricature représentative. ;)
Faut voir si nos terminal en auront l'utilité car si c'est pour avoir d'enorme capacité sans les eploité sa servira pas a grand chose, a part faire bling bling. Sinon, pourquoi l'illustration de Rockman ? je capte pas le rapprt avec le sujet =/
Ok, on essayera d'en griller 2 quand les 8 cores sortiront ;)
moi je veux qu'il y ai 6 core XD
Effectivement les dual core consomment moins que les simple core :)
Pour l'intérêt du multi-core (et les faignants/anglophobes) : comme le voltage (et donc la consommation de la batterie) augmente exponentiellement avec la fréquence du processeur, un dual core à 50%(X2)consomme moins qu'un single core à 100%. "Since the power consumption of semiconductor devices is proportional to the frequency and voltage-squared, even a small reduction in the operating frequency and voltage will result in significant reduction in power consumption" Source : Nvidia (lien dans l'article)
Et pour ceux qui râlent: sans évolution, vous auriez encore un pigeon pour envoyer vos SMS !
Comme dit précédemment, c'est pas à NVidia d'améliorer les batterie... Donc ils bossent dans leur domaine... En ce qui concerne la puissance, c'est le même discours qu'il y a 5 ans avec les PC fixes... Faut se réveiller et laisser la technologie avancer, les applications possibles ne mettent en général pas longtemps à arriver ensuite....
et si l'article donne un lien vers "un très bon papier technique" qui explique comment le tegra 2 fait pour être moins gourmand en batterie.... faut tout lire ! (et pas hésiter a consulter les sources :x)
Sauf que le dual core est moins gourmand qu'un simple core il me semble. Car apparement, les duals core ont besoin d'une fréquence moindre, un d'un voltage inferieur pour executer la même tâche qu'un simple core. En plus, vu que c'est plus rapide, ça prend moins de temps au proc, du coup ça consomme moins de batterie... Et enfin, pour les tâches ne necessitant pas bcp de ressources, un seul proc peut être utilisé au lieu de deux. Mais bon... ça c'est sur le papier.
Peut-être, mais cette annonce ne colle pas vraiment avec les priorités de ce genre d'appareil (à mon sens). Le point faible des smartphone est l'autonomie, pas les performances. Cette annonce ne fait aucune référence à une meilleure gestion de l'énergie, ni amélioration de l'autonomie... juste un monstre de puissance pour la HD (sur un écran de 3.5 pouces... lol).
aux dernières nouvelles nvidia n'est pas un fabricant de batteries.
Cette course à la puissance est ridicule et pas vraiment justifiée... Plutot que de vouloir faire progresser les performances (déjà excellente) des smartphones, il ferait mieux de faire progresser les batteries et la gestion de l'autonomie. Un quad core sur un smartphone, et puis quoi encore...
Ce serait sympa de créer d'abord des batteries tenant la route au lieu de faire la course "a la puissance".
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix