dattebayo13 Posted November 18, 2006 Share Posted November 18, 2006 Je vais mettre toute les infos que j'ai sur ces cartes graphiques: Les images des performances: http://www.pcinpact.com/images/bd/news/34026.jpg http://www.pcinpact.com/images/bd/news/34027.jpg Les transistors et autres: http://www.pcinpact.com/images/bd/news/34031.jpg Les specifications: http://www.pcinpact.com/images/bd/news/34033.jpg http://www.pcinpact.com/images/bd/news/34034.jpg Les specifications: Dès 20 heures hier soir, NVIDIA a lancé en trombe sa nouvelle puce graphique compatible DirectX 10 : le G80. G80 : Une architecture unifiée pour DirectX 10 Contrairement à tout ce que l'on pensait au départ, il dispose bien d'une architecture unifiée. Ainsi, les unités de pixels et de vertex disparaissent, et laissent place à des "Streams processors". G80 G80 Ces derniers peuvent être alloués dynamiquement pour effectuer des calculs sur les pixels, les vertex, la géométrie et même la physique. Pas moins de 681 millions de transistors gravés en 90 nm Par défaut, le G80 en embarque 128, rien que ça. Ils sont accompagnés de 24 ROP, et d'une interface mémoire de 384 bits, le tout au sein d'une puce de pas moins de 681 millions de transistors, gravée en 90 nm. G80 Petite nouveauté, si la fréquence du GPU est annoncée à 575 MHz pour le modèle GTX, ses "Stream processors" disposent d'une fréquence environ 2.4x supérieure puisqu'elle est de 1350 MHz pour ce même modèle. Mémoire : Des chiffres bâtards et de la GDDR-3 Côté mémoire, par contre, on fait dans le conservatisme puisque la GDDR-3 est toujours de la partie. NVIDIA souhaitant apparemment utiliser la GDDR-4 une fois qu'elle sera un peu plus disponible et sûrement moins coûteuse. Afin d'augmenter sa bande passante, le caméléon a ainsi décidé de chercher du côté de l'interface mémoire, qui passe de 256 bits à 384 bits sur le modèle GTX. G80 Pourquoi pas 512 bits ? Tout simplement parce qu'un contrôleur mémoire n'est pas gratuit en terme de transistors, et qu'il a donc fallu faire des choix. NVIDIA a donc, semble-t-il, opté pour la demi-mesure. C'est aussi le cas en ce qui concerne la quantité, puisque notre GTX n'embarque pas 512 Mo ni 1 Go mais... 768 Mo de mémoire. Gestion de la 2D externalisée et retour de l'appellation GTS ! L'économie de transistors... c'est aussi ce qui a motivé l'attribution de la gestion de la 2D (RAMDAC, TMDS...) à une puce externe dont on ne sait que peu de choses : le NVIO. Ce dernier est présent sur le modèle haut de gamme, la GTX, mais aussi sur sa petite soeur : la GeForce 8800GTS. G80 G80 Au programme, des fréquences revues à la baisse puisque le GPU affiche 500 MHz, les SP, eux, tournent à 1.2 GHz, alors que les 640 Mo de mémoire reliés à une interface de 320 bits sont cadencés à 800 MHz. Pour autant, la puce n'est pas différente, les unités seraient donc seulement désactivées ? Des performances qui font faire rêver le geek Au niveau des performances, NVIDIA n'a pas fait les choses à moitié. En effet, bien que ses deux cartes soient monopuce, elles dépassent toutes deux la Radeon X1900XTX. La 8800GTS est légèrement au-dessus de celle-ci, surtout dans les cas les plus lourds que semble adorer le GeForce 8 alors que la GTX se paie le luxe de passer devant un CrossFire de X1900XTX. Et le doublement des performances ne semble pas aller de pair avec le doublement de la consommation ou de la nuisance sonore. Bruit et consommation : des points forts de ces nouvelles cartes En effet, d'après nos confrères de Clubic, les différentes cartes qu'ils ont pu avoir entre les mains étaient relativement silencieuses et offrent une consommation au repos au niveau de leur concurrente de chez ATI. G80 G80 En charge, bien qu'ils n'aient pas effectué de relevé, nous avons pu savoir par certaines de nos sources que bien que les résultats soient supérieurs à la carte d'ATI, ils sont encore assez proches. Il faudra néanmoins disposer d'alimentations capables de tenir réellement la charge, et disposant d'assez de connecteurs pour connecter les deux alimentations de la GTX. Mais NVIDIA ne s'arrête pas là puisque la qualité d'image a aussi été un des gros points d'attention. Qualité d'image : AF revu, HDR + AA, CSAA, 10 bits... Ainsi, le filtrage anisotropique a entièrement été revu et offre des résultats meilleurs que ce qu'offre la gamme X1k. L'anti-crénelage a lui aussi subi une petite refonte avec l'arrivée d'un nouveau mode, le CSAA, sorte de filtrage partiel, mais qui ne semble pas convaincant selon nos confrères. G80 Reste qu'avec la puissance de calcul de ces monstres, des filtrages de 8x ou 16x ne devraient pas être un énorme problème... Le traitement sur 10 bits en interne et l'HDR + AA arrivent aussi, rattrapant le retard du caméléon sur ATI. De plus, l'HDR est désormais au niveau de ce que demande DirectX 10 et se fait sur 128 bits (FP32) contre 64 bits (FP16) précédemment. Futur du G80 : la physique et l'utilisation de trois cartes NVIDIA semble aussi nous réserver quelques surprises, au niveau du SLi notamment, puisque la GTX dispose de deux ponts, dont un est "réservé à une utilisation future de la technologie SLi" selon les documents que nous avons pu nous fournir. D'après d'autres documents, il s'agit sans aucun doute de la gestion physique sur trois cartes comme le montre cette image. G80 Sur ce sujet, NVIDIA affirme que son GPU est paré pour offrir des performances "trop de la balle" sans pour autant nous en dire plus... puisqu'aucune application n'en tire partie pour le moment. Pure Video : on ne change pas une équipe qui gagne Dernier point, la vidéo avec Pure Video qui n'a pas été améliorée , espérons que l'encodage aidé par le GPU soit un jour de la partie. Vous pouvez d'ores et déjà commander les cartes des différents partenaires. Des dizaines d'exemplaires sont d'ores et déjà disponibles chez chaque constructeur sur le sol français. Officiellement, les tarifs annoncés sont de 450 € pour la GTS et de 600 € pour la GTX, ce qui est important, mais sans aucun doute à la hauteur de la performance offerte. Tarif et disponibilité : cela va être un peu juste... Reste que si la demande est aussi forte que l'on peut le penser, ces tarifs pourraient vite augmenter le temps que NVIDIA mette à disposition une quantité supérieure de carte. Quoi qu'il en soit, rendez-vous dans les jours à venir puisque nous publierons un dossier sur la GTS et la GTX dès que celles-ci auront trouvé le chemin, apparemment perdu, de nos labos. Ces bijoux de technologie sont capable de supporter le DX10: Source PCInpact: NVIDIA travaille actuellement sur une nouvelle série de pilotes qui marquera bien entendu l’arrivée de la série 8800 des GeForce. Puisqu’il s’agit de la dixième version majeure des pilotes ForceWare, NVIDIA va procéder comme Apple en son temps et nous afficher un bon gros X pour montrer clairement cette étape symbolique. D’un autre côté, le X est doublement significatif car la société finalise également son pilote DirectX 10 (autre équipe de développeurs). Une dixième version des ForceWare pour une dixième version de DirectX : il fallait décidément que NVIDIA marque le pas. D’autant que la firme possède un avantage avec son G80 et que la réponse d’ATI ne sera pas là avant plusieurs mois. Le pilote ForceWare X, qui pourrait selon The Inquirer arriver dès vendredi, sera disponible pour les systèmes Windows 2000/XP et devrait proposer, entre autres, un panneau de contrôle revu et corrigé. Le pilote DirectX 10, quant à lui, arrivera un peu plus tard, et ne concerne de toute manière que Vista. Le X du nouveau ForceWare pourra alors prendre toute signification. Vous devez vous dire c'est quoi ce machin: direct x Microsoft DirectX est une suite d'API multimédia intégrée au système d'exploitation Windows permettant d'exploiter les capacités matérielles d'un ordinateur. Elle est apparue pour la première fois en 1995 sous le nom de "The Game SDK". DirectX fournit un ensemble de bibliothèques de fonctions essentiellement dédiées aux traitements audio/vidéo (carte vidéo, carte son, etc.) et aux périphériques d'entrée/sortie (joystick, carte réseau, souris, etc.). L'avantage des fonctions de DirectX pour les programmeurs est que celles-ci utilisent (si possible) un algorithme alternatif (confié au processeur) quand le matériel installé ne gère pas ce type de traitement. Il fonctionne comme une surcouche de Windows, évitant théoriquement aux programmeurs de devoir s'occuper des différences matérielles qui existent entre les différents PC. Par exemple, si une carte vidéo n'a pas de fonctions dédiées à la 3D, DirectX demandera au processeur de s'occuper du rendu d'une image de synthèse ou le rendu 3D en temps réel. DirectX est la propriété de la société Microsoft. Ce produit n'étant pas libre, les sources ne sont pas rendues publiques, contrairement à la bibliothèque OpenGL, concurrente de Direct3D. Malgré cela, il devient de plus en plus incontournable notamment dans le domaine de la programmation des jeux vidéo 3D, Microsoft passant des accords technologiques avec les constructeurs de cartes 3D grand public. La Xbox, la console de Microsoft, utilise une version modifiée de DirectX 8.1, et la Xbox 360 une version modifiée de DirectX 9.0c. Sur PC, DirectX est actuellement en version 9.0c. La Geforce 8800 est la première carte graphique a supporter DirectX 10, alors qu'il n'est pas encore sorti. Si vous voulez faire simple le dx10 est un programme quoi gère des fonctions graphiques pendant un jeu. Mais à quoi ca sert à par frimer ^^et faire des benchmarks: C'est pour jouer à des jeux optimiser pour comme Crysis(pleurs devant les sreenshot): Et vidéos: http://www.jeuxvideo.tv/fiche/playlist.php?page=0&textesearch=crysis Regardez la première j'ai failli pleuré... :'( Quote Link to comment Share on other sites More sharing options...
Wanderlust Posted November 18, 2006 Share Posted November 18, 2006 aaaaaah déjà que je bavais devant les 7950 GX2 de nvidia, celle-ci me donne encore plus envie, vu les performances, cette firme a vraiment tout le temps un train d'avance sur celle de ATI. Décidemment, elle restera toujours ma marque de cartes graphiques préférée. edit: j'avais pas vu les images, et je crois bien que c'est la première fois que des images se rapprochent autant de la réalité Quote Link to comment Share on other sites More sharing options...
dattebayo13 Posted November 18, 2006 Author Share Posted November 18, 2006 Moi à ta place j'attendrai de voir ce que donne le R600 pour voir ce qu'il donne quand même^^ Quote Link to comment Share on other sites More sharing options...
Ryuuoh Posted December 4, 2006 Share Posted December 4, 2006 Voila le rerpoche que l'on peut faire au constructeur, on a pas le temps de savourer sa derière acquisition que déjà, elle est dépassé. Mais bon, c'est quand même un beau bijoux :'( Quote Link to comment Share on other sites More sharing options...
Spykiller Posted December 4, 2006 Share Posted December 4, 2006 C'est vrai que c'est dur de nos jours d'être au top du top car sa n'arrête pas d'évoluer sérieux j'étais tout content quand j'ai acheté ma 6600GT et puis 6 mois plustars la 7800GTX sort enfin bon j'attend que les 8800 se développe un peu plus avant d'en acheter une car sa coute cher ces petites cartes Quote Link to comment Share on other sites More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.