Aller au contenu

8800GTX et 8800GTS: DX10


dattebayo13
 Share

Messages recommandés

Je vais mettre toute les infos que j'ai sur ces cartes graphiques:

34032.jpg

 

Les images des performances:

http://www.pcinpact.com/images/bd/news/34026.jpg

http://www.pcinpact.com/images/bd/news/34027.jpg

 

Les transistors et autres:

http://www.pcinpact.com/images/bd/news/34031.jpg

 

Les specifications:

http://www.pcinpact.com/images/bd/news/34033.jpg

http://www.pcinpact.com/images/bd/news/34034.jpg

 

Les specifications:

Dès 20 heures hier soir, NVIDIA a lancé en trombe sa nouvelle puce graphique compatible DirectX 10 : le G80.

 

G80 : Une architecture unifiée pour DirectX 10

 

Contrairement à tout ce que l'on pensait au départ, il dispose bien d'une architecture unifiée. Ainsi, les unités de pixels et de vertex disparaissent, et laissent place à des "Streams processors".

 

G80 G80

 

Ces derniers peuvent être alloués dynamiquement pour effectuer des calculs sur les pixels, les vertex, la géométrie et même la physique.

 

Pas moins de 681 millions de transistors gravés en 90 nm

 

Par défaut, le G80 en embarque 128, rien que ça. Ils sont accompagnés de 24 ROP, et d'une interface mémoire de 384 bits, le tout au sein d'une puce de pas moins de 681 millions de transistors, gravée en 90 nm.

 

G80

 

Petite nouveauté, si la fréquence du GPU est annoncée à 575 MHz pour le modèle GTX, ses "Stream processors" disposent d'une fréquence environ 2.4x supérieure puisqu'elle est de 1350 MHz pour ce même modèle.

 

Mémoire : Des chiffres bâtards et de la GDDR-3

 

Côté mémoire, par contre, on fait dans le conservatisme puisque la GDDR-3 est toujours de la partie. NVIDIA souhaitant apparemment utiliser la GDDR-4 une fois qu'elle sera un peu plus disponible et sûrement moins coûteuse.

 

Afin d'augmenter sa bande passante, le caméléon a ainsi décidé de chercher du côté de l'interface mémoire, qui passe de 256 bits à 384 bits sur le modèle GTX.

 

G80

 

Pourquoi pas 512 bits ? Tout simplement parce qu'un contrôleur mémoire n'est pas gratuit en terme de transistors, et qu'il a donc fallu faire des choix. NVIDIA a donc, semble-t-il, opté pour la demi-mesure.

 

C'est aussi le cas en ce qui concerne la quantité, puisque notre GTX n'embarque pas 512 Mo ni 1 Go mais... 768 Mo de mémoire.

 

Gestion de la 2D externalisée et retour de l'appellation GTS !

 

L'économie de transistors... c'est aussi ce qui a motivé l'attribution de la gestion de la 2D (RAMDAC, TMDS...) à une puce externe dont on ne sait que peu de choses : le NVIO.

 

Ce dernier est présent sur le modèle haut de gamme, la GTX, mais aussi sur sa petite soeur : la GeForce 8800GTS.

 

G80 G80

 

Au programme, des fréquences revues à la baisse puisque le GPU affiche 500 MHz, les SP, eux, tournent à 1.2 GHz, alors que les 640 Mo de mémoire reliés à une interface de 320 bits sont cadencés à 800 MHz.

 

Pour autant, la puce n'est pas différente, les unités seraient donc seulement désactivées ?

 

Des performances qui font faire rêver le geek

 

Au niveau des performances, NVIDIA n'a pas fait les choses à moitié. En effet, bien que ses deux cartes soient monopuce, elles dépassent toutes deux la Radeon X1900XTX.

 

La 8800GTS est légèrement au-dessus de celle-ci, surtout dans les cas les plus lourds que semble adorer le GeForce 8 alors que la GTX se paie le luxe de passer devant un CrossFire de X1900XTX.

 

Et le doublement des performances ne semble pas aller de pair avec le doublement de la consommation ou de la nuisance sonore.

 

Bruit et consommation : des points forts de ces nouvelles cartes

 

En effet, d'après nos confrères de Clubic, les différentes cartes qu'ils ont pu avoir entre les mains étaient relativement silencieuses et offrent une consommation au repos au niveau de leur concurrente de chez ATI.

 

G80 G80

 

En charge, bien qu'ils n'aient pas effectué de relevé, nous avons pu savoir par certaines de nos sources que bien que les résultats soient supérieurs à la carte d'ATI, ils sont encore assez proches.

 

Il faudra néanmoins disposer d'alimentations capables de tenir réellement la charge, et disposant d'assez de connecteurs pour connecter les deux alimentations de la GTX.

 

Mais NVIDIA ne s'arrête pas là puisque la qualité d'image a aussi été un des gros points d'attention.

 

Qualité d'image : AF revu, HDR + AA, CSAA, 10 bits...

 

Ainsi, le filtrage anisotropique a entièrement été revu et offre des résultats meilleurs que ce qu'offre la gamme X1k.

 

L'anti-crénelage a lui aussi subi une petite refonte avec l'arrivée d'un nouveau mode, le CSAA, sorte de filtrage partiel, mais qui ne semble pas convaincant selon nos confrères.

 

G80

 

Reste qu'avec la puissance de calcul de ces monstres, des filtrages de 8x ou 16x ne devraient pas être un énorme problème...

 

Le traitement sur 10 bits en interne et l'HDR + AA arrivent aussi, rattrapant le retard du caméléon sur ATI.

 

De plus, l'HDR est désormais au niveau de ce que demande DirectX 10 et se fait sur 128 bits (FP32) contre 64 bits (FP16) précédemment.

 

Futur du G80 : la physique et l'utilisation de trois cartes

 

NVIDIA semble aussi nous réserver quelques surprises, au niveau du SLi notamment, puisque la GTX dispose de deux ponts, dont un est "réservé à une utilisation future de la technologie SLi" selon les documents que nous avons pu nous fournir.

 

D'après d'autres documents, il s'agit sans aucun doute de la gestion physique sur trois cartes comme le montre cette image.

 

G80

 

Sur ce sujet, NVIDIA affirme que son GPU est paré pour offrir des performances "trop de la balle" sans pour autant nous en dire plus... puisqu'aucune application n'en tire partie pour le moment.

 

Pure Video : on ne change pas une équipe qui gagne

 

Dernier point, la vidéo avec Pure Video qui n'a pas été améliorée , espérons que l'encodage aidé par le GPU soit un jour de la partie.

 

Vous pouvez d'ores et déjà commander les cartes des différents partenaires. Des dizaines d'exemplaires sont d'ores et déjà disponibles chez chaque constructeur sur le sol français.

 

Officiellement, les tarifs annoncés sont de 450 € pour la GTS et de 600 € pour la GTX, ce qui est important, mais sans aucun doute à la hauteur de la performance offerte.

 

Tarif et disponibilité : cela va être un peu juste...

 

Reste que si la demande est aussi forte que l'on peut le penser, ces tarifs pourraient vite augmenter le temps que NVIDIA mette à disposition une quantité supérieure de carte.

 

Quoi qu'il en soit, rendez-vous dans les jours à venir puisque nous publierons un dossier sur la GTS et la GTX dès que celles-ci auront trouvé le chemin, apparemment perdu, de nos labos.

 

Ces bijoux de technologie sont capable de supporter le DX10:

Source PCInpact:

NVIDIA travaille actuellement sur une nouvelle série de pilotes qui marquera bien entendu l’arrivée de la série 8800 des GeForce. Puisqu’il s’agit de la dixième version majeure des pilotes ForceWare, NVIDIA va procéder comme Apple en son temps et nous afficher un bon gros X pour montrer clairement cette étape symbolique.

 

D’un autre côté, le X est doublement significatif car la société finalise également son pilote DirectX 10 (autre équipe de développeurs). Une dixième version des ForceWare pour une dixième version de DirectX : il fallait décidément que NVIDIA marque le pas. D’autant que la firme possède un avantage avec son G80 et que la réponse d’ATI ne sera pas là avant plusieurs mois.

 

Le pilote ForceWare X, qui pourrait selon The Inquirer arriver dès vendredi, sera disponible pour les systèmes Windows 2000/XP et devrait proposer, entre autres, un panneau de contrôle revu et corrigé. Le pilote DirectX 10, quant à lui, arrivera un peu plus tard, et ne concerne de toute manière que Vista. Le X du nouveau ForceWare pourra alors prendre toute signification.

 

Vous devez vous dire c'est quoi ce machin: direct x

 

Microsoft DirectX est une suite d'API multimédia intégrée au système d'exploitation Windows permettant d'exploiter les capacités matérielles d'un ordinateur. Elle est apparue pour la première fois en 1995 sous le nom de "The Game SDK".

 

DirectX fournit un ensemble de bibliothèques de fonctions essentiellement dédiées aux traitements audio/vidéo (carte vidéo, carte son, etc.) et aux périphériques d'entrée/sortie (joystick, carte réseau, souris, etc.).

 

L'avantage des fonctions de DirectX pour les programmeurs est que celles-ci utilisent (si possible) un algorithme alternatif (confié au processeur) quand le matériel installé ne gère pas ce type de traitement. Il fonctionne comme une surcouche de Windows, évitant théoriquement aux programmeurs de devoir s'occuper des différences matérielles qui existent entre les différents PC. Par exemple, si une carte vidéo n'a pas de fonctions dédiées à la 3D, DirectX demandera au processeur de s'occuper du rendu d'une image de synthèse ou le rendu 3D en temps réel.

 

DirectX est la propriété de la société Microsoft. Ce produit n'étant pas libre, les sources ne sont pas rendues publiques, contrairement à la bibliothèque OpenGL, concurrente de Direct3D. Malgré cela, il devient de plus en plus incontournable notamment dans le domaine de la programmation des jeux vidéo 3D, Microsoft passant des accords technologiques avec les constructeurs de cartes 3D grand public.

 

La Xbox, la console de Microsoft, utilise une version modifiée de DirectX 8.1, et la Xbox 360 une version modifiée de DirectX 9.0c.

 

Sur PC, DirectX est actuellement en version 9.0c.

 

La Geforce 8800 est la première carte graphique a supporter DirectX 10, alors qu'il n'est pas encore sorti.

 

Si vous voulez faire simple le dx10 est un programme quoi gère des fonctions graphiques pendant un jeu.

 

Mais à quoi ca sert à par frimer ^^et faire des benchmarks:

C'est pour jouer à des jeux optimiser pour comme Crysis(pleurs devant les sreenshot):

crysis20_small.jpg

crysis24_small.jpg

crysis25_small.jpg

Et vidéos:

http://www.jeuxvideo.tv/fiche/playlist.php?page=0&textesearch=crysis

Regardez la première j'ai failli pleuré... :'(

Lien vers le commentaire
Partager sur d’autres sites

aaaaaah déjà que je bavais devant les 7950 GX2 de nvidia, celle-ci me donne encore plus envie, vu les performances, cette firme a vraiment tout le temps un train d'avance sur celle de ATI. Décidemment, elle restera toujours ma marque de cartes graphiques préférée.

 

edit: j'avais pas vu les images, et je crois bien que c'est la première fois que des images se rapprochent autant de la réalité

Lien vers le commentaire
Partager sur d’autres sites

  • 3 weeks later...

C'est vrai que c'est dur de nos jours d'être au top du top car sa n'arrête pas d'évoluer sérieux j'étais tout content quand j'ai acheté ma 6600GT et puis 6 mois plustars la 7800GTX sort enfin bon j'attend que les 8800 se développe un peu plus avant d'en acheter une car sa coute cher ces petites cartes :P

Lien vers le commentaire
Partager sur d’autres sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

 Share

×
×
  • Créer...