|
|
lun |
mar |
mer |
jeu |
ven |
sam |
dim |
|
|
|
|
1 | 2 | 3 |
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | |
|
|
|
|
Test complet de la GeForce GTX 295 |
Actualité publiée par webmaster le Vendredi 19 Décembre 2008 |
|
Présentées lors du CES qui se tiendra à Las Vegas au début du mois de janvier prochain, les futures cartes graphiques haut de gamme de NVIDIA font déjà beaucoup parler d’elles, tant les fuites d’informations (volontaires ?) à leur sujet sont importantes. A ce rythme, le CES ne devrait pas beaucoup nous réserver de surprises en ce qui concerne la GeForce GTX 285 et la GeForce GTX 295 (modèle BI-GPU) du constructeur au caméléon.
La GeForce GTX 295 de NVIDIA présentée par guru3d
Après avoir pris connaissance des photos, de la gravure en 55nm ou encore des fréquences de ces nouvelles cartes, c’est aujourd’hui un test complet de la GeForce GTX 295 qui vient de voir le jour sur le site de Guru3d. Vous decouvrirez sur ce site la batterie de tests habituelle ainsi que la confirmation des chiffres clés concernant cette carte graphique BI-GPU, à savoir : 2 GPU gravés en 55nm cadencés à 576MHz, 2x240 processeurs de flux cadencés à 1242 MHz, 2X28 ROP et enfin 2x896Mb de mémoire DDR3 interfacée sur 448 bits le tout cadencé à 1000MHz environ.
Ce test nous apprend entre autre que cette carte graphique remplit parfaitement sa première mission à savoir, redonner à NVIDIA le titre du fabriquant de la carte graphique la plus puissante du marché. Du côté de la consommation NVIDIA fait assez fort aussi puisque notre confrère indique avoir mesuré une consommation de 295w en pointe.
>> Comparer les prix des cartes graphiques <<
>> Test de Guru3D sur la Geforce GTX 295 << |
|
|
|
Actualité précédente |
Actualité suivante |
|
|
Par
Skynet le Vendredi 19 Décembre 2008 à 20:01 |
|
Outch le bestiau !
AtOOMMMMM, c'est foutu là , ça passes plus dans ton cube .
La carte de malade . Non merci. |
|
|
|
Par
Ask to Old Man le Vendredi 19 Décembre 2008 à 21:55 |
|
Et comment!! Imagine le bond du compteur EDF avec un SLI Ã fond partout... ...600Watts...
Tu peux y griller les côtes de porc, les saucisses, les côtes de boeuf pendant que tu "fumes"
tes ennemis sur le derniers FPS du moment.En hiver, c'est un chauffage d'appoint!!
Manquerait plus d'assembler sur une CM avec un P4 & ton UC devient une centrale vapeur. Citation:
AtOOMMMMM, c'est foutu là , ça passes plus dans ton cube . |
|
Pas besoin d'un tel monstre de puissance chez moi, qui me contente d'une 7600GT
depuis 2 ans & 1/2. Mon seul vrai besoin vidéo est simple, lecture de DVD à la meilleure définition possible sur mon 22".
Au point que je serais incapable de me choisir une carte graphique si le besoin s'en faisait sentir. |
|
|
|
Par
psychocat le Samedi 20 Décembre 2008 à 10:56 |
|
pour moi aussi , non merci
meme moi elle rentre pas , sauf si je condamne un disque dur et que je decoupe son racle a la scie , c'est n 'importe quoi !
quoi que elle est impressionnante sur la 1er photo mais une fois pose sur la carte mere c'est plus pareil , enfin quand meme .... je me vois mal entrain de brancher les sata derriere mon 3 eme disque dur qui sera a sa hauteur , y'en a qui vont devoir tasser dans les meme condition !
plus de 200 WATTS , ben bonjour
c'est quoi l'utilite la franchement ? pour moi c'est du tout et n'importe quoi , sa va servir a rien et en plus que les oufs de la tete pourront se la payer
comme @atom je garde ma 8600GTS meme si elle est largement plus faible que une HD4830 / 4850 la plupart des jeux fonctionnent dans des conditions plus que acceptable a mon gout
y'en a qui tourne avec moin que nos carte deja ..... faut pas non plus tomber dans le ridicule , et se fixer une limite a la conn..... , parceque j'appele sa de la betise !
aussi utile que ses choses
a part comme carte additionnel sans sli avec les nouveau pilote forceware pour gerer seulement le physx je vois pas !
peu etre vont il la sortir en ISA
@webmaster
NDA ?? sois je comprend pas le sens ou sois je confond , mais je ne vois rien de confidentiel dans cette info , il presente se truc invendable et puis c'est tout , non ? |
|
|
|
Par
Ask to Old Man le Samedi 20 Décembre 2008 à 14:19 |
|
Citation:
NDA ?? sois je comprend pas le sens ou sois je confond , mais je ne vois rien de confidentiel dans cette info , il presente se truc invendable et puis c'est tout , non ? |
|
NDA = Non Disclosure agreement, en anglais. Pourrais être traduit comme: Non Divulgation d'Actualités.
Contrat entre les constructeurs & les différents sites dédiées aux test & News informatique
comme quoi les nouveaux produits pouvant être prêtés pour test ou reportages ne peuvent être communiqués
au grand public que selon une date ou bien un calendrier bien défini.
PS: Avec ta 8600 GTS, tu es quand même une gamme au dessus de ma 7600!! |
|
|
|
Par
psychocat le Samedi 20 Décembre 2008 à 15:03 |
|
cela ne nous empeche pas de profiter d'un ecran presque identique a un chiffre pres
et j'avais raison le 1er coup il faudrait virer un disque dur dans mon boitier et scier la baie
car avec la mienne ya tres peu d'ecart entre le disque dur et elle et c'est chaud de brancher l'alim sata derriere la CG ou le sata derriere le disque dur ( pourtant c'est pas un mini boitier )
http://img185.imageshack.us/img185/4690/nv2vv0.th.jpg
on vois bien la difference grace au connecteur PCI- EX
elle est plus longue
http://img156.imageshack.us/img156/2838/nv1rr3.th.jpg
elle est vraiment plus longue c'est un monstre pas pour n'importe qui ... |
|
|
|
Par
moustacko le Dimanche 21 Décembre 2008 à 02:35 |
|
Oui exactement Psycho, pas pour n'importe qui donc pas la peine de te mettre dans ces états
Moi ce qui me fait gueuler c'est plus la conception identique a la 9800GX2 avec 2 PCB qui viennent prendre la carte en sandwich !!
Donc il n'y aura aucun systeme de refroidissement alternatif et ça risque de chauffer un max !!
Pour la longueur ben c'est comme pour les GTX 260 et 280 et que pour la HD4870 x2 soit 27cm donc longueur standard pour du HDG !!!
Et puis bon, on sait tous que l'unique raison d'exister de cette carte, c'est de detronner la HD4870 X2 et rien d'autre... |
|
|
|
Par
Ask to Old Man le Dimanche 21 Décembre 2008 à 14:15 |
|
Citation:
Et puis bon, on sait tous que l'unique raison d'exister de cette carte, c'est de detronner la HD4870 X2 et rien d'autre... |
|
Ou encore de vendre des alim' surdimensionnées . |
|
|
|
|