[HFR] Dossier : Nvidia GeForce GTX Titan Z : la carte graphique à 3000€ en test

Dossier : Nvidia GeForce GTX Titan Z : la carte graphique à 3000€ en test [HFR] - HFR - Hardware

Marsh Posté le 01-08-2014 à 17:30:02   0  

Nous avons enfin pu mettre la main sur la GeForce GTX Titan Z, la dernière carte bi-GPU de Nvidia, proposée à 3000€. Comment se comporte-t-elle face à la Radeon R9 295 X2 ? Sur le plan des performances ? Des nuisances sonores ?
Lire la suite ...

Reply

Marsh Posté le 01-08-2014 à 17:30:02   

Reply

Marsh Posté le 01-08-2014 à 17:44:52   18  

Probablement un test de marketing pour Nvidia, pour voir jusqu'à quel prix ils peuvent vendre leurs cartes, pour les futures haut de gamme.

Reply

Marsh Posté le 01-08-2014 à 17:46:31   19  

Excellent test, très complet.
 
Cette phrase m'a fais doucement rire:  
"Pour justifier sa réticence de dernière minute face aux tests de la GeForce GTX Titan Z, Nvidia nous explique qu'il ne s'agit pas réellement d'une carte graphique pour joueurs et qu'elle est en grande partie destinée aux professionnels."  


Message édité par akab le 01-08-2014 à 17:51:17
Reply

Marsh Posté le 01-08-2014 à 17:49:30   18  

Citation :

2 GTX 780 Ti proposent une même qualité de fabrication et des performances supérieures à la GTX Titan Z pour un tiers du prix !
 


Ça résume bien le test.

Reply

Marsh Posté le 01-08-2014 à 17:57:37   4  

Citation :

Alors oui, certains utilisateurs n'apprécient pas les systèmes de watercooling intégrés voire les Radeon tout court et ont besoin d'un niveau de performances inutile pour la majorité des joueurs.


 :D

Reply

Marsh Posté le 01-08-2014 à 17:58:00   22  

Quand je vois ça :
Radeon R9 295X2 V-Sync OFF : léger tearing
Radeon R9 295X2 V-Sync ON : saccades par endroit
GeForce GTX 780 Ti SLI V-Sync OFF : tearing important, gênant
GeForce GTX 780 Ti SLI V-Sync ON : très petites saccades par endroit
GeForce GTX Titan Z V-Sync OFF : tearing important, gênant
GeForce GTX Titan Z V-Sync ON : très petites saccades par endroit
 
Radeon R9 295X2 V-Sync OFF : tearing, à-coups par endroits
Radeon R9 295X2 V-Sync ON : très gros à-coups  
GeForce GTX 780 Ti SLI V-Sync OFF : tearing, gros à-coups, cadencement irrégulier ?
GeForce GTX 780 Ti SLI V-Sync ON : à-coups qui impactent la fluidité
GeForce GTX Titan Z V-Sync OFF : tearing, gros à-coups, cadencement irrégulier ?
GeForce GTX Titan Z V-Sync ON : à-coups qui impactent la fluidité
 
Etc etc sur la plupart des jeux (voir tous), je me dis que n'importe quelle solution présentées dans ce comparatif m'en rendent allergique...Quel intérêt d'être à 100fps si c'est pour avoir l'impression de "saccader" "tearer"....Je vous laisse seul juge mais depuis le temps que le multi-gpu existe encore de nombreux travaux à faire....


Message édité par loneliness le 01-08-2014 à 17:58:32
Reply

Marsh Posté le 01-08-2014 à 18:27:41   5  

C'est le 4K qui accentue particulièrement ce genre de problèmes. Et c'est des résultats subjectifs pour comparer les solutions entre elles avant tout...

Reply

Marsh Posté le 01-08-2014 à 19:01:28   14  

c est la qu on voit que le sync display port ne peux plus attendre

Reply

Marsh Posté le 01-08-2014 à 19:01:49   22  

On a rarement vu de telles conclusion dans les tests informatique : des pages entières pour essayer de justifier l'achat du produit, ca résume bien le problème de la Titan Z, elle n'a aucun intérêt.


Message édité par Keser le 01-08-2014 à 19:02:12
Reply

Marsh Posté le 01-08-2014 à 19:15:41   13  

tu la mets dans un cadre, tu mets comme titre 'l'inutile et le vain, le commencement de la fin'.
tu revends ça 20K au FIAC, et hop, tu as un intérêt marketing.


---------------
un jour, moi aussi, je serais grand...
Reply

Marsh Posté le 01-08-2014 à 19:15:41   

Reply

Marsh Posté le 01-08-2014 à 19:26:51   8  

Y'a des GermanSouplex par dizaine dans cet article :love:

Citation :

Encore faut-il qu'il s'agisse de la meilleure solution du moment. Ce n'est pas le cas.


 
Ca paraît dur à croire (vu le niveau initial déjà très haut) mais je trouve que plus les années passent et plus l'équipe de H.FR améliore la qualité et l'esprit critique de ses tests de produits :jap:


---------------
--- https://steamcommunity.com/id/Vanlock ---
Reply

Marsh Posté le 01-08-2014 à 19:35:45   4  

Quand on voit la difficulté à dissiper ces 300W+, on se dit que le watercooling est inévitable si on veut conserver sa carte plus de 6 mois...
 
Nvidia est contreproductif dans la sortie de cette carte. Elle ne donne strictement aucun argument viable, et tend le bâton pour se faire battre. Il ont intérêt à sortir de très bonne série 800, et à arrêter leur overclocking non contrôlable (si il n'y avait pas eu cet overcloking je l'aurais conseillé plutôt que des AMD pour le coup, mais avoir une CG avec la case suicide par chauffe cochée, je dis non merci)

Reply

Marsh Posté le 01-08-2014 à 19:54:43   1  

Est ce que vous avez pu faire des relevés de température des différents composants comme dans le comparatif des 290 ?
 
Car les relevés thermographique du système équipé de la Titan Z ont l'air alarmant, la carte mère et le cpu tiennent le choc ?

Message cité 2 fois
Message édité par Keser le 01-08-2014 à 19:55:01
Reply

Marsh Posté le 01-08-2014 à 20:31:26   4  

hafx a écrit :

Citation :

2 GTX 780 Ti proposent une même qualité de fabrication et des performances supérieures à la GTX Titan Z pour un tiers du prix !
 


Ça résume bien le test.


Ça résume (voire anéantit) surtout l’intérêt de la carte !  :D

Reply

Marsh Posté le 01-08-2014 à 21:27:55   4  

Et ben nous, on a une Titan Z et les autres, bah ils sont trop blazés quoi !

Reply

Marsh Posté le 01-08-2014 à 22:58:22   2  

Faut faire les tests avec les cpu bloqués à fréquence fixe,
car avec le yoyo intel, ça peut lagger stutterer le tout de la mort, malgré des cartes graphiques nickel. Un bon cas typique: starcraft 2.

Reply

Marsh Posté le 01-08-2014 à 23:00:53   8  

Amd est donc supérieur en cross et pas chère !

Reply

Marsh Posté le 01-08-2014 à 23:10:46   1  

Citation :

(HT off, Turbo 1/2/3/4/6 cores: 4 GHz)

 

Imo c'est du 4GHz@H24. (ou alors HFR sont devenus des branquignols :o )

 

Edith : @xixou2


Message édité par Kyjja le 01-08-2014 à 23:13:33

---------------
HWBot | Conso GPU | Who's who PSU | Mes BD \o/ | GReads | MSpaint
Reply

Marsh Posté le 01-08-2014 à 23:30:07   1  

Oui fréquence fixe.

Reply

Marsh Posté le 01-08-2014 à 23:36:54   6  

Nvidia c'est planter en beauté faut être pigeon pour acheté cette carte, chauffe, aucune performance vs sli 780 Ti, que des défauts pour 3000€...  

Reply

Marsh Posté le 01-08-2014 à 23:46:41   6  

VS cross R9 295X2 ce qui fait 2400€ , la cela touche l'absolu dans la bêtise ! A moins d'être con comme une baleine et être bourré de fric et de coco car il faut vraiment planer pour acheter ça :) !  

Reply

Marsh Posté le 01-08-2014 à 23:53:24   3  

La passion à des limites ! Je préfères mettre 3000 € dans un beau voyage que dans une carte graphique  :pfff:  ... Mon iGPU HD 4000 fonctionne merveilleusement bien  :D


---------------
Asus Mini Transformer - Intel Atom X5 X8350 1.44 GHz, 1.92 GHz Turbo - Intel HD 400 - 4 GB memory - 128 GB eMMC - Windows 10.
Reply

Marsh Posté le 02-08-2014 à 00:18:24   4  

A mon avis le mec qui oserait acheter cette carte n'est plus à quelques centaines d'€ près et la mettrait en watercooling.
 
Sinon quelqu'un a sorti les merguez?   :D

Reply

Marsh Posté le 02-08-2014 à 00:42:31   3  

Serait-il possible d'avoir des tests en dépassant 4Go de mémoire vidéo?
Car justement les Titans ont 6Go et ce n'est pas pour rien je suppose.
Parce que les personnes, qui prennent des cartes à ce tarif, ce n'est pas pour jouter en 1024 (j'exagère volontairement).
 
Autre question, l'usage du PCI Express sur ce type de carte (AMD et nVidia) donnne quoi:
- En Crossfire 2 et 3 carte
- En SLI 2 et 3 carte
Une carte avec 2 GPUs a-t-elle un avantage de vitesse de communication entre les GPUs vis-à-vis d'un Crossfire/SLI?
Combien de lignes sur le PEX8747 sont utilisées?

Message cité 1 fois
Message édité par manusfreedom le 02-08-2014 à 00:44:36
Reply

Marsh Posté le 02-08-2014 à 01:31:36   3  

un cross de r9 290x au prix pratiquer pendant les soldes au prix d'une 780ti et tu poutre tout ce bon monde

Reply

Marsh Posté le 02-08-2014 à 07:46:26   1  

loneliness a écrit :

Quand je vois ça :
Radeon R9 295X2 V-Sync OFF : léger tearing
Radeon R9 295X2 V-Sync ON : saccades par endroit
GeForce GTX 780 Ti SLI V-Sync OFF : tearing important, gênant
GeForce GTX 780 Ti SLI V-Sync ON : très petites saccades par endroit
GeForce GTX Titan Z V-Sync OFF : tearing important, gênant
GeForce GTX Titan Z V-Sync ON : très petites saccades par endroit
 
Radeon R9 295X2 V-Sync OFF : tearing, à-coups par endroits
Radeon R9 295X2 V-Sync ON : très gros à-coups  
GeForce GTX 780 Ti SLI V-Sync OFF : tearing, gros à-coups, cadencement irrégulier ?
GeForce GTX 780 Ti SLI V-Sync ON : à-coups qui impactent la fluidité
GeForce GTX Titan Z V-Sync OFF : tearing, gros à-coups, cadencement irrégulier ?
GeForce GTX Titan Z V-Sync ON : à-coups qui impactent la fluidité
 
Etc etc sur la plupart des jeux (voir tous), je me dis que n'importe quelle solution présentées dans ce comparatif m'en rendent allergique...Quel intérêt d'être à 100fps si c'est pour avoir l'impression de "saccader" "tearer"....Je vous laisse seul juge mais depuis le temps que le multi-gpu existe encore de nombreux travaux à faire....


 
vous avez excellemment bien (ça se dit ?) résumé la situation à mes yeux.
Il est devenu ridicule d'acheter une carte graphique haut de gamme de nos jour vu les faibles gains, tant que le G-sync/Free-sync ne sera pas sortit. Et par là je veux dire dès que les écrans seront disponibles en quantité suffisante (aka pas juste 2 modèles ultra haut de gamme chez chaque marque)

Reply

Marsh Posté le 02-08-2014 à 08:34:40   3  

un test d'une telle carte bi-GPU, où les pilotes jouent un grand rôle, avec des pilotes complètement dépassés, surtout pour la R9 295X2, ce n'est pas du tout sérieux. Il aurait mieux valu prendre son courage à 2 mains et recommencer toutes les mesures. Test donc obsolète avant d'être publié.

Reply

Marsh Posté le 02-08-2014 à 10:48:48   3  

Je comprends pas pourquoi la carte n'est pas vendue nu sans refroidissement ou avec un waterblock mais sans limitations de fréquence et de puissance. De toute façon a 3k€ la carte ne va garder son refroidissement d'origine longtemps. Un monstre est un monstre, laissons le s'exprimer.

Reply

Marsh Posté le 02-08-2014 à 10:58:46   9  

theboss3475 a écrit :

un test d'une telle carte bi-GPU, où les pilotes jouent un grand rôle, avec des pilotes complètement dépassés, surtout pour la R9 295X2, ce n'est pas du tout sérieux. Il aurait mieux valu prendre son courage à 2 mains et recommencer toutes les mesures. Test donc obsolète avant d'être publié.


 
N'importe quoi. Ce sont bien les derniers pilotes dispo qui ont été utilisé pour GeForce GTX Titan Z. Je ne vois pas en quoi utiliser les derniers pilotes pour la R9 295X2 auraient changé quoique ce soit à la conclusion: le bi-gpu Nvidia se fait laminer dans tous les domaines par le bi-gpu AMD.
 
De plus dire que des pilotes plus récents de 2 mois vont changer fondamentalement un test portant sur 10 jeux sur une architecture GNC vieille de plus de 2 ans est un non-sens total. Enfin bon quand on voit la qualité des tests chez www.comptoir-hardware.com, faut pas s'étonner non plus de lire de telles conneries.

Reply

Marsh Posté le 02-08-2014 à 11:10:12   0  

ccomesa a écrit :

un cross de r9 290x au prix pratiquer pendant les soldes au prix d'une 780ti et tu poutre tout ce bon monde


 
Faudras m'expliquer où tu as trouvé des 290x à 300 € pendant les soldes ?
 
Bon sinon concernant le test , je pense que cette carte n'aurait pas dû sortir , vitrine ou pas , à quelques mois de la sortie des 880 :spamafote:

Message cité 1 fois
Message édité par cyberfred le 02-08-2014 à 11:12:05
Reply

Marsh Posté le 02-08-2014 à 11:26:22   3  

cyberfred a écrit :


 
Faudras m'expliquer où tu as trouvé des 290x à 300 € pendant les soldes ?
 


 
http://www.hardware.fr/prix/fiche- [...] -4gd5.html
 
bon c'est pas une R9 290x mais elle offre quand même des performances supérieures à une R9 290X de référence.

Reply

Marsh Posté le 02-08-2014 à 12:26:36   3  

sagittaire a écrit :


 
N'importe quoi. Ce sont bien les derniers pilotes dispo qui ont été utilisé pour GeForce GTX Titan Z. Je ne vois pas en quoi utiliser les derniers pilotes pour la R9 295X2 auraient changé quoique ce soit à la conclusion: le bi-gpu Nvidia se fait laminer dans tous les domaines par le bi-gpu AMD.
 
De plus dire que des pilotes plus récents de 2 mois vont changer fondamentalement un test portant sur 10 jeux sur une architecture GNC vieille de plus de 2 ans est un non-sens total. Enfin bon quand on voit la qualité des tests chez www.comptoir-hardware.com, faut pas s'étonner non plus de lire de telles conneries.


 
justement, ta phrase est un non sens, les pilotes, si on suit ta logique, ne devraient finalement exister que que quoi, une année ? L'archi GCN vaut ce qu'elle vaut, mais il y a des choses qui bougent et pour toute crédibilité, il faut des pilotes à jour, pour une équité des GPU testés. pouquoi une TitanZ aurait droit aux derniers pilotes (ce ne sont pas les derniers mais les avant derniers, soit...) et AMD aux pilotes d'il y a 3 mois ? Moi c'est déontologiquement que ça me gêne, faut un protocole équitable, indépendant des résultats de l'article. ca ne changera peut-être rien, mais ça peut aussi changer des choses, les majorer, les minorer, mais le doute sera toujours là, quand on voit que sur la durée de vie d'un GPU, le travail sur les pilotes apportent une grosse dizaine de % en plus...
 
Ensuite ta tirade sur CDH, je vois pas le rapport avec ce que j'ai dit sur l'article de HFR.


---------------
www.hardwareand.co
Reply

Marsh Posté le 02-08-2014 à 13:05:00   11  

pour 3000 boules , t'as une carte qui fait plus de barouf qu'un cross de 290x en mode uber  
fallait le faire , Nvidia l'a fait :lol:  
sinon c'est bizarre , certains se permettent de faire un caca tout dur pour une histoire de pilotes qui n'a pas lieu d'être et qui s'explique par le temps anormal pour réalisé les test tellement nvidia est fier de son produit , mais personne n'a remarqué ces nouveau jolis graph interactifs et bien pratiques  
on vit une triste époque :(


Message édité par Profil supprimé le 02-08-2014 à 13:06:10
Reply

Marsh Posté le 02-08-2014 à 13:21:23   4  

même si elle coûtait 1200€ son intérêt serait encore discutable face à la R9 295x2 ou un SLI de 780Ti/Titan Black.

Reply

Marsh Posté le 02-08-2014 à 13:34:46   4  

manusfreedom a écrit :

Serait-il possible d'avoir des tests en dépassant 4Go de mémoire vidéo?
Car justement les Titans ont 6Go et ce n'est pas pour rien je suppose.
Parce que les personnes, qui prennent des cartes à ce tarif, ce n'est pas pour jouter en 1024 (j'exagère volontairement).
 
Autre question, l'usage du PCI Express sur ce type de carte (AMD et nVidia) donnne quoi:
- En Crossfire 2 et 3 carte
- En SLI 2 et 3 carte
Une carte avec 2 GPUs a-t-elle un avantage de vitesse de communication entre les GPUs vis-à-vis d'un Crossfire/SLI?
Combien de lignes sur le PEX8747 sont utilisées?


 
Deviens cher les 2 Go en plus hein, en plus il y a pas encore de vidéo à la hauteur de cette carte ( une vidéo à 3000€ )  :D


Message édité par wnorton le 02-08-2014 à 13:40:13
Reply

Marsh Posté le 02-08-2014 à 13:38:17   4  


 
Il peut sortir le meilleur pilote au monde sa ne justifie en rien les 3000 roro de la carte, pour justifier le prix elle aurai du avoir des performances 3 fois supérieur à un SLI 780 Ti mais nous en somme très loin :D
 
Maintenant la carte peu se justifier pour le ps le plus cher au monde la il y a un intérêt :D


Message édité par wnorton le 02-08-2014 à 13:40:32
Reply

Marsh Posté le 02-08-2014 à 14:06:54   1  

Pour une fois je trouve ce dossier totalement à côté de la plaque.
 
Au delà de la connerie marketing qui vend ça comme une carte gamer, ce qui aurait pu être démonté en détail en 2 pages, il aurait fallu creuser bien plus en profondeur le DP et les situations demandant 6GB de mémoire.
J'aurais bien aimé alors voir les autres cartes du dossier dans ces situations, je parie qu'on aurait alors vraiment réalisé l'utilité -et le marché cible- de la titan Z.
 
Parce qu'au final ce qu'on en tire c'est que la titan Z, bien que coûtant 3K€ ne sait pas faire le café alors qu'une cafetière de 3€ en fait un excellent.
Mais je voudrais dire: on s'en fout !
Ce n'est clairement pas ce qu'elle est censée faire...
Et ce même (surtout) si trois crétins de la com' ont dit que si.
 
editps: attention, je ne prétends surtout pas savoir à quoi cette carte est réellement et concrètement destinée, mais ça me semble tellement évident que ce n'est pas une carte gamer qu'en faire un dossier aussi long me semble être une ineptie.

Message cité 1 fois
Message édité par MasterDav le 02-08-2014 à 14:11:42
Reply

Marsh Posté le 02-08-2014 à 14:24:57   13  

Je crois que le problème est là : on sait pas à qui elle est destinée. Peut être aux pro, mais le fait est là : je ne connais aucun serveur de calcul qui en est équipé.  
Aux USA, on la retrouve dans des tours gamers pour riches, genre chez Alienware, AVADirect ou CyberPowerPC. Tandis qu'il n'est pas possible de se configurer un serveur chez HP, Dell ou IBM avec cette carte.
 
Bref, en pratique, elle est vendue aux gamers.


Message édité par Many as One le 02-08-2014 à 14:37:23
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed