[HFR] Focus : CrossFire et Radeon R9 Fury X, Fiji vs GM200, round 2 !

Focus : CrossFire et Radeon R9 Fury X, Fiji vs GM200, round 2 ! [HFR] - HFR - Hardware

Marsh Posté le 29-06-2015 à 21:05:02   2  

Ayant eu l'opportunité d'avoir deux Radeon R9 Fury X à notre disposition, nous avons bien entendu voulu observer comment elles se comportaient en CrossFire face aux GeForce GTX
Lire la suite ...

Reply

Marsh Posté le 29-06-2015 à 21:05:02   

Reply

Marsh Posté le 29-06-2015 à 21:13:40   0  

Merci :)

Reply

Marsh Posté le 29-06-2015 à 21:16:50   1  

voila qui peut donner un image generale de ce que sera la future carte bi-gpu Fiji
 
d'ailleurs vu le scaling du crossfire, il ne serait pas plus interressant de faire un cross de 390x avec ses 8 go dans le cas ou on s'interresse a cette solution en comparo avec le sli 980ti?


Message édité par D-Ther le 29-06-2015 à 21:28:35
Reply

Marsh Posté le 29-06-2015 à 21:40:25   0  

C'est dommage pour le manque de mémoire, car en cross elle dépote :love:


---------------
Je suis néerlandophone une fois
Reply

Marsh Posté le 29-06-2015 à 21:41:37   1  

Un test pour savoir si le pci e limite les cartes c'est possible ?

Reply

Marsh Posté le 29-06-2015 à 21:53:07   1  

sur TW3 enlever l'AA temporel ne règle pas tout, il y a encore des bugs graphiques visibles ici ou là, par exemple sur des textures métalliques ou sur certaines ombres (qui clignotent façon CRT 60Hz en fin de vie), ou à certains endroits le sol en terre devient comme transparent, enfin c'est largement jouable mais pas parfait.


Message édité par McNulty le 29-06-2015 à 21:53:36
Reply

Marsh Posté le 29-06-2015 à 22:03:28   1  

Merci pour le taf Damien ;) j'attend avec impatience, le moment ou on refera le test avec la fury OC (HBM compris) et des drivers potables :)

Reply

Marsh Posté le 29-06-2015 à 22:03:33   0  

Citation :

C'est différent en SLI, Nvidia force la fréquence des deux GPU à se synchroniser au niveau de celui qui souffre le plus, un comportement assez logique dans le cas d'un rendu AFR avec lequel il n'est pas utile qu'un GPU soit plus rapide que l'autre, alors que la consommation peut ainsi être réduite, tout comme la variabilité entre temps de rendu des images.


Je n'ai pas compris le raisonnement  :??:  
 
Si l'on accélère le gpu le plus lent au niveau du plus rapide, on augmente la conso, non ?
 


---------------
http://fr.wikipedia.org/wiki/Z_machine
Reply

Marsh Posté le 29-06-2015 à 22:17:47   1  

Z Machine a écrit :

Citation :

C'est différent en SLI, Nvidia force la fréquence des deux GPU à se synchroniser au niveau de celui qui souffre le plus, un comportement assez logique dans le cas d'un rendu AFR avec lequel il n'est pas utile qu'un GPU soit plus rapide que l'autre, alors que la consommation peut ainsi être réduite, tout comme la variabilité entre temps de rendu des images.


Je n'ai pas compris le raisonnement  :??:  
Si l'on accélère le gpu le plus lent au niveau du plus rapide, on augmente la conso, non ?


C'est l'inverse nvidia ralentie le gpu le plus rapide pour être au niveau du plus lent.
Si on le gpu le plus rapide calcule des images en plus pour rien.
ralentir un des 2 gpu réduit la consommation.

Reply

Marsh Posté le 29-06-2015 à 22:29:33   0  

J'ai interprété "le gpu qui souffre le plus" = "le gpu le plus rapide"
Ce serait donc l'inverse ?
 


---------------
http://fr.wikipedia.org/wiki/Z_machine
Reply

Marsh Posté le 29-06-2015 à 22:29:33   

Reply

Marsh Posté le 29-06-2015 à 22:35:20   1  

Le GPU qui souffre le plus c'est celui qui consomme ou chauffe le plus et qui est donc le plus limité par gou boost.

 

Ce n'esp pas un offset qui modifie la courbe des freqs/tension, Nvidia limite juste la fréquence max, du coup la conso du gpu plus rapide peut être réduite nettement vu qu'il tournera à une faible tension.

Reply

Marsh Posté le 29-06-2015 à 22:36:41   1  

Je pense qu'il ne faut pas oublier que directX 12 est censé permettre de considérer un système comme celui ci comme une seule et unique carte graphique, et par conséquent une carte de 8Gb HBM, ce qui permettrait à la fury d'encore plus creuser l'écart en crossfire face au SLI de 980Ti, et de ne plus connaitre de limitation de mémoire !

Reply

Marsh Posté le 29-06-2015 à 22:44:30   2  

lulu-bleach a écrit :

Je pense qu'il ne faut pas oublier que directX 12 est censé permettre de considérer un système comme celui ci comme une seule et unique carte graphique, et par conséquent une carte de 8Gb HBM, ce qui permettrait à la fury d'encore plus creuser l'écart en crossfire face au SLI de 980Ti, et de ne plus connaitre de limitation de mémoire !


 
non, déjà démonté 50 fois cet argument...

Reply

Marsh Posté le 29-06-2015 à 23:01:13   0  

Parlant d'arguments t'as pas l'air d'en avoir McNulty... En revanche si tu peux expliquer pourquoi ça ne serait pas le cas je suis preneur !

Reply

Marsh Posté le 29-06-2015 à 23:14:32   0  

Reply

Marsh Posté le 29-06-2015 à 23:31:54   0  

excuser moi d'insister, parce que ca m'interresse:

D-Ther a écrit :


d'ailleurs vu le scaling du crossfire, il ne serait pas plus interressant de faire un cross de 390x avec ses 8 go dans le cas ou on s'interresse a cette solution en comparo avec le sli 980ti?


 
meilleurs scaling du cross , pas de limitation de memoire. on devrait se rapprocher des perfs du SLI de 980ti pour un cout bien moindre? (pour du 4k ultra)


Message édité par D-Ther le 29-06-2015 à 23:35:08
Reply

Marsh Posté le 29-06-2015 à 23:35:37   0  

tridam a écrit :

Le GPU qui souffre le plus c'est celui qui consomme ou chauffe le plus et qui est donc le plus limité par gou boost.
 
Ce n'esp pas un offset qui modifie la courbe des freqs/tension, Nvidia limite juste la fréquence max, du coup la conso du gpu plus rapide peut être réduite nettement vu qu'il tournera à une faible tension.


Merci Tridam, c'est clair maintenant  
[:missbt]


---------------
http://fr.wikipedia.org/wiki/Z_machine
Reply

Marsh Posté le 29-06-2015 à 23:40:21   0  


complètement clair , merci pour ce test , ce qui conforte mes pensées :)

Reply

Marsh Posté le 30-06-2015 à 02:30:04   0  

C'est possible un test des R9 300 un jour? Ou bien il n'y en aura jamais?

Reply

Marsh Posté le 30-06-2015 à 03:06:00   0  

Ds9Defiant1701 a écrit :

C'est possible un test des R9 300 un jour? Ou bien il n'y en aura jamais?


C'est quoi ca : http://www.hardware.fr/focus/110/m [...] -test.html

Reply

Marsh Posté le 30-06-2015 à 04:05:01   0  

McNulty a écrit :

non, déjà démonté 50 fois cet argument...


Par tridam par exemple:
http://forum.hardware.fr/hfr/Hardw [...] m#t9477277
 

tridam a écrit :


Sinon concernant l'addition des zones mémoires, en théorie tout est possible. En pratique, il y aura toujours au moins un GPU qui devra contenir toutes les textures. Déporter le post processing, ou une partie de celui-ci, vers un autre GPU pourra peut-être économiser quelques buffers dans la mémoire du GPU principal mais ça ne devrait pas faire de différence énorme au niveau de l'utilisation mémoire de ce dernier.
 
En fait ce qu'il sera surtout possible de faire c'est d'avoir par exemple une carte graphique 8 Go pour le rendu de base (avec le texturing) et une carte graphique 1 Go pour le post processing. Mais je vois mal l'industrie se focaliser sur des solutions aussi spécifiques, d'autant plus que peu de jeux pourront en profiter, surtout au départ. Enfin, à moins qu'AMD et Nvidia ne soient capables de prendre en charge eux-mêmes ce type de rendu en multi-GPU avec des optimisations spécifiques qui "couperaient" à la volée le rendu au bon endroit suivant les GPU utilisés.

Reply

Marsh Posté le 30-06-2015 à 09:41:19   1  

Et comparé à une Titan X ça donne quoi? Car les tarifs ne sont pas si éloignés que ça.
Finalement plutôt pas mal le méga flop dont parlaient certains.

Reply

Marsh Posté le 30-06-2015 à 09:51:10   0  

Ça serait effectivement intéressant de voir comment se comporte les R9 390, d'un côté plus de VRAM et de l'autre plus de watts à dissiper et un refroidissement classique... :)

Reply

Marsh Posté le 30-06-2015 à 09:58:27   1  

La Titan X n'a pas d'intérêt face à la 980 Ti, si ce n'est les 12 Go pour des usages spécifiques, dès lors je ne vois pas l'intérêt d'une comparaison.

 

Pour les 390X en CF, logiquement ce sera un peu au-dessus la 295X2 mais sans les soucis liés à la VRAM, après 650-700W de CG dans un boitier hum... :D

 


Message édité par Marc le 30-06-2015 à 10:19:25
Reply

Marsh Posté le 30-06-2015 à 10:04:37   0  

il faudra revoir pour la config de tests, c'est pas la bonne:
 
Pour rappel, voici les détails de notre système de test :
 
Intel Core i7 3960X (HT off, Turbo 1/2/3/4/6 cores: 4 GHz)
Asus P9X79 WS
8 Go DDR3 2133 Corsair
Windows 7 64 bits
Pilotes GeForce 353.30 WHQL
Catalyst 15.15beta
 
C'est plutôt le pilote AMD Catalyst™ Display Driver version 15.15.1004 qui a été utilisé.
 
 
Sinon super test et toujours aussi détaillés.


Message édité par thandorsnakes le 30-06-2015 à 10:05:42
Reply

Marsh Posté le 30-06-2015 à 10:14:35   0  

Marc a écrit :

Pour les 390X en CF, logiquement ce sera un peu au-dessus la 295X2 mais sans les soucis liés à la VRAM logiquement, après 650-700W de CG dans un boitier hum... :D
 


 
 
C'est pas ca qui gene certains ;)
 
D'ailleurs je suis tombé la dessus  
http://www.tweaktown.com/tweakiped [...] index.html
 
Ensuite faut voir la légitimité des résultats, j'ai juste survolé
(d'ailleurs, zarb ils comparent meme pas a un sli....)

Message cité 1 fois
Message édité par D-Ther le 30-06-2015 à 10:38:45
Reply

Marsh Posté le 30-06-2015 à 10:26:33   2  

lulu1980 a écrit :

Et comparé à une Titan X ça donne quoi? Car les tarifs ne sont pas si éloignés que ça.
Finalement plutôt pas mal le méga flop dont parlaient certains.


Le flop (qui n'en est pas un d'ailleurs, juste un fiasco comm) concerne déjà ceux qui pourraient se laisser aller à payer leur CG dans les 700€. S'il faut doubler cette somme pour effacer le "méga flop", on a dépassé le marché de niche, on est carrément dans le marché interstitiel.

Reply

Marsh Posté le 30-06-2015 à 10:53:08   6  

En résumé, cette R9 Fuxy X est une excellente carte, tout comme la GTX 980 Ti ...
AMD et nVidia sont donc au coude à coude.. comme bien souvent.

Reply

Marsh Posté le 30-06-2015 à 10:57:36   0  

Je suis curieux, quel est le volume de Fury X qui seront distribuées?
 
Pace qu'en fait on parles d'un carte qui n'est même pas disponible ou en stock très faible (chez LDLC la saphire stock : 1 pièce ...)

Reply

Marsh Posté le 30-06-2015 à 11:17:19   0  

La mienne est en cours d'acheminement, hâte de tester la bête :)

Reply

Marsh Posté le 30-06-2015 à 11:19:28   0  

Merci Damien pour ce focus !

Reply

Marsh Posté le 30-06-2015 à 11:33:16   0  

D-Ther a écrit :


 
 
C'est pas ca qui gene certains ;)
 
D'ailleurs je suis tombé la dessus  
http://www.tweaktown.com/tweakiped [...] index.html
 
Ensuite faut voir la légitimité des résultats, j'ai juste survolé
(d'ailleurs, zarb ils comparent meme pas a un sli....)


760W sous BF4 avec des pointes à 805... j'ose pas imagine combien ça peut donner avec Anno 2070. :lol:

Reply

Marsh Posté le 30-06-2015 à 11:34:27   0  

@ Tridam, j'ai une question à propos du scaling en multi-gpu et ceci dans une perspective non-gamer mais plus en terme de puissance brut en calcul brut en GPGPU et en me basant notamment sur cet article :
http://www.tomshardware.fr/article [...] 56669.html
 
et plus précisément  sur ce passage : "Passer d’une à deux cartes accroît les performances de 82 %. Passer à trois cartes offre 50 % de performances en plus, contre seulement 30 % lorsque l’on installe la quatrième, selon les tests de l’ingénieur."
 
Si je prends une base 100 pour une carte, 2 cartes donnent 180. 50% de 180 produisent 90, ce qui fait donc 270. 30% de 270 font 90 ce qui va faire 360 avec 4 cartes. la progression est bien linéaire, non ?
 
En tout cas, c'est vraiment regrettable ces problèmes de bruit avec les pompes. On a l'impression qu'il n'existe pas de suivi d'un produit de A à Z chez AMD.


Message édité par greenboro le 30-06-2015 à 11:34:53
Reply

Marsh Posté le 30-06-2015 à 11:35:28   1  

"AMD nous a indiqué que son approche prioritaire était de travailler avec les développeurs pour s'assurer d'un comportement plus efficace de leurs jeux vis-à-vis de l'utilisation mémoire. Une approche idéale mais qui peut avoir ses limites si tous n'acceptent pas de faire des efforts."
 
D'autant plus qu'ils ne peuvent pas traiter tous les jeux qui sortent, y'en a juste trop. Ils drevront laisser de cote les indes je pense. Ou alors ils feront l'opti directement sur les moteurs très populaires(Unreal Engine, cryEngine, Unity, Source ?) et indépendamment les AAA avec des moteurs maison.
Mais je vois ca peu probable.
 
En tout cas AMD a fait du chemin sur son CrossFire. On est loin du lancement de la 7990. Moins de memoire, moins balese que la concurrence en 1vs1, et pourtant une moyenne notablement plus haute en CF 4K, meme avec des jeux vraiment pas en leur faveur. Chapeau bas.

Reply

Marsh Posté le 30-06-2015 à 11:42:49   0  

@greenboro, si tu veut faire du GPGPU utilise deux R9 390X, surtout en double précision c'est plus performants.

Reply

Marsh Posté le 30-06-2015 à 11:47:05   0  

Question : une Radeon FuryX consomme combien sur le rail +12V (PCI-E) ? Et une Radeon 290(X) ?

 

Ma Seasonic M12II 82+ - 620W pourrait-elle passer avec l'une de ces cartes ? (pas de CFx pour moi et je jouerai en 1080p)


Message édité par Gilbert Gosseyn le 30-06-2015 à 11:47:14

---------------
Tant que la couleur de la peau sera plus importante que celle des yeux, nous ne connaitrons pas la paix. ● L'écriture, c'est la mémoire du futur. ● Mods FO4
Reply

Marsh Posté le 30-06-2015 à 11:51:34   0  

Je trouve que l'augmentation des prix de AMD n'est pas justifiée, la r9 fury coûte 750 euros ! , soit 150 euros plus cher qu'une Bonne gtx 980 (on peut aller jusqu'à 550 euros), De plus, avec un crossfire de Fury, vaut mieux préparer la 2000 watts platinum x)


Message édité par vincezeboss le 30-06-2015 à 11:53:53
Reply

Marsh Posté le 30-06-2015 à 11:53:02   0  

Je crois que la r9 fury x consomme un peux plus, http://www.hardware.fr/articles/93 [...] tique.html
 
Jusqu'à 301 watts sur le deuxième sample.

Reply

Marsh Posté le 30-06-2015 à 11:58:30   0  

Si il y a une table de clocking et tension qui va avec dans le bios titan x ou 980  

tridam a écrit :

Le GPU qui souffre le plus c'est celui qui consomme ou chauffe le plus et qui est donc le plus limité par gou boost.
 
Ce n'esp pas un offset qui modifie la courbe des freqs/tension, Nvidia limite juste la fréquence max, du coup la conso du gpu plus rapide peut être réduite nettement vu qu'il tournera à une faible tension.


Message édité par Xixou2 le 30-06-2015 à 11:59:27
Reply

Marsh Posté le 30-06-2015 à 12:19:04   0  

lapin a écrit :

Je crois que la r9 fury x consomme un peux plus, http://www.hardware.fr/articles/93 [...] tique.html
 
Jusqu'à 301 watts sur le deuxième sample.


Malheureusement, cela ne me donne pas l'ampérage nécessaire sur les rails PCI-E des alims (la mienne serai normalement dotée de deux rails 24A). Si ça demande plus, je serai obligé de changer d'alim, chose qui je me réjouierai pas des masses ...


---------------
Tant que la couleur de la peau sera plus importante que celle des yeux, nous ne connaitrons pas la paix. ● L'écriture, c'est la mémoire du futur. ● Mods FO4
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed