[HFR] Actu : AMD + Nvidia en multi GPU sous DX12

Actu : AMD + Nvidia en multi GPU sous DX12 [HFR] - HFR - Hardware

Marsh Posté le 28-10-2015 à 16:45:02   0  

Nous vous en parlions en mai dernier, DirectX 12 ajoute un support explicite du multi-GPU laissant la possibilité aux développeurs le contrôle du multi-GPU. A ...
Lire la suite ...

Reply

Marsh Posté le 28-10-2015 à 16:45:02   

Reply

Marsh Posté le 28-10-2015 à 17:03:57   0  

Très intéressant en effet.
Comment explique-t-on l'impact de l'ordre des GPU ? Dans la démo sous Unreal Engine j'aurais avancé l'idée des bus de taille differente mais là c'est du rendu alternatif frame by frame donc je vois pas :??:  
 
PS: Une petite relecture s'impose pour les coquilles :o


---------------
WoW | D3 | Steam
Reply

Marsh Posté le 28-10-2015 à 17:14:53   0  

> Comment explique-t-on l'impact de l'ordre des GPU ?
 
Très curieux en effet.
 
Peut-être certaines parties du rendu qui ne sont affichées qu'une frame sur deux normalement, et se retrouvent toujours sur le même GPU?
Par exemple avec du cascade shading, certaines cascades peuvent n'être rafraichies qu'une frame sur 2 ou plus, ce qui soulagerait le GPU secondaire.


Message édité par tfpsly le 28-10-2015 à 17:15:04
Reply

Marsh Posté le 28-10-2015 à 17:26:10   0  

Théorie: Certaines opérations (comme du calcul) doivent se faire exclusivement sur le premier GPU et la Fury est un peu plus efficace que la 980 Ti.

Reply

Marsh Posté le 28-10-2015 à 17:29:40   4  

Le problème s'est de changer de carte selon les jeux vive les tables de bench adieu boitier ,après faut voir comment Nvidia et Amd vont reagir dans les pilotes pour pourrir les utilisateurs qui voudrait tenter aventure .

Reply

Marsh Posté le 28-10-2015 à 17:43:48   0  

L'incohérence de l'ordre des GPU est peut-être relié à l'async compute que seul AMD peut faire?


Message édité par kabloui le 28-10-2015 à 17:44:31
Reply

Marsh Posté le 28-10-2015 à 17:47:47   2  

@Angelus0069 En français, ça donne quoi ?

Reply

Marsh Posté le 28-10-2015 à 18:20:50   2  

Enfin une VRAIE avancée dans le domaine de l'informatique ? Je l'espère !

Reply

Marsh Posté le 28-10-2015 à 18:27:31   2  

kabloui a écrit :

L'incohérence de l'ordre des GPU est peut-être relié à l'async compute que seul AMD peut faire?


je sais pas si l'async compute n'est efficace qu'en multi-gpu, mais en mono, les nvidia sont toujours devant sur ce bench. J'aurai pensé que les FuryX profiteraient mieux de DX12 que les GTX 980 Ti...
Les meilleurs perfs sont obtenu en mélangeant les marques, du bi gpu mono marque est plus lent, les fan d'une marque vont devoir acheter l'autre marque aussi pour avoir les meilleurs perfs, c'est assez comique. Ca va peut-être calmer les trolls...

Reply

Marsh Posté le 28-10-2015 à 18:28:24   1  

MazFire a écrit :

Enfin une VRAIE avancée dans le domaine de l'informatique ? Je l'espère !


Je pense pas qu'on puisse parler d'avancée à proprement parler.
Les fabricants de GPU seront probablement hostile à la flexibilité de la chose.
De leur point de vue ca ferait des ventes en moins vu que ca permet de prolonger la vie des vieilles cartes.
 
Je rejoins Angelus, y a fort à parier que les pilotes vont brider les possibilités au max.
Ca sera GPU de même marque si on à de la chance et même génération si on en a pas... :ange:


---------------
WoW | D3 | Steam
Reply

Marsh Posté le 28-10-2015 à 18:28:24   

Reply

Marsh Posté le 28-10-2015 à 18:32:41   0  

remm a écrit :

Théorie: Certaines opérations (comme du calcul) doivent se faire exclusivement sur le premier GPU et la Fury est un peu plus efficace que la 980 Ti.


C'est ce que je me suis dis aussi. Les étapes de rendus sont peut être séparés entre les 2 cartes et la partie exécuté par la première carte serait plus rapidement faite avec une carte AMD ?
Même chose pour la partie du rendu effectué sur la 2ème carte qui serait plus performant avec une carte Nvidia.


Message édité par aresias le 28-10-2015 à 18:35:27
Reply

Marsh Posté le 28-10-2015 à 18:37:03   0  

quid de la mémoire pour le duo 980ti et titan x ?
limité à 6 GBytes ?

Reply

Marsh Posté le 28-10-2015 à 18:47:25   0  

LIRE la news serait bien aussi.
C'est écrit noir sur blanc, dans l'image intégrée à la news :
"Independent memory management"
Les développeurs peuvent donc allouer de la mémoire sur chaque GPU, comme on le ferait dans du computing en OpenCL ou CUDA.

Reply

Marsh Posté le 28-10-2015 à 19:18:20   0  

Les différences pourraient s'expliquer par des débits de transfert du framebuffer plus ou moins efficaces vers la carte qui fait l'affichage ?
 
Par contre dire que ça n'a pas grand intérêt me semble faux car beaucoup de gens ont désormais plusieurs cartes graphiques plus ou moins récentes en stock, leurs performances restant proche du fait de la stagnation des performances.
Du coup ça permettrait de recycler deux cartes basées sur Tahiti mais d'époques très différentes sans compter sur le Crossfire.

Reply

Marsh Posté le 28-10-2015 à 19:21:10   1  

Si tout devenait plus souple au niveau des mélanges de GPU de marques différentes et des IGPU, ce serait une vraie avancée.

 

Il faudrait aussi que les constructeurs de carte mère participent à cette flexibilité et que la norme PCI-Express soit améliorée.

 

1) J'ai placé ma carte graphique en PCIE3 pour pouvoir la refroidir plus facilement.
Hors je voudrais ça :
- PCIE1 : rien et PCIE3 : 16X
Hors actuellement il est impossible de paramétrer cela dans le bios, il n'y a que :
- PCIE1 : 16X et PCIE3 : rien
- PCIE1 : 8X   et PCIE3 : 8X
et du coup ma carte graphique est en 8X GEN3.  :(
Heureusement que ça ne bride pas réellement les perfs en jeux, quelques points perdus en bench tout au plus,
et comme une carte plus froide fait moins de throttle ça rattrape un peu.
Mais je ne sais pas si sera le cas avec les besoins des cartes graphiques dans 2 ans et j'aimerais quand même que tout soit optimisé.

 

2) D'après cette news c'est plus profitable d'avoir tel modèle de carte sur le port primaire.
Hors je ne crois pas qu'il soit possible actuellement de choisir quel port PCIE contient la carte primaire.
Enfin je ne peux pas le faire puisque je n'ai le choix qu'entre l'IGPU et le GPU dans mon bios.
Ce sera bien de pouvoir paramétrer ça dans le bios pour éviter d'interchanger physiquement les cartes.
Enfin pour le jour où on pourra enfin profiter du mixage de GPU.

Message cité 1 fois
Message édité par Lykomax le 28-10-2015 à 19:21:46
Reply

Marsh Posté le 28-10-2015 à 19:46:58   0  

Lykomax a écrit :

Si tout devenait plus souple au niveau des mélanges de GPU de marques différentes et des IGPU, ce serait une vraie avancée.
 
Il faudrait aussi que les constructeurs de carte mère participent à cette flexibilité et que la norme PCI-Express soit améliorée.
 
1) J'ai placé ma carte graphique en PCIE3 pour pouvoir la refroidir plus facilement.
Hors je voudrais ça :
- PCIE1 : rien et PCIE3 : 16X
Hors actuellement il est impossible de paramétrer cela dans le bios, il n'y a que :
- PCIE1 : 16X et PCIE3 : rien
- PCIE1 : 8X   et PCIE3 : 8X
et du coup ma carte graphique est en 8X GEN3.  :(
Heureusement que ça ne bride pas réellement les perfs en jeux, quelques points perdus en bench tout au plus,  
et comme une carte plus froide fait moins de throttle ça rattrape un peu.
Mais je ne sais pas si sera le cas avec les besoins des cartes graphiques dans 2 ans et j'aimerais quand même que tout soit optimisé.
 
2) D'après cette news c'est plus profitable d'avoir tel modèle de carte sur le port primaire.
Hors je ne crois pas qu'il soit possible actuellement de choisir quel port PCIE contient la carte primaire.
Enfin je ne peux pas le faire puisque je n'ai le choix qu'entre l'IGPU et le GPU dans mon bios.
Ce sera bien de pouvoir paramétrer ça dans le bios pour éviter d'interchanger physiquement les cartes.
Enfin pour le jour où on pourra enfin profiter du mixage de GPU.


 
tu as des chiffres ?  :)  

Reply

Marsh Posté le 28-10-2015 à 19:48:48   0  

Du coup j'ai remis ma vieille 290 amd près de ma titan x pour Boinc ;-)
ça turbine bien. Et comme prévu, la tab physx du control panel nvidia a disparu ^^
 

Reply

Marsh Posté le 28-10-2015 à 20:22:18   0  

Ce résultat me fait sourire mais ne m'étonne guère. N'y avait-il pas une société qui avait tenté cette amalgame avant?
Maintenant que c'est revenu au-devant de la scène peut-être qu'on comprendra mieux la philosophie de ces deux marques.
Nous clients/joueurs, notre priorité n'est pas de prendre partie pour l'un ou pour l'autre, mais de profiter des avantages technologiques que nous offrent chacun.
Le mieux et le moins cher, devrait-être le choix de tout un chacun dans l'absolu mais, très souvent, on retrouve autre choses comme motivation.
Il semblerait que pour cette fois-ci, le mélange, soit le bon choix. Dans un certain ordre naturellement.
Dans l'absolu, deux cartes graphiques identiques devraient donner deux fois plus de résultats. Pourquoi quand on adopte se cas de figure, les performances ne sont pas au rendez-vous, forcement, constamment?

Reply

Marsh Posté le 28-10-2015 à 20:37:17   0  

car les gpu amd sont très fort en computing par exemple, et si une partie du jeu a besoin de ces calculs, la paire nvidia amd pourrait faire miracle.

Reply

Marsh Posté le 28-10-2015 à 20:39:41   0  

Petite précision, dans le test c'est une Fury X et une Fury qui sont mixé pas 2 Fury X comme peut le laisser entendre l'article. ;)
Du coup oui le gain est moins important que Fury X + 980Ti mais vu les perf de base de la Fury c'est logique :)

Reply

Marsh Posté le 28-10-2015 à 21:07:47   0  

Tiens , le g-sync fonctionne t'il toujours en mixant amd/nvidia ?

Reply

Marsh Posté le 28-10-2015 à 21:16:47   0  

Xixou2 a écrit :

Tiens , le g-sync fonctionne t'il toujours en mixant amd/nvidia ?


 
Si c'est comme le physx, je ne pense pas.

Reply

Marsh Posté le 28-10-2015 à 21:29:40   0  

Ce genre de bidouille c'est bancale. Les deux fabricants devraient s'assurer que leur matériel fonctionne bien avec celui du concurrent ? Et aussi dans les cas de cartes vieilles de plusieurs années ? Je serais fort étonné qu'ils s'en préoccupent.

Reply

Marsh Posté le 28-10-2015 à 21:40:29   0  


:)
 
pour l'instant , ça cohabite .  :whistle:  
 
 http://img15.hostingpics.net/pics/471852Capture6.png
 
http://img15.hostingpics.net/pics/175262Capture8.png

Reply

Marsh Posté le 28-10-2015 à 21:45:39   0  

3dmark ou furmark ne tournent que sur le gpu avec l'affichage.
boinc peut par contre utiliser les deux  en //.

Reply

Marsh Posté le 28-10-2015 à 21:57:33   0  


 
je pense , je viens de voir pour Heaven , le GPU est bien reconnu mais pas sollicité , LuxMark doit le prendre en charge normalement , je vais essayer :)  
 
 
http://img15.hostingpics.net/pics/594915Capture9.png

Reply

Marsh Posté le 28-10-2015 à 22:13:15   0  


:)
 
Yes !!! :D  
 
comme sur OS X , LuxMark prend en charge les 2 GPU :)
 
http://img15.hostingpics.net/pics/472147Capture10.png

Reply

Marsh Posté le 28-10-2015 à 22:28:50   0  

:)
 
3DMark comme Heaven ne prend en charge que le GPU principal (PCIE port 1) bien que le GPU 2 PCIE 2 soit reconnu certainement comme simple moniteur .

Reply

Marsh Posté le 28-10-2015 à 22:29:22   0  

En effet Luxmark3 charge les deux gpu ;-)
http://users.skynet.be/xixou/luxmark3.png

Reply

Marsh Posté le 28-10-2015 à 22:35:50   0  


:)
 
maintenant rien d'extraordinaire :( sur OS X , ça fait très longtemps que les 3 GPU nV/AMD/Intel sont prit en charge en même temps  :heink:  
 
j'ai fait un montage barbare avec mon bte Matx les 2 GPU ne rentre pas , j'ai rajouté une nappe extension PCIE et le deuxième GPU posé sur un carton branché sur le PCIE 4x  :lol:  
 
Quesque l'on ferait pas pour juste tester  :lol:

Reply

Marsh Posté le 28-10-2015 à 22:41:28   0  

Xixou2 a écrit :

En effet Luxmark3 charge les deux gpu ;-)
http://users.skynet.be/xixou/luxmark3.png


 
tu as essayé CompuBench opencl , ça doit défouraillé avec tes 2 GPU :)

Reply

Marsh Posté le 28-10-2015 à 22:44:50   0  

Citation :

et vu le marché relativement faible du multi GPU, il n'est pas certain que beaucoup exploitent comme Oxyde cette possibilité offerte par l'API.


 
la j'suis pas d'accord  
avec tout les GPU embarqué dans le CPU ça deviens monnaie courante

Reply

Marsh Posté le 28-10-2015 à 22:52:09   0  

:)
 
j'ai remarqué que dans GPUZ , que physX n'est pas prit en charge , CUDA oui  :??:  
 
http://img15.hostingpics.net/pics/912026Capture7.png
 
http://img15.hostingpics.net/pics/716461Capture11.png
 
 

Reply

Marsh Posté le 28-10-2015 à 23:52:06   0  

Va falloir surveiller du coin de l'oeil du côté d'Unigine, vu que la 2.0 finale a été publiée, on ne devrait pas tarder à avoir un benchmark.

Reply

Marsh Posté le 29-10-2015 à 00:04:38   0  

:)
 
j'ai réussi à activer le mode capture vidéo de nV , rien quand activant le GPU par un connecteur DVI/VGA , je pense qu'un deuxième écran devrais activer le reste , je testerais demain :) , pas de décodage h264 pour l'instant  :)


Message édité par gils04 le 29-10-2015 à 00:05:13
Reply

Marsh Posté le 29-10-2015 à 00:34:53   0  

Il y a une phrase que je ne suis pas sûre de bien comprendre : "Un autre test sur des GPU plus anciens montre par contre que le GPU primaire peut avoir un impact encore plus grand, ainsi si on adjoint à une HD 7970 une GTX 680, on obtient un gain de 55%. Par contre si les positions des cartes sont inversées alors les performances baissent de… 40% !" Il me semble que la HD7970 tout comme la GTX680 sont des GPU DX11 (sauf erreur de ma part). Est-il possible d'effectuer des mesures de gains de performances sous DX12 dans ce cas? Merci pour votre réponse.

Reply

Marsh Posté le 29-10-2015 à 06:07:33   0  

gils04 a écrit :

Xixou2 a écrit :

En effet Luxmark3 charge les deux gpu ;-)
http://users.skynet.be/xixou/luxmark3.png


 
tu as essayé CompuBench opencl , ça doit défouraillé avec tes 2 GPU :)


 
Il ne charge que la titan X

Reply

Marsh Posté le 29-10-2015 à 07:15:26   0  

Xixou2 a écrit :


 
tu as essayé CompuBench opencl , ça doit défourailler avec tes 2 GPU :)


 
Il ne charge que la titan X[/quotemsg]
 
moi , je peux voir les 2 GPU dans CPB mais , je ne peux pas cocher les 2 GPU en même temps , je testerais Ray Tracing cet APM :)  

Reply

Marsh Posté le 29-10-2015 à 08:11:46   0  

gils04 a écrit :


tu as des chiffres ?  :)

 

Aproximativement :
Sur 3DMark 2011, Entre PCIE GEN3 16X et PCIE GEN3 8X,
environ 100-120 points de diff mais j'ai fais l'essai qu'une seule fois (quelques tests 3Dmark),
et j'ai pas envie de déplacer une nouvelle fois ma carte pour vérifier que la diff venait de là.
De toute façon en 8X je fais quand même un peu plus de 15000 points, donc en jeu je vais pas m'en rendre compte.


Message édité par Lykomax le 29-10-2015 à 08:18:21
Reply

Marsh Posté le 29-10-2015 à 09:31:07   0  

il y a un test qui traine sur le net avec des comparaisons entre 16x, 8x +8x, 8x+8x+4x ainsi que les % de gains/pertes

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed