Actu : AMD + Nvidia en multi GPU sous DX12 [HFR] - HFR - Hardware
Marsh Posté le 28-10-2015 à 17:03:57 0
Très intéressant en effet.
Comment explique-t-on l'impact de l'ordre des GPU ? Dans la démo sous Unreal Engine j'aurais avancé l'idée des bus de taille differente mais là c'est du rendu alternatif frame by frame donc je vois pas
PS: Une petite relecture s'impose pour les coquilles
Marsh Posté le 28-10-2015 à 17:14:53 0
> Comment explique-t-on l'impact de l'ordre des GPU ?
Très curieux en effet.
Peut-être certaines parties du rendu qui ne sont affichées qu'une frame sur deux normalement, et se retrouvent toujours sur le même GPU?
Par exemple avec du cascade shading, certaines cascades peuvent n'être rafraichies qu'une frame sur 2 ou plus, ce qui soulagerait le GPU secondaire.
Marsh Posté le 28-10-2015 à 17:26:10 0
Théorie: Certaines opérations (comme du calcul) doivent se faire exclusivement sur le premier GPU et la Fury est un peu plus efficace que la 980 Ti.
Marsh Posté le 28-10-2015 à 17:29:40 4
Le problème s'est de changer de carte selon les jeux vive les tables de bench adieu boitier ,après faut voir comment Nvidia et Amd vont reagir dans les pilotes pour pourrir les utilisateurs qui voudrait tenter aventure .
Marsh Posté le 28-10-2015 à 17:43:48 0
L'incohérence de l'ordre des GPU est peut-être relié à l'async compute que seul AMD peut faire?
Marsh Posté le 28-10-2015 à 18:20:50 2
ReplyMarsh Posté le 28-10-2015 à 18:27:31 2
kabloui a écrit : L'incohérence de l'ordre des GPU est peut-être relié à l'async compute que seul AMD peut faire? |
je sais pas si l'async compute n'est efficace qu'en multi-gpu, mais en mono, les nvidia sont toujours devant sur ce bench. J'aurai pensé que les FuryX profiteraient mieux de DX12 que les GTX 980 Ti...
Les meilleurs perfs sont obtenu en mélangeant les marques, du bi gpu mono marque est plus lent, les fan d'une marque vont devoir acheter l'autre marque aussi pour avoir les meilleurs perfs, c'est assez comique. Ca va peut-être calmer les trolls...
Marsh Posté le 28-10-2015 à 18:28:24 1
MazFire a écrit : Enfin une VRAIE avancée dans le domaine de l'informatique ? Je l'espère ! |
Je pense pas qu'on puisse parler d'avancée à proprement parler.
Les fabricants de GPU seront probablement hostile à la flexibilité de la chose.
De leur point de vue ca ferait des ventes en moins vu que ca permet de prolonger la vie des vieilles cartes.
Je rejoins Angelus, y a fort à parier que les pilotes vont brider les possibilités au max.
Ca sera GPU de même marque si on à de la chance et même génération si on en a pas...
Marsh Posté le 28-10-2015 à 18:32:41 0
remm a écrit : Théorie: Certaines opérations (comme du calcul) doivent se faire exclusivement sur le premier GPU et la Fury est un peu plus efficace que la 980 Ti. |
C'est ce que je me suis dis aussi. Les étapes de rendus sont peut être séparés entre les 2 cartes et la partie exécuté par la première carte serait plus rapidement faite avec une carte AMD ?
Même chose pour la partie du rendu effectué sur la 2ème carte qui serait plus performant avec une carte Nvidia.
Marsh Posté le 28-10-2015 à 18:37:03 0
quid de la mémoire pour le duo 980ti et titan x ?
limité à 6 GBytes ?
Marsh Posté le 28-10-2015 à 18:47:25 0
LIRE la news serait bien aussi.
C'est écrit noir sur blanc, dans l'image intégrée à la news :
"Independent memory management"
Les développeurs peuvent donc allouer de la mémoire sur chaque GPU, comme on le ferait dans du computing en OpenCL ou CUDA.
Marsh Posté le 28-10-2015 à 19:18:20 0
Les différences pourraient s'expliquer par des débits de transfert du framebuffer plus ou moins efficaces vers la carte qui fait l'affichage ?
Par contre dire que ça n'a pas grand intérêt me semble faux car beaucoup de gens ont désormais plusieurs cartes graphiques plus ou moins récentes en stock, leurs performances restant proche du fait de la stagnation des performances.
Du coup ça permettrait de recycler deux cartes basées sur Tahiti mais d'époques très différentes sans compter sur le Crossfire.
Marsh Posté le 28-10-2015 à 19:21:10 1
Si tout devenait plus souple au niveau des mélanges de GPU de marques différentes et des IGPU, ce serait une vraie avancée.
Il faudrait aussi que les constructeurs de carte mère participent à cette flexibilité et que la norme PCI-Express soit améliorée.
1) J'ai placé ma carte graphique en PCIE3 pour pouvoir la refroidir plus facilement.
Hors je voudrais ça :
- PCIE1 : rien et PCIE3 : 16X
Hors actuellement il est impossible de paramétrer cela dans le bios, il n'y a que :
- PCIE1 : 16X et PCIE3 : rien
- PCIE1 : 8X et PCIE3 : 8X
et du coup ma carte graphique est en 8X GEN3.
Heureusement que ça ne bride pas réellement les perfs en jeux, quelques points perdus en bench tout au plus,
et comme une carte plus froide fait moins de throttle ça rattrape un peu.
Mais je ne sais pas si sera le cas avec les besoins des cartes graphiques dans 2 ans et j'aimerais quand même que tout soit optimisé.
2) D'après cette news c'est plus profitable d'avoir tel modèle de carte sur le port primaire.
Hors je ne crois pas qu'il soit possible actuellement de choisir quel port PCIE contient la carte primaire.
Enfin je ne peux pas le faire puisque je n'ai le choix qu'entre l'IGPU et le GPU dans mon bios.
Ce sera bien de pouvoir paramétrer ça dans le bios pour éviter d'interchanger physiquement les cartes.
Enfin pour le jour où on pourra enfin profiter du mixage de GPU.
Marsh Posté le 28-10-2015 à 19:46:58 0
Lykomax a écrit : Si tout devenait plus souple au niveau des mélanges de GPU de marques différentes et des IGPU, ce serait une vraie avancée. |
tu as des chiffres ?
Marsh Posté le 28-10-2015 à 19:48:48 0
Du coup j'ai remis ma vieille 290 amd près de ma titan x pour Boinc ;-)
ça turbine bien. Et comme prévu, la tab physx du control panel nvidia a disparu ^^
Marsh Posté le 28-10-2015 à 20:22:18 0
Ce résultat me fait sourire mais ne m'étonne guère. N'y avait-il pas une société qui avait tenté cette amalgame avant?
Maintenant que c'est revenu au-devant de la scène peut-être qu'on comprendra mieux la philosophie de ces deux marques.
Nous clients/joueurs, notre priorité n'est pas de prendre partie pour l'un ou pour l'autre, mais de profiter des avantages technologiques que nous offrent chacun.
Le mieux et le moins cher, devrait-être le choix de tout un chacun dans l'absolu mais, très souvent, on retrouve autre choses comme motivation.
Il semblerait que pour cette fois-ci, le mélange, soit le bon choix. Dans un certain ordre naturellement.
Dans l'absolu, deux cartes graphiques identiques devraient donner deux fois plus de résultats. Pourquoi quand on adopte se cas de figure, les performances ne sont pas au rendez-vous, forcement, constamment?
Marsh Posté le 28-10-2015 à 20:37:17 0
car les gpu amd sont très fort en computing par exemple, et si une partie du jeu a besoin de ces calculs, la paire nvidia amd pourrait faire miracle.
Marsh Posté le 28-10-2015 à 20:39:41 0
Petite précision, dans le test c'est une Fury X et une Fury qui sont mixé pas 2 Fury X comme peut le laisser entendre l'article.
Du coup oui le gain est moins important que Fury X + 980Ti mais vu les perf de base de la Fury c'est logique
Marsh Posté le 28-10-2015 à 21:07:47 0
ReplyMarsh Posté le 28-10-2015 à 21:16:47 0
Xixou2 a écrit : Tiens , le g-sync fonctionne t'il toujours en mixant amd/nvidia ? |
Si c'est comme le physx, je ne pense pas.
Marsh Posté le 28-10-2015 à 21:29:40 0
Ce genre de bidouille c'est bancale. Les deux fabricants devraient s'assurer que leur matériel fonctionne bien avec celui du concurrent ? Et aussi dans les cas de cartes vieilles de plusieurs années ? Je serais fort étonné qu'ils s'en préoccupent.
Marsh Posté le 28-10-2015 à 21:45:39 0
3dmark ou furmark ne tournent que sur le gpu avec l'affichage.
boinc peut par contre utiliser les deux en //.
Marsh Posté le 28-10-2015 à 21:57:33 0
je pense , je viens de voir pour Heaven , le GPU est bien reconnu mais pas sollicité , LuxMark doit le prendre en charge normalement , je vais essayer
Marsh Posté le 28-10-2015 à 22:13:15 0
ReplyMarsh Posté le 28-10-2015 à 22:28:50 0
3DMark comme Heaven ne prend en charge que le GPU principal (PCIE port 1) bien que le GPU 2 PCIE 2 soit reconnu certainement comme simple moniteur .
Marsh Posté le 28-10-2015 à 22:29:22 0
En effet Luxmark3 charge les deux gpu ;-)
http://users.skynet.be/xixou/luxmark3.png
Marsh Posté le 28-10-2015 à 22:35:50 0
maintenant rien d'extraordinaire sur OS X , ça fait très longtemps que les 3 GPU nV/AMD/Intel sont prit en charge en même temps
j'ai fait un montage barbare avec mon bte Matx les 2 GPU ne rentre pas , j'ai rajouté une nappe extension PCIE et le deuxième GPU posé sur un carton branché sur le PCIE 4x
Quesque l'on ferait pas pour juste tester
Marsh Posté le 28-10-2015 à 22:41:28 0
Xixou2 a écrit : En effet Luxmark3 charge les deux gpu ;-) |
tu as essayé CompuBench opencl , ça doit défouraillé avec tes 2 GPU
Marsh Posté le 28-10-2015 à 22:44:50 0
Citation : et vu le marché relativement faible du multi GPU, il n'est pas certain que beaucoup exploitent comme Oxyde cette possibilité offerte par l'API. |
la j'suis pas d'accord
avec tout les GPU embarqué dans le CPU ça deviens monnaie courante
Marsh Posté le 28-10-2015 à 22:52:09 0
ReplyMarsh Posté le 28-10-2015 à 23:52:06 0
Va falloir surveiller du coin de l'oeil du côté d'Unigine, vu que la 2.0 finale a été publiée, on ne devrait pas tarder à avoir un benchmark.
Marsh Posté le 29-10-2015 à 00:04:38 0
j'ai réussi à activer le mode capture vidéo de nV , rien quand activant le GPU par un connecteur DVI/VGA , je pense qu'un deuxième écran devrais activer le reste , je testerais demain , pas de décodage h264 pour l'instant
Marsh Posté le 29-10-2015 à 00:34:53 0
Il y a une phrase que je ne suis pas sûre de bien comprendre : "Un autre test sur des GPU plus anciens montre par contre que le GPU primaire peut avoir un impact encore plus grand, ainsi si on adjoint à une HD 7970 une GTX 680, on obtient un gain de 55%. Par contre si les positions des cartes sont inversées alors les performances baissent de 40% !" Il me semble que la HD7970 tout comme la GTX680 sont des GPU DX11 (sauf erreur de ma part). Est-il possible d'effectuer des mesures de gains de performances sous DX12 dans ce cas? Merci pour votre réponse.
Marsh Posté le 29-10-2015 à 06:07:33 0
gils04 a écrit :
|
Il ne charge que la titan X
Marsh Posté le 29-10-2015 à 07:15:26 0
Xixou2 a écrit : |
Il ne charge que la titan X[/quotemsg]
moi , je peux voir les 2 GPU dans CPB mais , je ne peux pas cocher les 2 GPU en même temps , je testerais Ray Tracing cet APM
Marsh Posté le 29-10-2015 à 08:11:46 0
gils04 a écrit :
|
Aproximativement :
Sur 3DMark 2011, Entre PCIE GEN3 16X et PCIE GEN3 8X,
environ 100-120 points de diff mais j'ai fais l'essai qu'une seule fois (quelques tests 3Dmark),
et j'ai pas envie de déplacer une nouvelle fois ma carte pour vérifier que la diff venait de là.
De toute façon en 8X je fais quand même un peu plus de 15000 points, donc en jeu je vais pas m'en rendre compte.
Marsh Posté le 29-10-2015 à 09:31:07 0
il y a un test qui traine sur le net avec des comparaisons entre 16x, 8x +8x, 8x+8x+4x ainsi que les % de gains/pertes
Marsh Posté le 28-10-2015 à 16:45:02 0
Nous vous en parlions en mai dernier, DirectX 12 ajoute un support explicite du multi-GPU laissant la possibilité aux développeurs le contrôle du multi-GPU. A ...
Lire la suite ...