[HFR] Actu : GDC: Wave programming pour booster les perfs

Actu : GDC: Wave programming pour booster les perfs [HFR] - HFR - Hardware

Marsh Posté le 28-02-2017 à 19:41:22   1  

Comme chaque année, la journée d'ouverture de la GDC est l'occasion pour AMD et Nvidia de s'associer pour parler des nouvelles API et aider les développeurs à ...
Lire la suite ...

Reply

Marsh Posté le 28-02-2017 à 19:41:22   

Reply

Marsh Posté le 28-02-2017 à 19:52:46   6  

ça m'a l'air bien complexe tout ça, je ne suis pas sur que les meilleurs développeurs aient vraiment le temps de pousser l'optimisation sur les jeux qui doivent sortir le plus vite possible.
 
La bonne nouvelle c'est qu'AMD avec son Mantle a vraiment mis un coup de pied dans la fourmilière en poussant à l'optimisation.

Reply

Marsh Posté le 28-02-2017 à 20:04:34   0  

Pareil, je pense que ces optimisations poussées se limiteront à une toute petite poignée de titre ou alors majoritairement vers AMD vu qu'une partie de ce travail aura été fait pour améliorer les performances sur console.
Donc à moins qu'nVidia ne propose les services de ses ingénieurs, ça sera productif pour AMD et stagne/contre-productif pour nVidia.

Message cité 1 fois
Message édité par Paul-Hewson le 28-02-2017 à 20:04:55
Reply

Marsh Posté le 28-02-2017 à 20:21:27   4  

Ubisoft prenez en de la graine :o

Reply

Marsh Posté le 28-02-2017 à 20:40:42   3  

Paul-Hewson a écrit :

Pareil, je pense que ces optimisations poussées se limiteront à une toute petite poignée de titre ou alors majoritairement vers AMD vu qu'une partie de ce travail aura été fait pour améliorer les performances sur console.
Donc à moins qu'nVidia ne propose les services de ses ingénieurs, ça sera productif pour AMD et stagne/contre-productif pour nVidia.


 
Je pense que ça fait partie des approches que Nvidia exploite déjà pour dégager un avantage compétitif avec les effets Gameworks. Sinon oui sur le fond c'est complexe et probablement seuls quelques développeurs feront l'effort de creuser le sujet. AMD a ici un gros avantage par rapport aux consoles mais Nvidia peut compenser ça en utilisant l'argumant de ses parts de marché et différents partenariats pour pousser également ce type d'optimisations.

Reply

Marsh Posté le 28-02-2017 à 20:50:45   0  

Si c'est comme leur rêve de directx12 (aucun ne tourne en sli à part 3dmark spy et ashes, limité au two way sli) ...


Message édité par Xixou2 le 28-02-2017 à 20:53:14
Reply

Marsh Posté le 28-02-2017 à 21:15:50   2  

tridam a écrit :


Je pense que ça fait partie des approches que Nvidia exploite déjà pour dégager un avantage compétitif avec les effets Gameworks. (...)


L'avantage compétitif qui consiste a implémenter une techno foireuse... C'est assez intrigant de voir Gameworks sur le même plan que Mantle/Vulkan/DX12. Bref, ce n'est que mon avis d'AMD peasant.

Message cité 1 fois
Message édité par Omelmike le 28-02-2017 à 21:16:59

---------------
Think Different : try to run S.T.A.L.K.E.R. on an Elbruss CPU
Reply

Marsh Posté le 28-02-2017 à 21:19:56   1  

Optimisé a partir de GCN 3 cela veut dire adios aux 290/390/x ?   :(


Message édité par CardinalFuneste le 28-02-2017 à 21:20:19
Reply

Marsh Posté le 28-02-2017 à 21:42:33   2  

Omelmike a écrit :


L'avantage compétitif qui consiste a implémenter une techno foireuse... C'est assez intrigant de voir Gameworks sur le même plan que Mantle/Vulkan/DX12. Bref, ce n'est que mon avis d'AMD peasant.

 

C'est donc que tu n'as pas compris l'explication de Tridam dans l'article...

 

Ce genre d'optimisations/options sont bonnes pour le monde des consoles mais pour le monde très (trop?) hétéroclite du PC, c'est plus une source d'ennuis et de mauvaises performances qu'autre chose à mon avis...
Cela a le mérite d'exister, en espérant que cela puisse être désactivé dans les options du jeu si cela pose problème avec tel ou tel GPU.

Message cité 1 fois
Message édité par Nono0000 le 28-02-2017 à 22:19:25

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
Reply

Marsh Posté le 28-02-2017 à 22:06:01   10  

Son but n'est pas de comprendre quoi que ce soit mais uniquement de rebondir à l'emporte pièce sur n'importe quel message sans oublier un double vote négatif avec ses deux pseudos :D

Reply

Marsh Posté le 28-02-2017 à 22:06:01   

Reply

Marsh Posté le 28-02-2017 à 22:35:05   1  

Hahahah Marc.

Reply

Marsh Posté le 28-02-2017 à 23:55:31   1  

Nono0000 a écrit :


 
C'est donc que tu n'as pas compris l'explication de Tridam dans l'article...
 
Ce genre d'optimisations/options sont bonnes pour le monde des consoles mais pour le monde très (trop?) hétéroclite du PC, c'est plus une source d'ennuis et de mauvaises performances qu'autre chose à mon avis...
Cela a le mérite d'exister, en espérant que cela puisse être désactivé dans les options du jeu si cela pose problème avec tel ou tel GPU.


 
Direct X fonctionne très bien sans GameWorks, et quand on voit ce que ça apporte et la perte de performances que ça engendre (y compris sur NV), j'ai du mal à voir l'intérêt... Le travail en profondeur, quel que soit son coût en terme de temps, me semble plus intéressant à long terme, qui plus est quand on voit la durée de vie des GPU (Kepler : abandonné).  


---------------
Think Different : try to run S.T.A.L.K.E.R. on an Elbruss CPU
Reply

Marsh Posté le 01-03-2017 à 00:00:12   1  

Marc a écrit :

Son but n'est pas de comprendre quoi que ce soit mais uniquement de rebondir à l'emporte pièce sur n'importe quel message sans oublier un double vote négatif avec ses deux pseudos :D


 
Merci de révéler à tous mon problème de dédoublement de personnalité, j'en souffre beaucoup, mais vous voir le relever avec autant d'humour me réchauffe le cœur !
 
(Toute plaisanterie mise à part, quand tu tentes de me "discréditer" en utilisant l'argument de ma date d'inscription sur le forum [post Excavator FM2+] puis en balançant de fausses informations, tu cherches à prouver quoi ? )


Message édité par Omelmike le 01-03-2017 à 00:32:27

---------------
Think Different : try to run S.T.A.L.K.E.R. on an Elbruss CPU
Reply

Marsh Posté le 01-03-2017 à 00:55:56   1  

Omelmike a écrit :

Nono0000 a écrit :


 
C'est donc que tu n'as pas compris l'explication de Tridam dans l'article...
 
Ce genre d'optimisations/options sont bonnes pour le monde des consoles mais pour le monde très (trop?) hétéroclite du PC, c'est plus une source d'ennuis et de mauvaises performances qu'autre chose à mon avis...
Cela a le mérite d'exister, en espérant que cela puisse être désactivé dans les options du jeu si cela pose problème avec tel ou tel GPU.


 
Direct X fonctionne très bien sans GameWorks, et quand on voit ce que ça apporte et la perte de performances que ça engendre (y compris sur NV), j'ai du mal à voir l'intérêt... Le travail en profondeur, quel que soit son coût en terme de temps, me semble plus intéressant à long terme, qui plus est quand on voit la durée de vie des GPU (Kepler : abandonné).  


 
Tu a oublié de préciser que Pascal et Volta sont eux aussi déjà abandonnés :o

Reply

Marsh Posté le 01-03-2017 à 06:25:21   3  

Omelmike a écrit :

 

Direct X fonctionne très bien sans GameWorks, et quand on voit ce que ça apporte et la perte de performances que ça engendre (y compris sur NV), j'ai du mal à voir l'intérêt... Le travail en profondeur, quel que soit son coût en terme de temps, me semble plus intéressant à long terme, qui plus est quand on voit la durée de vie des GPU (Kepler : abandonné).

 

Si on pousse ton argumentaire jusqu'au bout, DirectX 11 marche très bien chez nvidia donc pas besoin de direct x12 vulkan alors... (Surtout que pour le moment je n'ai jamais vu de différence graphique entre un mode dx 11 et 12 d'un même jeu)
Pour gameworks, vu ce que cela rajoute, normal que cela ait des incidences sur les performances.
Tressfx faisait chuter énormément les FPS dans tomb raider à l'époque (sur ma config du moins), cela n'en faisait pas une mauvaise technologie pour autant...
Et dans les deux cas tu peux la désactiver...

 

Pour ce qui est de l'abandon de Kepler, je trouve que mes cartes marchent encore très bien. C'est juste la VRAM qui commence à manquer.

Message cité 1 fois
Message édité par Nono0000 le 01-03-2017 à 07:17:26

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
Reply

Marsh Posté le 01-03-2017 à 10:06:47   4  

C'est hallucinant que sur une news parlant d'une entente conjointe entre AMD et Nvidia, a propos d'une technologie "a priori" neutre, cela se transforme en NVidia bashing par nos amis les fanboys, qui ne comprennent rien aux explications mais s'en donnent encore une fois a cœur joie...

Reply

Marsh Posté le 01-03-2017 à 10:19:23   1  

Nono0000 a écrit :


 
Si on pousse ton argumentaire jusqu'au bout, DirectX 11 marche très bien chez nvidia donc pas besoin de direct x12 vulkan alors... (Surtout que pour le moment je n'ai jamais vu de différence graphique entre un mode dx 11 et 12 d'un même jeu)
Pour gameworks, vu ce que cela rajoute, normal que cela ait des incidences sur les performances.
Tressfx faisait chuter énormément les FPS dans tomb raider à l'époque (sur ma config du moins), cela n'en faisait pas une mauvaise technologie pour autant...
Et dans les deux cas tu peux la désactiver...
 
Pour ce qui est de l'abandon de Kepler, je trouve que mes cartes marchent encore très bien. C'est juste la VRAM qui commence à manquer.


 
Je ne dis pas le contraire pour DX11, NV n'a aucun intérêt à voir émerger DX12/Vulkan, en tout cas tel qu'il est implémenté à l'heure actuelle. De toute façon, les moteurs ne sont pour l'instant pas encore sur les nouvelles APIs, il ne s'agit que de portages souvent brouillon, à quelques exceptions près...
Quant à Kepler, je pense qu'il s'agit de bonnes cartes, juste laissées pour compte : quand on voit une 780 se faire rattraper par une 7970, ça pique les yeux...


---------------
Think Different : try to run S.T.A.L.K.E.R. on an Elbruss CPU
Reply

Marsh Posté le 01-03-2017 à 16:03:31   1  

Omelmike a écrit :

Marc a écrit :

Son but n'est pas de comprendre quoi que ce soit mais uniquement de rebondir à l'emporte pièce sur n'importe quel message sans oublier un double vote négatif avec ses deux pseudos :D


 
Merci de révéler à tous mon problème de dédoublement de personnalité, j'en souffre beaucoup, mais vous voir le relever avec autant d'humour me réchauffe le cœur !
 
(Toute plaisanterie mise à part, quand tu tentes de me "discréditer" en utilisant l'argument de ma date d'inscription sur le forum [post Excavator FM2+] puis en balançant de fausses informations, tu cherches à prouver quoi ? )


 
Nan mais le bluff, ca va bien avec le quidam, mais tu sais qui est Marc?  
Tu sais qu'il a accés à tes IPs et à tes votes? Il sait que 2 pseudos avec la meme IPs ont downvotés le meme message de Tridam, qui est le mec qui a écrit la news et qui doit connaitre bcp mieux le sujet que toi.
 
Apres, j'ai le meme avis que toi sur Gameworks, mais on s'en contrebalance sur cette news la.

Reply

Marsh Posté le 01-03-2017 à 19:12:46   1  

bgx a écrit :

Tu sais qu'il a accés à tes IPs et à tes votes? Il sait que 2 pseudos avec la meme IPs ont downvotés le meme message de Tridam, qui est le mec qui a écrit la news et qui doit connaitre bcp mieux le sujet que toi.


Tient, toute ma famille a la même adresse IP que moi, et pas le même pseudo, bizarre non ? Et je ne te parle pas des points d'accès public (Wifi ou cyber).
De plus, utiliser l'adresse IP d'un tracker (ou cookie) pour cet usage, Marc me l'a déjà fait et c'est très borderline si on se réfère aux conditions d'utilisations et à la CNIL.

Reply

Marsh Posté le 01-03-2017 à 20:18:50   0  

Et moi qui le croyait occupé à peaufiner la review Ryzen :( je tombe de haut

Reply

Marsh Posté le 02-03-2017 à 14:16:35   0  

Je n'ai pas tout compris mais je me risque à poser une question peut être stupide.
 
Ce genre d'optimisation doit être faite au cas par cas directement lors du développement d'un jeu ?
Ou bien cela peut être intégré dans les moteurs de jeu (Unity, Unreal Engine...) ?

Reply

Marsh Posté le 02-03-2017 à 14:37:30   0  

un peux les deux, au cas par cas dans chaque jeux vidéo et surtout chaque moteur de jeux dois supporter la fonction, donc en fait c'est super relou à mettre en place.

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed