[HFR] Actu : Les GTX 900 supportent-elles correctement DirectX 12 ?

Actu : Les GTX 900 supportent-elles correctement DirectX 12 ? [HFR] - HFR - Hardware

Marsh Posté le 09-09-2015 à 00:10:02   2  

Comme à chaque introduction de nouvelle API graphique, la question du support optimal de Direct3D 12 par les cartes graphiques du moment se pose. Ashes of the ...
Lire la suite ...

Reply

Marsh Posté le 09-09-2015 à 00:10:02   

Reply

Marsh Posté le 09-09-2015 à 00:35:06   2  

dans l'exemples donner les Performances actuels des R9 390X semble médiocres, m'enfin ça doit être une beta sur des driver pas optimiser.
 
parce que 49.5 FPS en FullHD au MAX en Direct X 12, c'est vraiment très très faibles.
 
d'ailleurs en DX11 la GTX 980 en Full HD au max fait mieux 49.8 FPS.

Reply

Marsh Posté le 09-09-2015 à 00:36:07   20  

l'absence de réponse de nvidia est éloquente, vu qu'ils sont toujours si rapides a crier ce que leur cartes peuvent faire quand ils ont un avantage quelconque ;)


Message édité par jumorolo le 09-09-2015 à 02:52:54
Reply

Marsh Posté le 09-09-2015 à 00:59:58   0  

Vous oubliez une chose que vos précédentes news sur le sujet expliqués.
Utiliser le multi engine réduit la fréquence du gpu vu qu il est plus utilisé.
Un gpu qui a un gain réduit car il supporte mal la chose a son gain qui est réduit voir qui peut devenir négatif si la fréquence est réduite.
Je me trompe ?
Du coup la fury x risque d avoir un gain supérieur a beaucoup de carte vu que le watercooling pourra sûrement éviter la baisse de fréquence.
A l inverse la nano qui ne tient pas le ghz qu elle affiche aura une fréquence encore plus basse que d habitude.

Reply

Marsh Posté le 09-09-2015 à 01:27:37   3  

lapin a écrit :

dans l'exemples donner les Performances actuels des R9 390X semble médiocres, m'enfin ça doit être une beta sur des driver pas optimiser.
 
parce que 49.5 FPS en FullHD au MAX en Direct X 12, c'est vraiment très très faibles.
 
d'ailleurs en DX11 la GTX 980 en Full HD au max fait mieux 49.8 FPS.


+0,3 fps j'appelle pas ça mieux, on se situe en plein dans la zone de marge d'erreur. Elles font jeu égal. Quant au fait que ce soit faible, on n'a aucune idée de la lourdeur du jeu, il est peut être monstrueusement gourmand. Dans les STR c'est très courant de ne pas atteindre les 60 fps de moyenne, même avec du bon matos (Company of Heroes 2 par exemple).
 

lulunico06 a écrit :

Vous oubliez une chose que vos précédentes news sur le sujet expliqués.
Utiliser le multi engine réduit la fréquence du gpu vu qu il est plus utilisé.
Un gpu qui a un gain réduit car il supporte mal la chose a son gain qui est réduit voir qui peut devenir négatif si la fréquence est réduite.
Je me trompe ?
Du coup la fury x risque d avoir un gain supérieur a beaucoup de carte vu que le watercooling pourra sûrement éviter la baisse de fréquence.
A l inverse la nano qui ne tient pas le ghz qu elle affiche aura une fréquence encore plus basse que d habitude.


Le but idéal de l'async compute c'est qu'il n'y ait plus une seule unité de calcul au repos sur le GPU. C'est une situation qui arrive rarement en jeu car on exploite assez mal le parallélisme pour l'instant, donc même lorsque qu'un programme comme AfterBurner indique 100% d'utilisation du GPU on a pas 100% des unités de calculs qui travaillent. Le fait de pouvoir mettre un max d'unités en marche en même temps fera mécaniquement monter la conso du GPU et donc le poussera plus près de ses limites de consommation et/ou de température. Ce qui peut effectivement entrainer une baisse de fréquence si l'une des deux est atteinte, un bon vieux phénomène de throttling. Mais le dépassement ne survient pas forcément à tous les coups, ça va dépendre des limites fixées par le fabricant sur chaque carte ou de l'utilisateur si il veut les bidouiller (ce que l'on fait déjà lorsqu'on veut OC un GPU).


Message édité par kimujix le 09-09-2015 à 01:30:08
Reply

Marsh Posté le 09-09-2015 à 01:56:09   1  

[EDIT] Très intéressant tout ça en attendant les jeux dx12 optimisés...par Nvidia...?
 
Mais cela nous paraît peu probable face au silence de Nvidia et au fait que ce spécialiste du GPU et des techniques de rendu à(a) eu...
Grossièrement, Oxide explique avoir dû modifier le moteur de rendu d'Ashes of the Singularity for(pour) désactiver l'Async Compute...

Reply

Marsh Posté le 09-09-2015 à 02:17:23   12  

Tigrou a écrit :

Bonsoir :o  

Citation :

"Le principe d'une API de plus bas niveau et de transférer plus de flexibilité et de contrôle à ce dernier, en partie à l'image de ce qui se fait sur console, ce qui a de nombreux avantages en termes de surcoûts CPU et d'exploitation des CPU multithreads."


Ça signifie qu'à partir de DX 12 on ne pourra plus se contenter d'un CPU 4 cores sans HT pour du jeu ou j'ai mal compris?


 
Non. À moins que les devs abusent, en soit les 4 cores physiques devrait être "mieux" utilisés et dans le meilleur des cas il va finalement avoir du scaling pour CPU avec HT. Mais avant que les CPU avec HT deviennent la norme pour le gaming... Il y a du chemin a faire.
 
Dans le cas de Nvidia et des détenteurs de Maxwell2, Nv va probablement bidouiller ses drivers dans un premier temps pour essuyer les pots cassés genre un code path spécifique à chaque titre AAA pour émuler l'async shader. Optimisations qui vont rapidement se retrouver au oubliettes une fois que Pascal sera dispo, suivit d'une refonte de Gameworks pour plomber les perfs de Maxwell et attacher un boulet au pied des rouges dans la foulé. Bref juste un autre Mardi pour Nvidia.  [:transparency]


---------------
You have no chance to survive make your time.
Reply

Marsh Posté le 09-09-2015 à 03:08:38   0  

Kernel-Panic a écrit :

Non. À moins que les devs abusent, en soit les 4 cores physiques devrait être "mieux" utilisés et dans le meilleur des cas il va finalement avoir du scaling pour CPU avec HT. Mais avant que les CPU avec HT deviennent la norme pour le gaming... Il y a du chemin a faire.


OK merci, ça me rassure quant au choix de mon CPU (ça date de fin 2012) :jap:


---------------
Feedback - Stacy's mom
Reply

Marsh Posté le 09-09-2015 à 06:19:07   2  

Il y a des tonnes d'info sur le D3D12, mais dès que je recherche du côté audio de ce nouvel api, il n'y a pas d'informations..  
 
Est-ce que le retour du vrai audio décodé matériellement va apparaître un jour? Il me semble que j'avais lu autrefois que les radeons avaient une partie matérielle dédié à l'audio dans la carte-vidéo... Ou étais-ce en relation avec mantle?
 
Je ne veux me tromper, mais je recherche des informations concrètes sur le direct sound du nouveau api

Reply

Marsh Posté le 09-09-2015 à 08:04:52   12  

je suis pas un fanboy d'ati/amd acharné, et je prefere qu'il y est de la concurrence, mais j'apprécie pas plus que ça nvidia,surtout leur politique de lobbying de merde chez les devs de jeux et lâ je doit bien dire qu'avec ces 1ers résultats je me marre pas mal :D

Reply

Marsh Posté le 09-09-2015 à 08:04:52   

Reply

Marsh Posté le 09-09-2015 à 08:12:35   0  

Merci pour l'article. Même si au final on ne sait pas trop ce qu'il se passe (la faute aux constructeurs qui entretiennent le flou), on comprend beaucoup mieux le fond du problème

Reply

Marsh Posté le 09-09-2015 à 08:32:41   2  

Merci pour cet article tridam :jap:

Reply

Marsh Posté le 09-09-2015 à 08:47:55   0  

C est grâce a quoi dans dx 12 qu'en multi gpu on pourra enfin cumuler la vram ?

Reply

Marsh Posté le 09-09-2015 à 08:51:44   6  

Jerry_Cbn a écrit :

(...) Mais aucune réponse ne nous est parvenue jusqu'ici ce qui signifie qu'il n'est pas simple pour Nvidia d'en rédiger une. (...) Après l'histoire du bus mémoire limité de la GeForce GTX 970, cela commencerait à faire beaucoup d'imprécisions techniques dans la communication de Nvidia…


 
Le pire, c'est qu'ils ont une image bien meilleure que celle de AMD, et c'est pourtant en grande partie grâce à AMD que l'on doit ce D3D12 !

Reply

Marsh Posté le 09-09-2015 à 09:05:41   0  

Citation :

Oxide explique avoir dû modifier le moteur de rendu d'Ashes of the Singularity for désactiver l'Async Compute sur les GeForce


 
Un petit mixte français anglais ;)


---------------
Mon Feedback ! => http://forum.hardware.fr/hfr/Achat [...] 7027_1.htm
Reply

Marsh Posté le 09-09-2015 à 09:06:07   6  

Kam7r a écrit :

mais j'apprécie pas plus que ça nvidia,surtout leur politique de lobbying de merde chez les devs de jeux et lâ je doit bien dire qu'avec ces 1ers résultats je me marre pas mal :D


 
Pareil, totalement d'accord avec toi, + la polémique de la 970 pour la RAM ... ça c'était exceptionnel ...
 
Cette situation était annoncée il y a bien longtemps ... DX12 découle de Mantle, donc c'est logique que l'architecture AMD soit devant ... ça coule de source... On en parlait déjà il y a quelques mois des ACE, etc... les tests synthétiques ont confirmés et il y a eu la même chose avec Ashes of the Singularity ... Nvidia le savait pertinemment (ou alors ils ont un problème neurologique sévère).  
 
Comme dit dans l'article, l'architecture de la série 200 n'était pas la même que précédemment ... honte à ceux qui ont crié au renommage ... D'ailleurs, AMD a souvent visé le long terme, ils ont introduit en premier la HBM (et je me demande si ce n'était pas pareil avec la GDDR5). Je pense que ceux qui ont su acheter une 290x à 300€ (comme moi :p) ont fait une super affaire, au vu des performances et du ratio €/$.
 
En fin bref, le coup de Nvidia et du DX12 c'était prévisible depuis qu'on a su que DX12 reprenait Mantle, ils n'ont pas mis à jour leur architecture, ils le paient aujourd'hui. DX12 ne prends plus autant en compte les drivers, ce qui est bien vu que les performances matérielles sont toujours plus élevée que les perf logicielles (RAID, firewall, tous le monde est logé à la même enseigne).  
 
Cependant, je ne pense pas que ça fera beaucoup de mal à NVidia, ils vont juste sortir des cartes compatibles avec une légère baisse de leur vente, les plus à plaindre sont les détenteurs de maxwell pour avoir dépensé + de 500€ pour des GPU qui ne supporte même pas la prochaine API. Et même si Nvidia arrive à régler le problème via 36 surcouches logicielles ça sera techniquement dégueulasse, un peu comme le principe du netcode dans les jeux (tickrate plus élevé ou plus de prédiction ? Un truc réel ou émulé ?)
 
Fin bref, AMD récolte juste le fruit de 5 ans de boulot... logique. Mais surtout d'avoir fournis une partie de leur travail (Mantle) (quasi) gratuitement à Microsoft.

Reply

Marsh Posté le 09-09-2015 à 09:12:20   1  

nVIDIA paye aussi le fait que comme AMD est nul en Driver, AMD étant obliger question Hardware pour égaler les performances de faire un GPU plus puissant plus programmable et plus GPU Computing et plus parallélisable pour compenser les manquement des Driver AMD CATASTROPHELYSTE, en suite vu que Mantle/Direct3D12/Vulkan passe moins par les driver et force les développeurs à une programmation bas niveau, forcément là c'est AMD qui est avantager.

Reply

Marsh Posté le 09-09-2015 à 09:19:49   2  

Jerry_Cbn a écrit :


 
Le pire, c'est qu'ils ont une image bien meilleure que celle de AMD, et c'est pourtant en grande partie grâce à AMD que l'on doit ce D3D12 !


 
Une image bien meilleure ? Je dois te rappeler la pression qu'ils imposent aux devs ? On le voit encore avec Ashes of the singularity ^^ Ainsi que le soucis des 0.5G de RAM de la 970 ? Depuis bien longtemps ils sont descendu dans mon estime.
 
Ils sont devant au niveau marketing parce qu'ils ont plus d'argent, ils ont toujours eu énormément de partenaires et quasiment toujours tout sponsorisé. Ils n'ont jamais été novateurs au niveau du matériel. Par contre, ça a toujours été les premiers à développer des solutions logicielles (donc utilisable uniquement par leur cartes) assez poussée et fonctionnant très bien mais montrant plus une envie de descendre les concurrents vers le bas (oui il n'y a pas qu'AMD, intel peut maintenant être compté, même si très minime) plutôt que de tirer le marché vers le haut avec des nouvelles façons de voir les choses.
 
D'ailleurs AMD n'a rien inventé avec Mantle, ils ont juste réussis à passé au dessus du lobying de Nvidia en reprenant un concept de 2003 (si je me souviens bien).
 
 

lapin a écrit :

nVIDIA paye aussi le fait que comme AMD est nul en Driver, AMD étant obliger question Hardware pour égaler les performances de faire un GPU plus puissant plus programmable et plus GPU Computing et plus parallélisable pour compenser les manquement des Driver AMD CATASTROPHELYSTE, en suite vu que Mantle/Direct3D12/Vulkan passe moins par les driver et force les développeurs à une programmation bas niveau, forcément là c'est AMD qui est avantager.


 
Perso je pense qu'AMD a abandonné l'idée de pousser au maximum ses drivers avec l'arrivée de Mantle et de son succès. Avant tout ça AMD/ATI faisait jeux égal (ou presque, avec une différence de 5-10% mais un prix plus bas) avec Nvidia. Et même quelques fois mieux pour moins cher (ref ATI 4870).


Message édité par martyx le 09-09-2015 à 09:24:39
Reply

Marsh Posté le 09-09-2015 à 09:34:11   2  

L'impression générale qui se dégage pour le profane, est que ce lobbying de technologie va freiner l'exploitation et donc le gain optimal que pourrait fournir la nouvelle API DX12. Quand ont vois certain développeurs sortir encore il y a peu des jeux en DX9, on se dit que c'est pas demain la veille que l'on verra des jeux DX12 exploitant pleinement l'API.

Reply

Marsh Posté le 09-09-2015 à 09:36:31   4  

Aie... les commentaires sont en train de virer au traditionnel "trolling des cavernes". Dommage :'(

Reply

Marsh Posté le 09-09-2015 à 09:38:17   0  

Ça va être sympa les jeux, déjà que les éditeurs/studios ont du mal à sortir un jeu fini/stable avec un API de haut niveau, avec une de bas niveau ça va être l'hécatombe.

Reply

Marsh Posté le 09-09-2015 à 09:40:44   2  

Article tres interessant. Merci.
j'ai hate de voir la suite du feuilleton.
 
Une fois de plus, il est urgent d'attendre.

Reply

Marsh Posté le 09-09-2015 à 09:47:32   8  

Kam7r a écrit :

je suis pas un fanboy d'ati/amd acharné, et je prefere qu'il y est de la concurrence, mais j'apprécie pas plus que ça nvidia,surtout leur politique de lobbying de merde chez les devs de jeux et lâ je doit bien dire qu'avec ces 1ers résultats je me marre pas mal :D


Mouais, ce bench reste en version alpha. Ca va faire comme avec le premier Assassin's Creed, il était compatible DX10.1, ce qui donnait un gain de 30% pour les cartes supportant l'API (HD 3870), mais comme nvidia n'avait aucune carte compatible DX10.1... le jeux s'est vu rétrogradé en DX10 avec le premier patch et le gain de perf des cartes concurrente a disparue.  :o

 

A l'époque des 8800GTX Nvidia avait également fait pression sur Microsoft pour enlever certaines fonctionnalités de DX10 (qu'on retrouva dans DX10.1), ATI s'était fait avoir à l'époque en développant une nouvelle archi basé sur les spec d'origine de DX10 (même si ca leur a permis un support plus rapide de DX10.1).
Aujourd'hui nvidia nous refait le coup avec DX12 et leur Tier 2 àlacon... faudrait pas que leur carte soit vendu comme DX11 alors que la concurrence supporte pleinement DX12.  :sweat:


Message édité par Keser le 09-09-2015 à 09:49:09
Reply

Marsh Posté le 09-09-2015 à 09:53:53   1  

manusfreedom a écrit :

Ça va être sympa les jeux, déjà que les éditeurs/studios ont du mal à sortir un jeu fini/stable avec un API de haut niveau, avec une de bas niveau ça va être l'hécatombe.


Ils y arrivent pourtant sur console :-)
La différence c'est l'hétérogénéité du parc PC. Difficile de prévoir toutes les hypothèses.

Reply

Marsh Posté le 09-09-2015 à 09:58:33   3  

Lyto a écrit :

Aie... les commentaires sont en train de virer au traditionnel "trolling des cavernes". Dommage :'(


 
cétait prévisible ^^' et on est seulement credi !!! d'ici dredi ca risque d'etre animé !
 
et c'est qd meme super marrant de voir comment ca s'enflamme des 2 cotés juste pour 1 bench sur 1 jeux en version early dx12
 
l'article est des + intérréssant et nous promet de belle surprise avec dx12 mais va falloir éviter de faire des raccourci
 
Ashes of the Singularity ne résume pas dx12, on en est qu'au début !
 
en tout cas d'ici la je vais bien me marrer a lire les énormités des trolls vert et rouge ^^

Reply

Marsh Posté le 09-09-2015 à 10:08:01   0  

Lyto a écrit :


Ils y arrivent pourtant sur console :-)
La différence c'est l'hétérogénéité du parc PC. Difficile de prévoir toutes les hypothèses.


 
 
Oui, tu as tout à fait raison, cependant les devs sont obligés que leur jeux fonctionne correctement sur console, ils n'ont pas le choix, sur pc, ils jouent avec le matériel requis. De plus, sur console les jeux se vendent mieux et souvent le double du prix que sur PC, ils sont aussi moins piraté et vu que c'est pour des joueurs occasionnels il est plus simple de sortir des suite tous les ans (COD, FIFA, etc...). Donc vu que les revenus sur console sont bien plus grands, c'est logique qu'ils mettent plus de moyen à les développer. La plupart des jeux PC sont des portages des consoles et du coup sont médiocres sur PC, à voir si ça change avec DX12 (vu que la Xbox sera sous DX12).

Reply

Marsh Posté le 09-09-2015 à 10:48:23   0  

Y a une marque de GPU japonaise aussi, mais je me rappelle plus de leurs noms et d'après ce qu'on m'a dit, ca marchait plutôt bien.

Reply

Marsh Posté le 09-09-2015 à 10:48:55   2  

martyx a écrit :

...(vu que la Xbox sera sous DX12).


La Xbox One à deja une API bas niveau.
Ca ne changera rien du tout.

Reply

Marsh Posté le 09-09-2015 à 10:55:26   3  

Est-ce que cela va aider AMD à vendre des cartes ?
 
edit : merci à Damien pour cet article, ça fait du bien d'avoir un avis totalement hors marketing  :jap:

Message cité 1 fois
Message édité par Invite_Surprise le 09-09-2015 à 11:39:06
Reply

Marsh Posté le 09-09-2015 à 11:12:45   2  

Citation :

Oxide, le développeur d'Ashes of the Singularity et qui est par ailleurs plutôt proche d'AMD


Ça commence bien dis donc !
 

Citation :

Nous avons donc questionné Nvidia sur le sujet dès le 31 août, qui nous a indiqué que nous recevrions une réponse dans la journée… tous les jours de la semaine passée. Mais aucune réponse ne nous est parvenue jusqu'ici ce qui signifie qu'il n'est pas simple pour Nvidia d'en rédiger une.


Ou bien qu'ils ont autre chose à faire, ou que les gars à même de répondre correctement sont encore en vacances.
 
Pour résumé, Oxide sort un benchmark alpha pour troller nvidia en disant qu'AMD c'est plus fort que toi, AMD se félicite (cette expression veut tout dire), nVidia temporise pour d'obscures raisons, et pendant ce temps-là ça spécule et ça trolle à qui mieux mieux.
Et c'est tout bénef pour Oxide et AMD qui profitent d'un buzz pour qu'on parle d'eux.
 
On se croirait sur TF1 avec un sempiternel débat majorité/opposition sur un projet de loi que personne ne comprend mais dont tout le monde parle.

Message cité 1 fois
Message édité par MasterDav le 09-09-2015 à 11:13:51
Reply

Marsh Posté le 09-09-2015 à 11:18:41   7  

Nvidia est une societe que je ne porte pas dans mon coeur ces dernieres annees. Ils font du lobbying chez les developpeur pour brider les performances de la concurrence.Ces dernieres annees ils ont rien fait de novateur contrairement a AMD qui a developpe Mantle et concu le HBM avec Hynix.Ils ont menti a leur Client sur la 970 et ses 3,5Gb et sur le support de Dx12.Bref je ne les porte pas dans mon coeur et jespere vraiment qu AMD recoltera le fruit de son travail ou du moins de ses effort d innovation avec sa prochaine generation de GPU.

Reply

Marsh Posté le 09-09-2015 à 11:21:32   0  

MasterDav a écrit :


On se croirait sur TF1 avec un sempiternel débat majorité/opposition sur un projet de loi que personne ne comprend mais dont tout le monde parle.


 
C'est exactement mon impression aussi ! On passe plus de temps à descendre son adversaire qu'à trouver une idée/solution plus intelligente que lui !
:/

Reply

Marsh Posté le 09-09-2015 à 11:38:55   6  

Chelmi18 a écrit :

MasterDav a écrit :


On se croirait sur TF1 avec un sempiternel débat majorité/opposition sur un projet de loi que personne ne comprend mais dont tout le monde parle.


 
C'est exactement mon impression aussi ! On passe plus de temps à descendre son adversaire qu'à trouver une idée/solution plus intelligente que lui !
:/


Au Cas ou vous ne l'auriez pas encore remarqué Hardware.fr est un site pour enthousiastes qui n'hesite pas à aborder les details techniques à fond.
le redacteur de l article meme sil ne tire pas de conclusions ferme et definitive est d'avis que l'architecture AMD serait plus adapetée à DX12 et cest a peu près ce qui ressort des commentaires et qui est aussi le but des commentaire : donner son avis !


Message édité par devilsan le 09-09-2015 à 11:40:58
Reply

Marsh Posté le 09-09-2015 à 11:43:29   5  

devilsan a écrit :

Nvidia est une societe que je ne porte pas dans mon coeur ces dernieres annees. Ils font du lobbying chez les developpeur pour brider les performances de la concurrence.Ces dernieres annees ils ont rien fait de novateur contrairement a AMD qui a developpe Mantle et concu le HBM avec Hynix.Ils ont menti a leur Client sur la 970 et ses 3,5Gb et sur le support de Dx12.Bref je ne les porte pas dans mon coeur et jespere vraiment qu AMD recoltera le fruit de son travail ou du moins de ses effort d innovation avec sa prochaine generation de GPU.


Ouais enfin quand on voit où en est AMD et les erreurs qu'ils ont réalisé, je pense que voir nVidia comme le méchant et AMD le gentil, c'est totalement réducteur et pas aussi simple que ça.
Le côté "victime" d'AMD, j'ai beaucoup de mal avec ça. C'est comme si ils étaient responsables de rien.

Reply

Marsh Posté le 09-09-2015 à 11:59:21   2  

devilsan a écrit :

donner son avis !


Ce que t'as pas trop compris dans mon propos et celui de Chelmi, c'est que tous ces avis dignes de Gérard accoudé au comptoir du PMU du coin de la rue avec son verre de jaune et sa gitane maïs au coin du bec, ne valent pas un clou car basés sur du vent et de la fumisterie.
Que de la spéculation et des suppositions, rien de concret, on brasse du vent pour attirer du clic et faire le buzz.
 
Et les fanboys sont lâchés dans la nature, la bite à l'air, courant dans le vent avec leur cape de super héros AMD pour sauver le monde.
 
On verra bien quand:
- il y aura plusieurs benchmarks DX12 neutres disponibles
- tant nvidia qu'AMD auront clairement documenté leurs produits
 
En attendant, wait&see.

Message cité 2 fois
Message édité par MasterDav le 09-09-2015 à 12:01:25
Reply

Marsh Posté le 09-09-2015 à 12:00:54   5  

MasterDav a écrit :


- il y aura plusieurs benchmarks DX12 neutres disponibles
- tant nvidia qu'AMD auront clairement documenté leurs produits


 
http://www.larousse.fr/dictionnair [...] 3%A9/53724
 
 :D


---------------
> Mon FEEDBACK <
Reply

Marsh Posté le 09-09-2015 à 12:03:35   5  

Invite_Surprise a écrit :


Ouais enfin quand on voit où en est AMD et les erreurs qu'ils ont réalisé, je pense que voir nVidia comme le méchant et AMD le gentil, c'est totalement réducteur et pas aussi simple que ça.
Le côté "victime" d'AMD, j'ai beaucoup de mal avec ça. C'est comme si ils étaient responsables de rien.


 
 
Perso, j'aime pas trop les sorties de Nvidia en terme de communication, à chaque fois il faut qu'ils se justifient en disant que c'est la faute des devs des jeux ...
AMD n'est pas mieux, de leur coté ils disent que c'est la faute de Nvidia, à force de développer des couches du coté des drivers (gameworks, etc...) du coup AMD fait pareil.
 
Dans ce cas ci, AMD reprends juste une vieille idée de low-level, les gens considèreront que c'est une avancée seulement si Nvidia s'y met, la faute à qui au final ? Aux consommateurs bornés ou à Nvidia ?
 
Je pense que si les maxwell étaient matériellement adaptées au DX12 elles auraient aussi eu des gains de performances, c'est un fait.
Cependant, je pense qu'il faut attendre des tests du coté de l'open-source pour en être sur.

Reply

Marsh Posté le 09-09-2015 à 12:07:53   3  

Je trouve dommage de na pas parler des résultats très impressionants des 290X :
http://arstechnica.co.uk/gaming/20 [...] or-nvidia/

Reply

Marsh Posté le 09-09-2015 à 12:13:42   2  

josedsf a écrit :

Je trouve dommage de na pas parler des résultats très impressionants des 290X :
http://arstechnica.co.uk/gaming/20 [...] or-nvidia/


 
Ah ouais, la 290x au niveau de la 980TI sur dx12, sympa.
Alors une furyX @_@

Reply

Marsh Posté le 09-09-2015 à 12:19:34   1  

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed