[HFR] Actu : GDC: Async Compute : ce qu'en dit Nvidia

Actu : GDC: Async Compute : ce qu'en dit Nvidia [HFR] - HFR - Hardware

Marsh Posté le 23-03-2016 à 18:31:34   8  

Nous avons bien entendu profité de la GDC pour questionner Nvidia en vue d'en apprendre plus sur ce dont sont capables ses GPU en terme de prise en charge du ...
Lire la suite ...

Reply

Marsh Posté le 23-03-2016 à 18:31:34   

Reply

Marsh Posté le 23-03-2016 à 18:50:09   9  

Voilà qui est une fantastique réponse à de nombreux débats fertiles dans les commentaires :). Merci pour cette pêche aux infos et cette analyse complète !

Reply

Marsh Posté le 23-03-2016 à 18:56:24   7  

News intéressante. Reste à espérer que ça ne parte pas en guerre de fanboys.
Là où ça va être encore plus intéressant, c'est sur la prochaine génération de GPU. Curieux de savoir quels ont été les choix des deux marques :)

Reply

Marsh Posté le 23-03-2016 à 19:02:48   11  

En gros Nvidia c'est pour consommer tout de suite avec une durée de vie moins longue
AMD = course de fond. On savait tout çela depuis un moment mais excellent article.

Reply

Marsh Posté le 23-03-2016 à 19:15:21   6  

Merci Damien pour ces investigations  :jap:

Reply

Marsh Posté le 23-03-2016 à 19:36:13   12  

Ouais ... en résumé, chez nVidia ils sont restés fidèles à leur crédo : beaucoup de Mhz et on bourrine. Le chapitre de l'architecture est intéressant parce qu'il montre que les Geforce ne sont pas conçues pour ce type de fonctionnement. En activant la prise en charge complète, ils n'y aura que peu d'améliorations.  
 
D'ailleurs au sujet des API et des jeux, ils ont bien souvent fait beaucoup de lobbying sur les coeurs de métier concernés alors que côté AMD les architectures sont issues de l'écoute des professionnels de ces 2 secteurs.
 
En résumé, nVidia reste bien prétentieux et langue de bois comme il faut même si les questions sont bien pertinentes et extrêmement bien amenées par le journaliste. Ils sont dépassés et pis c'est tout.


---------------
"Mieux vaut demander à un qui sait plutôt qu'à deux qui cherchent." ... "Le plus dur, c'est de faire simple.", TNZ
Reply

Marsh Posté le 23-03-2016 à 19:42:45   2  

S'ils veulent vendre du Pascal, peut-être ne veulent-ils pas que leur 980 ti s'approchent trop des performances de celui-ci. On ne sort pas un Joker trop vite si ce n'est pas nécessaire.

Reply

Marsh Posté le 23-03-2016 à 19:59:41   8  

Du coup y a un risque que Maxwell et Kepler prennent un sacré coup de vieux à la sortie de Pascal (et les jeux DX12 utilisant l'async compute).  
 
Tout ça me fait un peu penser à l'époque des radeon x18xx/x19xx vs Geforce 6800/7900. Les cartes nvidia faisaient jeu égal avec les Radeon jusqu'à l'arrivée des Geforce 8 où les performances des vielles Geforce ont complètement sombrées sur les nouveaux jeux alors que les Radeon de la même génération affichaient encore des performances correctes.


Message édité par sasuke87 le 23-03-2016 à 20:00:27
Reply

Marsh Posté le 23-03-2016 à 20:23:15   6  

Comment arrives tu à la conclusion que les choix de nvidia sont plus "pc" que ceux d'amd?

Reply

Marsh Posté le 23-03-2016 à 20:34:18   3  

Merci Damien, ça fait plaisir de voir des gens tenace :D

Reply

Marsh Posté le 23-03-2016 à 20:34:18   

Reply

Marsh Posté le 23-03-2016 à 20:37:39   1  

" - De toute évidence, AMD a plutôt misé sur les débits bruts de ses GPU, ce qui implique en général un rendement inférieur et plus d'opportunité d'optimisation au niveau de celui-ci. "
 
Optimisation ... , jeux pc ...  :)  
Quand on voit le boulot sur certains jeux, il est peut-être bien là le problème d'AMD.


Message édité par mazrim le 23-03-2016 à 20:38:43
Reply

Marsh Posté le 23-03-2016 à 20:38:36   5  

sasuke87 a écrit :

Comment arrives tu à la conclusion que les choix de nvidia sont plus "pc" que ceux d'amd?


Il a surement lu l'article  :ange:  
Le choix d'AMD pour l'exécution concomitante a plus de sens sur console (hardware fixe, optimisation fine possible) que sur PC (hardware varié, optimisation générale uniquement avec risque de contre performance).

Reply

Marsh Posté le 23-03-2016 à 20:43:01   1  

TNZ a écrit :

Ouais ... en résumé, chez nVidia ils sont restés fidèles à leur crédo : beaucoup de Mhz et on bourrine. Le chapitre de l'architecture est intéressant parce qu'il montre que les Geforce ne sont pas conçues pour ce type de fonctionnement. En activant la prise en charge complète, ils n'y aura que peu d'améliorations.  
 
D'ailleurs au sujet des API et des jeux, ils ont bien souvent fait beaucoup de lobbying sur les coeurs de métier concernés alors que côté AMD les architectures sont issues de l'écoute des professionnels de ces 2 secteurs.
 
En résumé, nVidia reste bien prétentieux et langue de bois comme il faut même si les questions sont bien pertinentes et extrêmement bien amenées par le journaliste. Ils sont dépassés et pis c'est tout.


 
ils sont  soit disant dépassé mdr mais "CC" eux qui sont devant sur pc et ordinateur portable que je sache et pas qu'un peu ^_^* en retirant intel ^_^* de l'équation
 
bien qu'en mettant intel nvidia doit etre potable
meme en metant les igp d'amd ça doit etre bas quand meme ^_^*
 
prie pour que pascal ne soit pas totalement direct x 12
 
niveau consommation ils ne sont pas bourrin ^_^* bien que j'avoue qu'ils auraient pu faire plus d'efforts ... les mega hz ça consomme donc déjà ta critique n'est pas correcte

Message cité 1 fois
Message édité par cyrille_0088 le 23-03-2016 à 20:58:11
Reply

Marsh Posté le 23-03-2016 à 20:46:19   4  

Bref les gpu nvidia actuel ne supportent pas vraiment le parallélisme.

Reply

Marsh Posté le 23-03-2016 à 21:03:28   0  

sasuke87 a écrit :

Du coup y a un risque que Maxwell et Kepler prennent un sacré coup de vieux à la sortie de Pascal (et les jeux DX12 utilisant l'async compute).  
 
 
 
Tout ça me fait un peu penser à l'époque des radeon x18xx/x19xx vs Geforce 6800/7900. Les cartes nvidia faisaient jeu égal avec les Radeon jusqu'à l'arrivée des Geforce 8 où les performances des vielles Geforce ont complètement sombrées sur les nouveaux jeux alors que les Radeon de la même génération affichaient encore des performances correctes.


 
c'est aberrant ce qui tu marque pascale risque de mettre les fury et la nano nettement derriere voire plus ce qui est bien plus choquant que de mettre une volé au maxwell et kepler ^_^* sauf si c'est le 980 ti j'avoue ou meme les 980 modifiées


Message édité par cyrille_0088 le 23-03-2016 à 21:05:30
Reply

Marsh Posté le 23-03-2016 à 21:21:25   3  

CardinalFuneste a écrit :

En gros Nvidia c'est pour consommer tout de suite avec une durée de vie moins longue
AMD = course de fond. On savait tout çela depuis un moment mais excellent article.


 
 
se qui est extrêmement problématique en terme d'image, c'est que chez AMD les bons Drivers pour les jeux vidéos Direct X11 mettent un certains temps à apparaître, voir plusieurs mois facilement 3 mois.
 
du coup quand les jeux vidéos sortent AMD semble moins performant, du moins pendant plusieurs semaines voir plusieurs mois, c'est embêtant question crédibilité.
 

Reply

Marsh Posté le 23-03-2016 à 21:34:18   11  

C'est pas pour rien que ATI/radeon porte la couleur rouge comme le vin : les pilotes se bonifient avec le temps :whistle:

Reply

Marsh Posté le 23-03-2016 à 21:49:25   4  

Honnêtement j'ai pas plus de problèmes de drivers sur AMD que sur  cartes nvidia. le seul jeu que j'ai vraiment trouvé pénalisant pour les cartes d'AMD c'était project cars qui a été assez rapidement corrigé sinon c'est que des corrections mineurs permettant de faire gagner 2,3 fps dans la grande majorité des cas

Reply

Marsh Posté le 23-03-2016 à 22:13:10   1  

Citation :

GM200 (GTX 980 Ti) : 6.0 fps / Gtransistors, 7.8 fps / Tflops, 142.1 fps / To/s
Fiji (R9 Fury X) : 5.6 fps / Gtransistors, 5.8 fps / Tflops, 97.9 fps / To/s


Une comparaison comme celle là laisse à penser que l'ingénierie made in nvidia est supérieur à celle d'AMD : chez nvidia on utilise mieux les transistors !
Mais oui mais non :s
 

Citation :

Lors du développement d'une architecture GPU, une bonne partie du travail consiste à prévoir le profil des tâches qui seront prises en charge quand les nouvelles puces seront commercialisées.


GCN et Kepler, designée en même temps, ont toutes les 2 été conçues pour les jeux ET les apps pro.
Ces archi ont donc été développées avec les mêmes "profils de tâches" il me semble.
La comparaison fait mal à AMD car chez eux y'a pas eu de refresh de l'archi, et la puce est polyvalente(avec de vraies perfs en double précision).
Si AMD avait eu les moyens d'nvidia peut-être aurait-il, lui aussi, fait un refresh ayant pour 'profil de tâche' uniquement les jeux ...
Seulement voilà, chez AMD on se doit de faire beaucoup avec peu, et ce depuis sans doute un peu trop longtemps d'ailleurs.
J'aimerais bien voir une comparaison de ce genre entre GCN et Kepler; Si les résultats sont inversés ça expliquerait pourquoi nvidia a ressenti le besoin de développer un refresh.

Message cité 1 fois
Message édité par armandraynal le 23-03-2016 à 22:16:30
Reply

Marsh Posté le 23-03-2016 à 22:35:25   3  

L'Async Compute n'est pas aussi exploitable par D3D12 que sur console. L'absence de vraie fence est une grosse limitation par exemple, qui empêche de garder les jobs async compute en parallèle de job graphique légère afin d'avoir un bon partage. Voir http://www.wihlidal.ca/Presentatio [...] ompute.pdf pg 72 et plus pour plus de détails.
 
Et pour la petite histoire, c'est l'un des deux constructeurs de consoles qui a demandé à AMD s'il y avait moyen de ne pas gaspiller les pipes de shaders non utilisés par les jobs graphiques (pour rappel les jobs graphiques/compute shaders utilisent des multiples de 64 threads (sur GCN en tout cas : une "wave" ), avec un max limité par le nombres de registres et de mémoire locale nécessaire pour chaque threads). Donc il est très rare que tous les pipes soient utilisés, sans l'async-compute. Belle idée au final.
 
Dans cette présentation de Frostbite, on voit aussi qu'ils ont implémenté un clipper en software, possible les pipes de shaders sur GCN peuvent lire le zbuffer hiérarchique (et ses min et max par tile) - voir slide 67 à 71.


Message édité par tfpsly le 23-03-2016 à 22:40:58
Reply

Marsh Posté le 23-03-2016 à 23:25:49   0  

Merci pour le lien, je n'ai pas eu l'occasion de suivre cette session :)

Reply

Marsh Posté le 24-03-2016 à 00:10:53   2  

GCN est une très bonne archi (excellente même en Compute) mais difficile à exploiter à fond en jeu (quasiment impossible même, avec les anciennes API).
C'est aussi pour ça sans doute que les pilotes AMD sont plus lent à arriver (autre que le fait que leur équipe est plus petite que celle de Nvidia), car les ingés ont sans doute plus de travail pour améliorer les perfs que ceux de Nvidia.
 
Maxwell lui, c'est le résultat de la prise de conscience par Nvidia que le 28nm allait s'éterniser, et que le seul moyen d'augmenter les perfs, c'était de créer une archi spécialisée dans le types de taches graphiques du moment (GL, DX11...).
Donc forcément, Maxwell est plus facile à exploiter que GCN dans les taches graphiques actuelles, puisqu'il a été conçu pour ça.
 
 
Cependant, avec les nouvelles API, la donne change, il devient possible de mieux exploiter GCN, donc l'efficacité de Maxwell par rapport à GCN, sur des jeux exploitant les Async Compute, se réduit.
Sans parler, que ces API permettent aussi AMD de corriger son problème de traitement des draw calls monothreadé côté driver.

Reply

Marsh Posté le 24-03-2016 à 00:13:10   3  

armandraynal a écrit :


GCN et Kepler, designée en même temps, ont toutes les 2 été conçues pour les jeux ET les apps pro.
Ces archi ont donc été développées avec les mêmes "profils de tâches" il me semble.
La comparaison fait mal à AMD car chez eux y'a pas eu de refresh de l'archi, et la puce est polyvalente(avec de vraies perfs en double précision).
Si AMD avait eu les moyens d'nvidia peut-être aurait-il, lui aussi, fait un refresh ayant pour 'profil de tâche' uniquement les jeux ...
Seulement voilà, chez AMD on se doit de faire beaucoup avec peu, et ce depuis sans doute un peu trop longtemps d'ailleurs.
J'aimerais bien voir une comparaison de ce genre entre GCN et Kepler; Si les résultats sont inversés ça expliquerait pourquoi nvidia a ressenti le besoin de développer un refresh.


En fait c'est pas vrai ni pour Kepler, ni pour GCN. Pour Kepler seul leur gros GPU GK110/210, et pour AMD seuls les HD 7950/7970/R9 280x en GCN 1.0 et Les R9 290/290x/295/390/390x en GCN 1.1 ont des capacités intéressantes en flottants double précision. Et encore, à part certains hacks, ils ne sont entièrement activés que sur les cartes pro (Quadro et Firepro), avec AMD qui les castre moins en version gaming.
 
Par contre rien de tout ça sur Maxwell, sur aucune de leur carte. Au point que pour performer en SIMPLE PRECISION sur maxwell face à AMD, Nvidia incite même à l'utilisation de calculs flottants non ISO.
 
Du coup pour AMD, les autres cartes GCN (que celles citées) sont relativement modestes en flottants double précision, et ça concerne aussi Fidji.
Ca souligne le bon coup de prendre un HD 7950/70 à l'époque (notamment avec 3Go) et plus récemment une R9 290/390 notamment avec 8Go de vram.
Je me demande ce qu'il advient des quelques cartes HD 7970 et R9 280x vendues avec 6Go de Vram. Il semblerait que ça ait été fait sans l'accord explicite d'AMD et que les 6Go ne seraient pas reconnus par les pilotes (mais seulement 3)... je me pose juste la question parce que j'avais lorgné sur une de ces cartes à l'époque.


Message édité par cocto81 le 24-03-2016 à 00:17:50
Reply

Marsh Posté le 24-03-2016 à 00:35:50   0  

cocto81 a écrit :

armandraynal a écrit :


GCN et Kepler, designée en même temps, ont toutes les 2 été conçues pour les jeux ET les apps pro.
Ces archi ont donc été développées avec les mêmes "profils de tâches" il me semble.
La comparaison fait mal à AMD car chez eux y'a pas eu de refresh de l'archi, et la puce est polyvalente(avec de vraies perfs en double précision).
Si AMD avait eu les moyens d'nvidia peut-être aurait-il, lui aussi, fait un refresh ayant pour 'profil de tâche' uniquement les jeux ...
Seulement voilà, chez AMD on se doit de faire beaucoup avec peu, et ce depuis sans doute un peu trop longtemps d'ailleurs.
J'aimerais bien voir une comparaison de ce genre entre GCN et Kepler; Si les résultats sont inversés ça expliquerait pourquoi nvidia a ressenti le besoin de développer un refresh.


En fait c'est pas vrai ni pour Kepler, ni pour GCN. Pour Kepler seul leur gros GPU GK110/210, et pour AMD seuls les HD 7950/7970/R9 280x en GCN 1.0 et Les R9 290/290x/295/390/390x en GCN 1.1 ont des capacités intéressantes en flottants double précision. Et encore, à part certains hacks, ils ne sont entièrement activés que sur les cartes pro (Quadro et Firepro), avec AMD qui les castre moins en version gaming.
 
Par contre rien de tout ça sur Maxwell, sur aucune de leur carte. Au point que pour performer en SIMPLE PRECISION sur maxwell face à AMD, Nvidia incite même à l'utilisation de calculs flottants non ISO.
 
Du coup pour AMD, les autres cartes GCN (que celles citées) sont relativement modestes en flottants double précision, et ça concerne aussi Fidji.
Ca souligne le bon coup de prendre un HD 7950/70 à l'époque (notamment avec 3Go) et plus récemment une R9 290/390 notamment avec 8Go de vram.
Je me demande ce qu'il advient des quelques cartes HD 7970 et R9 280x vendues avec 6Go de Vram. Il semblerait que ça ait été fait sans l'accord explicite d'AMD et que les 6Go ne seraient pas reconnus par les pilotes (mais seulement 3)... je me pose juste la question parce que j'avais lorgné sur une de ces cartes à l'époque.


Malgré leurs modestes perfs en dp, elles ne sont tout de même pas à la rue et tiennent la route. Fidji vaut hawaii si je me souviens bien sur cet aspect là et c'est là la polyvalence dont je parlais.
M'enfin c'était surtout du design général des archi dont je voulais parler et pas de GPU spécifique ni des segments pro/gaming ou même des différentes gammes.
Edit : autant pour moi, fidji vaut tahiti en dp en fait. C'est quand même pas si pire que du côté de maxwell ^^


Message édité par armandraynal le 24-03-2016 à 00:42:36
Reply

Marsh Posté le 24-03-2016 à 08:09:25   2  

TNZ a écrit :

Ouais ... en résumé, chez nVidia ils sont restés fidèles à leur crédo : beaucoup de Mhz et on bourrine. Le chapitre de l'architecture est intéressant parce qu'il montre que les Geforce ne sont pas conçues pour ce type de fonctionnement. En activant la prise en charge complète, ils n'y aura que peu d'améliorations.  
 
D'ailleurs au sujet des API et des jeux, ils ont bien souvent fait beaucoup de lobbying sur les coeurs de métier concernés alors que côté AMD les architectures sont issues de l'écoute des professionnels de ces 2 secteurs.
 
En résumé, nVidia reste bien prétentieux et langue de bois comme il faut même si les questions sont bien pertinentes et extrêmement bien amenées par le journaliste. Ils sont dépassés et pis c'est tout.


Mouais... L'article HFR résume parfaitement bien les problématiques pour faire une architecture qui vise à tirer le maximum du 28 nm dans un maximum de situations. nVidia avait indiqué avoir tiré des bénéfices côté consommation en simplifiant le scheduling des threads par rapport à Kepler, et cette simplification a aussi permis de pouvoir utiliser plus facilement les ressources disponibles. Et ce qu'ils ont gagné côté consommation  c'est plus de marge pour augmenter les fréquences ce qui permet d'augmenter naturellement les performances à tous les niveaux.
 
AMD paye probablement son architecture plus flexible en partie par cette consommation plus élevée, et donc des fréquences moindres. Qui plus est par rapport à Maxwell on savait qu'elle n'utilisait pas naturellement aussi bien toutes ses ressources (par rapport à Kepler ça avait l'air d'être équilibré), mais en contre partie GCN permet d'exécuter plus facilement des tâches en concomitance pour remplir les trous, un peu à la manière d'un Pentium 4 et de son Hyper-Threading.
 
Le hic c'est que cette possibilité n'existait pas à la sortie des cartes et il a fallu attendre 4 ans pour en voir la couleur, et il a fallu qu'AMD sorte pour ça une nouvelle API, rien de moins. C'est pour ça que ce choix a l'air débile parce que dire qu'on aura des gains avec ces cartes dans 4 ans, on a plutôt l'habitude de voir qu'une carte de cet âge soit obsolète de toutes manières. Sans compter le fait que pendant tout ce temps on soit obligé de se fier aux performances dans les jeux actuels (DX11) pour se faire un avis sur les cartes...
 
Après, le fait que l'histoire soit différente si AMD avait sorti un refresh en face de Maxwell, oui, probablement, mais en attendant c'est nVidia qui est en position de force...

Message cité 1 fois
Message édité par ockiller le 24-03-2016 à 08:14:49
Reply

Marsh Posté le 24-03-2016 à 09:58:27   10  

ockiller a écrit :

.../...
 
Le hic c'est que cette possibilité n'existait pas à la sortie des cartes et il a fallu attendre 4 ans pour en voir la couleur, et il a fallu qu'AMD sorte pour ça une nouvelle API, rien de moins. C'est pour ça que ce choix a l'air débile parce que dire qu'on aura des gains avec ces cartes dans 4 ans, on a plutôt l'habitude de voir qu'une carte de cet âge soit obsolète de toutes manières. Sans compter le fait que pendant tout ce temps on soit obligé de se fier aux performances dans les jeux actuels (DX11) pour se faire un avis sur les cartes...
 
Après, le fait que l'histoire soit différente si AMD avait sorti un refresh en face de Maxwell, oui, probablement, mais en attendant c'est nVidia qui est en position de force...


Oui, cela montre bien le côté opportuniste de nVidia qui ne voit pas le cœur de métier sur le long terme mais fonctionne avec des produits "réponse au marché" spécifiques tout en faisant du lobbying pour que les APIs et les jeux perdurent le plus possible. Une raison probable à cet état de fait, c'est qu'ils n'ont pas les capacités de concevoir l'avenir du secteur (manque de bons cerveaux ?). Ce ne sont pas des leaders technologiques mais des suiveurs (en mode pas éthique du tout).  
 

cyrille_0088 a écrit :

ils sont  soit disant dépassé mdr mais "CC" eux qui sont devant sur pc et ordinateur portable que je sache et pas qu'un peu ^_^* en retirant intel ^_^* de l'équation
 
bien qu'en mettant intel nvidia doit etre potable
meme en metant les igp d'amd ça doit etre bas quand meme ^_^*
 
prie pour que pascal ne soit pas totalement direct x 12
 
niveau consommation ils ne sont pas bourrin ^_^* bien que j'avoue qu'ils auraient pu faire plus d'efforts ... les mega hz ça consomme donc déjà ta critique n'est pas correcte


La lecture de bench obsolète 1 mois après sa sortie n'a jamais été pour ma part un indicateur fiable sur la qualité et le savoir-faire d'un constructeur.  
Je m'intéresse plus à l'objectif visé et à la démarche de celui-ci. On le sait tous que les cartes graphiques sont plus ou moins rapidement obsolètes.  
 
L'archi nVidia d'aujourd'hui est peu ou prou restée celle qui a été conçue pour répondre à la fessée des Radeon 9700 pro (qui a laissé nVidia sur le flanc, d'un point de vue techno, pendant quelques temps).
 
Oui, ils ont devant aujourd'hui sur des trucs en DX11 car leurs puces sont faites que pour ça. Avec DX12, ce n'est plus la même limonade.
Hors, même si le côté course de fond d'AMD peut paraître ridicule aux yeux de certains, ces derniers ont 4 ans d'avance technologique sur cet aspect. nVidia va devoir se sortir les doigts pour refaire une famille de puces "DX12 only" dans la mesure où ils ne font que du spécifique à chaque fois. Quelque part, ils subissent les lois du marché (quand ils n'arrivent plus à les dicter). C'est comme un programmeur qui passe d'une logique séquentielle au multi-threading ; ce n'est pas juste une histoire d’instructions supplémentaires ou différentes, mais bien une autre façon de penser / concevoir les traitements (programmeur de gestion VS programmeur industriel).  
 
GCN + DX12 / Vulkan ... ça sent la période riche en évolutions qui mettra au grand jour les capacités d'innovation et le vrai savoir-faire métier des acteurs du marché. [:spamafote]


---------------
"Mieux vaut demander à un qui sait plutôt qu'à deux qui cherchent." ... "Le plus dur, c'est de faire simple.", TNZ
Reply

Marsh Posté le 24-03-2016 à 10:35:59   3  

Xixou2 a écrit :

Bref les gpu nvidia actuel ne supportent pas vraiment le parallélisme.


Et ce n'est pas vraiment un problème vu que les performances sont globalement très élevées de base avec les GeForce... alors...


---------------
mIaOuUuUuUuUuUu
Reply

Marsh Posté le 24-03-2016 à 10:38:26   5  

Très belle analyse TNZ!

Message cité 1 fois
Message édité par lulu1980 le 24-03-2016 à 10:39:06
Reply

Marsh Posté le 24-03-2016 à 10:49:32   4  

lulu1980 a écrit :

Très belle analyse TNZ!


Oui c'est beau la haine. Pas grave si sur le fond il raconte n'importe quoi.

Reply

Marsh Posté le 24-03-2016 à 11:05:57   3  

libre à toi de donner des arguments qui prouvent le contraire


Message édité par lulu1980 le 24-03-2016 à 11:10:09
Reply

Marsh Posté le 24-03-2016 à 11:11:23   3  

TNZ a écrit :

Oui, cela montre bien le côté opportuniste de nVidia qui ne voit pas le cœur de métier sur le long terme mais fonctionne avec des produits "réponse au marché" spécifiques tout en faisant du lobbying pour que les APIs et les jeux perdurent le plus possible.


Ok, je comprends ce que tu veux dire. Effectivement fallait pas compter sur nVidia pour faire le moindre effort sachant qu'ils tirent un avantage de la situation. Malgré ça ça reste culotté de la part d'AMD de faire le pari d'imposer une nouvelle API.
 

TNZ a écrit :

Une raison probable à cet état de fait, c'est qu'ils n'ont pas les capacités de concevoir l'avenir du secteur (manque de bons cerveaux ?). Ce ne sont pas des leaders technologiques mais des suiveurs (en mode pas éthique du tout).


Je dirai qu'ils sont bien plus doués qu'AMD pour concevoir leur propre avenir. Sur le secteur en lui même je trouve qu'ils sont pas mal actifs. VXGI ça me fait rêver perso :)
 

TNZ a écrit :

L'archi nVidia d'aujourd'hui est peu ou prou restée celle qui a été conçue pour répondre à la fessée des Radeon 9700 pro (qui a laissé nVidia sur le flanc, d'un point de vue techno, pendant quelques temps).


What !? Les archis ont énormément évolué depuis la 9700 Pro, celle qui a posé les bases des archis modernes est selon moi le G80 de la Geforce 8800, le SIMT ça n'existait pas avant à ma connaissance, et ça s'est imposé.
 

TNZ a écrit :

Oui, ils ont devant aujourd'hui sur des trucs en DX11 car leurs puces sont faites que pour ça. Avec DX12, ce n'est plus la même limonade.
Hors, même si le côté course de fond d'AMD peut paraître ridicule aux yeux de certains, ces derniers ont 4 ans d'avance technologique sur cet aspect. nVidia va devoir se sortir les doigts pour refaire une famille de puces "DX12 only" dans la mesure où ils ne font que du spécifique à chaque fois. Quelque part, ils subissent les lois du marché (quand ils n'arrivent plus à les dicter). C'est comme un programmeur qui passe d'une logique séquentielle au multi-threading ; ce n'est pas juste une histoire d'instructions supplémentaires ou différentes, mais bien une autre façon de penser / concevoir les traitements (programmeur de gestion VS programmeur industriel).  
 
GCN + DX12 / Vulkan ... ça sent la période riche en évolutions qui mettra au grand jour les capacités d'innovation et le vrai savoir-faire métier des acteurs du marché. [:spamafote]


Là il y a un peu de mauvaise foi. Tu ne sembles pas comprendre que les GPU qui marchent déjà bien sous DX11 fonctionneront tout aussi bien sous DX12. Dans le cas d'AMD ils profitent de DX12 pour combler une petite lacune côté efficacité (sans parler du coût CPU des pilotes, où les lacunes sont un peu plus grosses...).
 
Après, c'est vrai qu'AMD a tendance à faire des archis qui correspondent bien à ce qu'ils prévoient être une charge typique dans un futur plus ou moins proche, contrairement à nVidia qui a tendance à faire des archis optimisées pour les charges actuelles. Les deux ont leurs avantages et leurs inconvénients, après chacun se fait son avis en fonction de ses besoins, en tous cas ça ne justifie pas de dire que les archis d'nVidia sont spécifiques à une API, c'est complètement faux.


Message édité par ockiller le 24-03-2016 à 11:29:12
Reply

Marsh Posté le 24-03-2016 à 11:20:57   11  

lulu1980 a écrit :

libre à toi de donner des arguments qui prouvent le contraire


Pour recommencer la même discussion que dans le thread précédent, et celui d'avant, et celui d'avant, et... ad nauseam? Moi je veux bien, à vrai dire ça m'amuse pas mal de démonter les argumentations des fanboys, mais je crois que une fois de temps en temps, on peut faire un break aux lecteurs et arrêter de leur servir la même soupe à base de haterz, de théories du complot, d'interprétations biaisées et d'arguments sous LSD.  
 
Je peux assez facilement faire un résumé du thread, si tu veux :  
- TNZ va dire à quel point Nvidia sont des nuls et AMD géniaux.
- Lulu1980 va être d'accord avec lui.
- ockiller va rétorquer.
- Cocto81 va expliquer que Nvidia est en fait un conglomérat dirigé par des créatures reptiliennes venues d'une autre dimension.
- TNZ va en remettre une couche.
- Lulu1980 va être d'accord avec lui.
- Ever-over ne sera pas d'accord avec TNZ.
- Noim va critiquer AMD sur des questions de stratégie et de réalisme par rapport au marché sans rapport avec l'aspect technique.
- mazinger va débarquer et faire feu sur Nvidia sans majuscule ni ponctuation
- Lulu1980 va être d'acord avec lui.
- Petit-tigre va défendre Nvidia.
- ravenloft va nous sortir une courbe sur 20 ans du cours des stocks options avec indexation sur le crédit revolving.
- C-wiz va parler de VR.
- Tridam va gueuler.
 

Message cité 1 fois
Message édité par Noim le 24-03-2016 à 11:23:13
Reply

Marsh Posté le 24-03-2016 à 11:21:45   2  

Nous verrons dans un an ce que valent les Maxwell.
Un Noim en forme aujourd'hui! C'est le printemps!


Message édité par lulu1980 le 24-03-2016 à 11:23:55
Reply

Marsh Posté le 24-03-2016 à 11:24:53   4  

Dans un an, Maxwell aura 3 ans.


---------------
mIaOuUuUuUuUuUu
Reply

Marsh Posté le 24-03-2016 à 11:26:50   2  

lulu1980 a écrit :

Nous verrons dans un an ce que valent les Maxwell.
Un Noim en forme aujourd'hui! C'est le printemps!


 
La sève fait glou-glou sous mon écorce.

Reply

Marsh Posté le 24-03-2016 à 11:28:18   5  

ockiller » Disons que la archis nVidia sont spécifiques à un profil d'utilisation d'une API sur le plan des perfs / optimisations. Ça reste de bonne guerre ceci dit.

 

Toutefois, il est important de rester sur le rail défini par nVidia sinon ça marche beaucoup moins bien. C'est ça que je défini comme "spécifique" dans la démarche nVidia. Ils verrouillent le matériel, le logiciel et les cas d'usage dans un cadre précis au delà duquel il n'est pas recommandé de s'aventurer (tiens ça me fait penser à un certain développeur d'interface graphique). C'est le propre des manufacturiers de produits "opportunistes".
[:spamafote]


Message édité par TNZ le 24-03-2016 à 11:28:59

---------------
"Mieux vaut demander à un qui sait plutôt qu'à deux qui cherchent." ... "Le plus dur, c'est de faire simple.", TNZ
Reply

Marsh Posté le 24-03-2016 à 11:29:00   4  

petit-tigre a écrit :

Dans un an, Maxwell aura 3 ans.


 
j'ai pas dit qu'il avait un an apprend à lire j'ai dit on verra l'état de ses perfs dans un an avec les jeux du moment quand Nvidia s'en désintéressera au profit de pascal.

Message cité 1 fois
Message édité par lulu1980 le 24-03-2016 à 11:30:30
Reply

Marsh Posté le 24-03-2016 à 11:33:38   3  

TNZ a écrit :


Oui, cela montre bien le côté opportuniste de nVidia qui ne voit pas le cœur de métier sur le long terme mais fonctionne avec des produits "réponse au marché" spécifiques tout en faisant du lobbying pour que les APIs et les jeux perdurent le plus possible. Une raison probable à cet état de fait, c'est qu'ils n'ont pas les capacités de concevoir l'avenir du secteur (manque de bons cerveaux ?). Ce ne sont pas des leaders technologiques mais des suiveurs (en mode pas éthique du tout).  
 


Et je ne vois pas où est le problème sincèrement... Comme tu dis, AMD a une vision à long terme et Nvidia une vision à l'instant T. Or il me semble que la plupart des joueurs profitent des jeux à l'instant T et pas 2 ans après.
 
Que l'archi GCN se révèle pleinement grâce à DX12 tant mieux mais c'est dommageable de voir qu'en fin de compte, elle n'a pas vraiment été adaptée aux standards qui restent ceux du moment (DX11).
Et ça l'est d'autant plus que de toute façon, les joueurs changent régulièrement de GPU pour 36 raisons. Ceux sous AMD n'y échapperont pas. Si les futurs GPU de la marque sont convaincants en perfs et ne chauffent pas, j'en connais beaucoup qui vont dégager les grille-pains 290/390 au profit de ces nouveaux GPU, même s'ils peuvent tirer +5/10 fps de plus qu'une Maxwell dans un jeu de fin 2017... ne serait-ce que, au delà de la perf pure et la conso, pour bénéficier des dernières avancées technologiques. Même chose chez les NV users.
 
Du coup est-ce si illogique de sortir des produits qui répondent à un besoin PRESENT et non pas un besoin potentiel dans XX mois ? Je n'en suis pas sûr...


---------------
mIaOuUuUuUuUuUu
Reply

Marsh Posté le 24-03-2016 à 11:34:15   2  

Noim a écrit :

[..]on peut faire un break aux lecteurs et arrêter de leur servir la même soupe à base de haterz, de théories du complot, d'interprétations biaisées et d'arguments sous LSD.  


 
Meilleur post jamais.
 
Les guéguerres à deux ronds qui démarrent dès les premiers messages à chaque news GPU et se transforment en jugements de valeurs/règlements de comptes, c'est gonflant [:el frog:4]


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
Reply

Marsh Posté le 24-03-2016 à 11:35:32   2  

lulu1980 a écrit :


 
j'ai pas dit qu'il avait un an apprend à lire j'ai dit on verra l'état de ses perfs dans un an avec les jeux du moment quand Nvidia s'en désintéressera au profit de pascal.


Je sais lire, merci. JE te dis juste que dans un an, Maxwell (970/980) aura 3 ans, ce qui est une durée tout à fait convenable pour un GPU... et quand je dis durée de vie, ça veut dire jouer avec un maximum de settings à 60 fps. Ca ne veut pas dire que la carte va du jour au lendemain faire 15 fps parce que Pascal sera là.


---------------
mIaOuUuUuUuUuUu
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed