Dossier : Nvidia G-SYNC en test : les jeux fluides dès 40 fps ? [HFR] - HFR - Hardware
Marsh Posté le 30-12-2013 à 19:34:55 7
Bon article, mais la conclusion semble être pleine de parti pris, non?
Marsh Posté le 30-12-2013 à 19:38:29 23
Quand quelque chose est bien et qu'on le dit c'est un parti pris ? Etre objectif c'est trouver autant de point négatifs que positifs ?
Sinon désolé pour le retard de ce dossier dont nous avions annoncé la sortie imminente il y a 3 semaines. C'est en grande partie de ma faute. Prendre le temps de vraiment tester G-SYNC... ça prend du temps et malheureusement je n'étais qu'à moitié disponible ces dernières semaines.
Marsh Posté le 30-12-2013 à 19:48:27 0
ça me fait dire que je devrais activer le Vsync dans BF4 ^^ (étant a 80fps de moyenne)
a tester déjà ça donc (jamais activé le vsync depuis 20 ans que j'ai un PC)
Marsh Posté le 30-12-2013 à 19:54:58 0
Pas compris grand chose à cet article tres technique; pour résumer qu'est ce que ca va apporter de mieux pour les joueurs ? est ce que la différence en vaut vraiment le prix ??
Marsh Posté le 30-12-2013 à 20:00:32 9
Le surcoût lié au module G-SYNC rend le tarif du moniteur final prohibitif. Ça plus le fait qu'on soit cantonné à un unique constructeur - en l’occurrence les verts - en terme de GPU c'est beaucoup trop limitant pour être viable. Ça part d'une bonne intention, c'est ingénieux mais je ne pense pas que ça puisse marcher avec ces restrictions. Au final on peut très bien choisir de s'en passer & de privilégier la puissance brute du GPU pour contrebalancer le problème de fluidité.
525€ pour jouer en FHD en 2013 - 2014 d'ici peu - ça fait un peu mal au derrière je trouve.
Marsh Posté le 30-12-2013 à 20:20:18 2
ReplyMarsh Posté le 30-12-2013 à 20:38:02 2
marcaurel15 a écrit : Pas compris grand chose à cet article tres technique; pour résumer qu'est ce que ca va apporter de mieux pour les joueurs ? est ce que la différence en vaut vraiment le prix ?? |
T'inquiètes ! ça concerne surtout les joueurs PC ... et eux savent bien de quoi il s'agit !
Perso j'attends cela depuis des années le nombre de jeux gâchés par des saccades pourries
Du coup je vais laisser AC4 ( pas loin de la fin ) que j'aime beaucoup mais qui n'est pas fluide avec une 780 ...et le finir en G-SYNC sans être emmerder à chaque changement de framerates .
Merci pour l'article
et gros MERCI à NVidia
Marsh Posté le 30-12-2013 à 20:46:02 2
Très bon article mise à part la partie sur le triple buffering.
Il existe un "vrai" et un "faux" triple buffering (aka render ahead ou render queue).
Ce que vous appelez "le vrai mais qui en fait n'existe pas" EST le triple buffering tel qu'il a été pensé et tel qu'il est décrit sur wikipédia, et dans les articles dont wikipédia prend source (dont un article de anadtech par exemple). Il est d'ailleurs évoqué dans cette vidéo d'explication de g-sync http://www.youtube.com/watch?v=KhLYYYvFp9A
Alors oui le problème du "vrai" triple buffering c'est qu'il introduit du stutter par rapport à v-sync on. Mais il y a le même problème avec v-sync off. Oui le "vrai" triple buffering a du lag par rapport à v-sync off, mais par contre il est théoriquement moins prononcé que v-sync on. Oui le "vrai" triple buffering "gaspille" des ressources gpu car certaines images ne sont pas affichées, mais le problème existe aussi avec v-sync off qui n'affiche que des parties d'image.
Le vrai problème du vrai triple buffering, c'est qu'il n'était fonctionnel qu'avec openGL, donc il a disparu petit à petit avec l'adoption massive de directX, et de plus comme il consomme plus de mémoire que le double buffering, il n'a forcément jamais été utilisé sur les consoles qui n'ont jamais été bien loties niveau quantité de mémoire.
En fait le triple buffering au début des années 2000 était un peu la solution "la moins pire" entre v-sync off et v-sync on pour ceux qui ne supportait pas le tearing, mais est tombée (à tort!) petit à petit dans l'oublie.
Commentaire un peu hors sujet car ici on parle de g-sync, mais ca m'a fait tiqué quand j'ai vu votre passage "on veut rétablir la verité sur le triple buffering" et que vous vous trompez quand même...
Marsh Posté le 30-12-2013 à 20:57:47 1
ravenloft a écrit :
|
Ce n'est pas possible sur un CRT parce qu'allonger le VBLANK revient à allonger la période totalement noire de l'écran et donc faire varier la luminosité.
Marsh Posté le 30-12-2013 à 21:01:52 3
Omelmike a écrit : |
Exactement, pour la simple et bonne raison que c'est du matériel pro. Le problème est, l'article le souligne, que la "nouvelle-technologie-nvidia-G-Sync" n'a pas d'intérêt pour le propriétaire d'un GPU haut de gamme en activant la syncro V. Tous les lecteurs de HFR, ou presque, ont une config suffisante pour cela, j'en suis certain, du moins les Geeks ^^
Ensuite, l'écran proposé a une dalle à la qualité relative, qui ne satisfera pas tout le monde, surtout au prix dû à la "nouvelle-techno-toussa" accrochée dessus.
Je ne mets pas en doute la qualité du produit ni son efficacité. Je me permets simplement de dire : sérieusement, à qui, raisonnablement, cette grande et ô combien novatrice et originale invention servira ? Le mec à ptit budget ne paiera pas 100 euros une carte graphique et dans un même temps pourra se permettre l'achat d'un écran comme ça. Et pour 200 euros, le GPU, syncro V activée, sera suffisant. Donc voilà.
Je sais, je suis un gros fanboy, allez-y, lâchez vous
Marsh Posté le 30-12-2013 à 21:02:15 2
Bonne initiative de rappeler les bases au début de l'article (même si visiblement c'est déjà trop compliqué pour certains...), parce qu'on en voit certains des fois dans les commentaires ou les forums sortir des énormités ça fait peur.
Faudrait aussi faire (ou refaire) un article pour (re)expliquer et démonter une bonne fois pour toute le mythe des 24fps du cinéma et pourquoi 30fps en même pas 1080p en 2014(et+) c'est quand même une honte.
C'est la base mais visiblement c'est toujours bien de faire des rappels.
Marsh Posté le 30-12-2013 à 21:06:17 1
Joelepain a écrit : Très bon article mise à part la partie sur le triple buffering. |
Wikipedia n'est pas la bible et il ne faut pas croire que parce qu'un article est écrit en anglais il est correct. Cet article d'anandtech est erroné sur plusieurs points, je ne comprends même pas comment il a pu rester en l'état en ligne si longtemps. Render ahead n'a strictement aucun rapport avec le triple buffering, peu importe comment il fonctionne, de la manière vue par le rédacteur d'anandtech ou comme c'est le cas dans les jeux. La consommation mémoire est identique peu importe le type de triple buffering. Ce que décrit l'article d'anandtech c'est surtout utile pour jouer à Quake à 300 fps (avec textures désactivées ) sans tearing avec la plus faible latence possible. Dans des conditions normales ça réduit le confort de jeu par rapport au triple buffering tel qu'exploité dans 8 des 10 jeux testés ici.
Marsh Posté le 30-12-2013 à 21:08:27 6
Ca n'a donc strictement aucun rapport avec la fréquence de rafraîchissement variable ce n'est pas parce qu'AMD fait quelque chose avec le mot synchronisation dedans qu'ils sont prêts pour faire du G-SYNC-like
Marsh Posté le 30-12-2013 à 21:13:12 5
Salut,
je voulais remercier Tridam pour cet article très intéressant, le retard vaut la qualité !
Marsh Posté le 30-12-2013 à 21:17:00 3
En gros G-sync est utile quand on as une carte graphique moyen de gamme et inutile, voire moins bon, quand on utilise une carte haut de gamme.
Le souci c'est le prix. Si les moniteurs coutent beaucoup plus cher, autant prendre une carte haut de gamme et un moniteur normal et activer le v-sync en cas de tearing....
En conclusion c'est inutile, a moins que g-sync sois gratuit. Merci nvidia !
Marsh Posté le 30-12-2013 à 21:19:30 1
vitalic660 a écrit : En gros G-sync est utile quand on as une carte graphique moyen de gamme et inutile, voire moins bon, quand on utilise une carte haut de gamme. |
Non t'as rien compris
ou simplement jamais jouer sur PC
Marsh Posté le 30-12-2013 à 21:20:23 0
Citation : A noter qu'utiliser un limiteur de performances, que ce soit à 59 ou 60 fps en 60 Hz VSYNC OFF, permet d'obtenir un résultat très proche de celui d'une synchronisation verticale dynamique.(...) |
c'est à dire ?
utiliser un logiciel qui bloque les FPS comme MSI afterburner ?
question bête dans ce cas, pourquoi ce n'est pas généralisé ?
Marsh Posté le 30-12-2013 à 21:20:50 0
ravenloft a écrit : |
C'est une observation. Si je me mets à un endroit qui donne 47 fps en VSYNC off, je vais avoir 30 fps en VSYNC ON 60 Hz et 47 fps en VSYNC ON 144 Hz.
Marsh Posté le 30-12-2013 à 21:21:25 0
Pas forcément un soft, une commande via "²" suffit dans pas mal de jeux par exemple.
Marsh Posté le 30-12-2013 à 21:25:45 0
mum1989 a écrit :
|
Parce que plus qu'une solution aux problèmes de VSYNC ON/OFF, c'est un compromis différent avec ses avantages et ses désavantages.
Marsh Posté le 30-12-2013 à 21:30:36 0
d@nz a écrit : Le surcoût lié au module G-SYNC rend le tarif du moniteur final prohibitif. Ça plus le fait qu'on soit cantonné à un unique constructeur - en l’occurrence les verts - en terme de GPU c'est beaucoup trop limitant pour être viable. |
Hormis la question du prix, même si c'est un tout petit borderline sur le troll, moi ça me parait encore hurler "16:9 only" tout ça
Joelepain a écrit : Très bon article mise à part la partie sur le triple buffering. |
Ce qui explique cette note que je ne comprenais pas dans l'ATI CCC à ce sujet
d@nz a écrit : Pas forcément un soft, une commande via "²" suffit dans pas mal de jeux par exemple. |
Ou via cfg/ini, souvent une entrée avec un "62" par défaut pour ça
Quoi qu'il en soit merci pour le dossier !
Marsh Posté le 30-12-2013 à 21:42:49 0
tridam a écrit : |
Vous avez complété l'article, merci c'est plus clair maintenant ;-)
Par contre il y a l'air d'avoir un problème de police en gras.
Marsh Posté le 30-12-2013 à 21:45:07 1
okay cool ce test complet, mais ça reste cher pour un 24 avec 3d , on espere de prochaines annonces avec d'autres écrans
Marsh Posté le 30-12-2013 à 21:47:01 0
Joelepain a écrit : |
Corrigé, petit bug, j'ai mis en évidence la distinction entre les buffers au niveau de l'API (avant) et les buffers en sortie du GPU (après) de manière à ce que soit bien clair le fait que render ahead n'a aucun rapport avec le triple buffering.
Marsh Posté le 30-12-2013 à 21:48:03 0
ouam49 a écrit : okay cool ce test complet, mais ça reste cher pour un 24 avec 3d , on espere de prochaines annonces avec d'autres écrans |
Un PQ321 G-SYNC Edition vite
Marsh Posté le 30-12-2013 à 21:49:21 0
ravenloft a écrit :
|
Non c'est bien du triple buffering par défaut (cf les perfs). Crytek a peut-être mis à jour ce point ? je teste ici sur la dernière version du jeu.
Marsh Posté le 30-12-2013 à 21:57:32 0
Il semble évident qu'il y aura un Gsync 2, puis Gsync 3... L'article précise que les versions prototypes ne seront pas upgradables, qu'en est-il des versions de série en vente l'année prochaine ?
Marsh Posté le 30-12-2013 à 21:59:50 0
ravenloft a écrit :
|
tridam a écrit : Ce n'est pas possible sur un CRT parce qu'allonger le VBLANK revient à allonger la période totalement noire de l'écran et donc faire varier la luminosité. |
Tiens c'est curieux mais je ne comprends pas Mon CRT pouvait varier de 60 à 85 Hz et je ne savais pas qu'il y avait un passage au noir sur de l'analogique ??? Vu que le spot se déplaçait constamment
Edit : en lisant l'article, je comprends mieux Tu as oublié un détail (je ne sais pas si c'est opportun ou pas) en ce qui concerne la rémanence des CRT qui permettait de bien gagner au niveau sensibilité à l'effet de scintillement aux basses fréquences.
En ce qui concerne le temps de remonté du canon à électron, j'avais ouïe dire que suivant les éléctros-aimants (et pas des aimants) c'était instantané...
D'autre part, le VBLANK que tu nommes ainsi a toujours été utilisé pour passer des tas d'infos comme le Close Caption du temps des LD ou d'autres signaux sur les TV comme le télétexte et autre
Marsh Posté le 30-12-2013 à 22:00:12 1
Dommage que ça revienne si chère, surtout pour les possesseurs de carte ATI, et que ça arrive trop tard.
De plus je pense que les cartes graphiques pourront aller jusqu'à doubler de puissance dans les prochaines années alors qu'en même temps les besoins graphique vont stagner à cause des consoles, on pourra facilement se passer de ce genre de fonctionnalité et jouer confortablement.
Surtout que dans tous les cas il vaut mieux limiter les FPS afin d'éviter la chauffe de la carte, les nuisances sonores et la surconsommation d'énergie.
Marsh Posté le 30-12-2013 à 22:01:30 0
tridam a écrit : |
Par contre je ne suis toujours pas d'accord pour dire que le problème du triple buffering c'est l'introduction de stutter. Oui c'est vrai par rapport à du double buffering v-sync on, mais c'est faux par rapport à du v-sync off. D'ailleurs le monsieur de nVIDIA dans la démo de g-sync insiste bien sur ce point : v-sync off ne règle PAS les problèmes de stutter (chaque "bout" d'image micro saccade en fait) et c'est ce qui est paradoxal car les joueurs souvent désactivent la v-sync en croyant que ça va régler les problèmes de stutter.
Par contre une fois qu'on a bien défini ce qu'est le render ahead, on se retrouve avec la même confusion : il y au niveau de la sortie du gpu deux méthodes de triple buffering, qu'on ne va pas appeler vrai ou fausse parce que c'est débile et faux. Chacune a ses avantages et inconvénient. L'une n'augmentant peu l'input lag mais ne réglant pas le stutter, l'autre augmentant l'input lag.
En fait cette notion de "vrai" et "faux" vient du fait qu'il y a deux méthodes qui portent le même nom, donc les joueurs se sont sentis "trompé" à un moment.
Marsh Posté le 30-12-2013 à 22:03:16 3
Rien à voir ton lien réaction de fanboy
AMD tu as beaucoup de vidéo de bla bla mais rien a la bonne date, des retards à répétition.
Mantle depuis qui en parle toujours pas sorti
Marsh Posté le 30-12-2013 à 22:03:32 2
Article intéressant, merci tridam
Quelques questions cependant:
- tu ne parles pas de ton ressenti à propos des variations de framerate en mode gsync. Quand un jeu oscille entre 40 et 70fps ça doit tout de même se ressentir (un autre test évoquait ce point il me semble).
- dans ta conclusion tu n'évoques pas la possibilité de modules gsync externes à brancher sur des écrans qui seraient livrés en version "sans électronique", ce qui permettrait de réutiliser son module lors d'un changement d'écran. Nvidia et l'industrie des écrans n'envisage pas cette possibilité ?
Sinon je reste un peu déçu que même en gsync il puisse rester des saccades / à-coups. J'aurais espéré que gsync soit l'assurance de ne plus en avoir du tout (si fps > 30, puisqu'en deçà il y a répétition forcée d'image). De même je suis un peu étonné que tu mentionnes les accès disques comme possible cause de saccades contre lesquelles gsync ne peut rien. Avec les quantités de ram et vram que l'on trouve de nos jours dans nos pécés on en serait encore à pouvoir avoir des saccades causées par des accès disques (bien souvent ssd qui plus est) ?
Marsh Posté le 30-12-2013 à 22:07:31 0
ravenloft a écrit : |
Je n'ai pas cette option, bizarre...
Marsh Posté le 30-12-2013 à 22:08:45 1
Merlin_L_Enchanteur a écrit : |
Roh faudrait lire l'article et la description du VBLANK
Marsh Posté le 30-12-2013 à 22:15:40 0
Joelepain a écrit : |
Ha mais l'article indique justement qu'il reste des saccades en VSYNC OFF
Le triple buffering, sans images sautées, tel qu'utilisé dans tous les jeux réduit les saccades au prix d'une image de latence. Le triple buffering avec images sautées, ne réduit pas les saccades mais réduit la latence par rapport au double buffering (sans ajouter de tearing) si le niveau de performances est largement supérieur à 60 fps.
Marsh Posté le 30-12-2013 à 22:16:38 0
tridam a écrit : |
voui voila, lacune comblée et texte édité
Marsh Posté le 30-12-2013 à 22:22:36 0
madcat a écrit : Article intéressant, merci tridam |
C'est mieux à 70 fps qu'à 40 fps, mais on ne ressent pas trop la variation. Ce serait peut-être problématique si un jeux tournait 1s à 70fps, 1s à 40 fps, 1s à 70 fps et ainsi de suite mais ce n'est pas ce qui se passe en pratique.
Ce n'est pas prévu, probablement parce que le module G-SYNC doit être programmé spécifiquement pour une dalle donnée, donc il faudrait un firmware spécifiques à chaque fois, que les fabricants d'écrans acceptent le surcoût de cette infrastructure modulaire etc (faut bien réaliser qu'ajouter le support de G-SYNC dans un ASIC et non via un FPGA ça coûte 3x moins que peanuts . Par contre Nvidia réfléchit à la possibilité d'une intégration dans les TV prévus pour être modulaires. Pas facile de convaincre Samsung et co mais ils pourraient en profiter pour fluidifier l'affichage de la VOD.
G-SYNC ne peut pas faire de miracles, si le moteur du jeu génère une grosse saccades de 100ms (soit en interrompant le débit d'image soit l'évolution de la simulation du monde), il ne peut rien y faire.
Marsh Posté le 30-12-2013 à 22:26:51 0
ravenloft a écrit : |
Il faudra que je vérifie à l'occasion, je ne peux pas le faire là maintenant. C'est le seul jeu qui était dans ce cas. Par contre sous Splinter Cell BL il y a effectivement des bugs: dans certains cas il faut passer par l'ini alors que dans d'autres toutes les options sont dispos.
Marsh Posté le 30-12-2013 à 22:54:59 0
Le système n'est pas connecté sur cet écran pour le moment. C'est possible que ce soit lié à la connectique DP aussi, ou tout simplement que je sois passé à côté.
Marsh Posté le 30-12-2013 à 19:30:02 0
Avec G-SYNC, Nvidia s'introduit dans les écrans pour leur permettre de mieux s'adapter au rythme des GPU. De quoi améliorer le confort de jeu sur PC en termes de fluidité, de latence et de qualité.
Lire la suite ...