[HFR] Actu : AMD annonce FreeSync 2 avec HDR et LFC

Actu : AMD annonce FreeSync 2 avec HDR et LFC [HFR] - HFR - Hardware

Marsh Posté le 03-01-2017 à 15:20:34   1  

AMD profite du CES pour annoncer la seconde génération d'écrans FreeSync. Alors que les premiers ont permis d'améliorer la fluidité, les seconds vont ...
Lire la suite ...

Reply

Marsh Posté le 03-01-2017 à 15:20:34   

Reply

Marsh Posté le 03-01-2017 à 15:20:34   2  

Bonne initiative. J'espère que nvidia les rejoindra sans créer une nouvelle norme propriétaire.

Reply

Marsh Posté le 03-01-2017 à 15:27:24   0  

Ce nouveau Freesync2 sera t'il compatible avec les anciennes GCN ou seulement dédié aux dernières versions  ? (R9 290 par exemple :) )

Reply

Marsh Posté le 03-01-2017 à 15:27:24   1  

La meilleure surprise ce serait qu'Nvidia supporte le Freesync 2 . Allez fini de rêver !

Reply

Marsh Posté le 03-01-2017 à 15:28:19   0  

l'electronique de mon ecran BenQ 144Hz 24" est en train de mourrir rapidement (le 144hz ne marche plus (neige!), le 120hz met 1heure de chauffe avant d'afficher correctement les choses, le 60hz est plus utilisable mais c'est triste d'en arriver la et ca tue un peu l'interet de l'ecran). Vu d'autres plaintes sur le forum et aileurs, j'ai l'impression que c'est un probleme recurrent de l'ecran...
 
J'espere pouvoir acheter un 24" FHD FreeSync2 dans les 2 mois qui viennent!

Message cité 1 fois
Message édité par bgx le 03-01-2017 à 15:29:35
Reply

Marsh Posté le 03-01-2017 à 15:33:06   0  

reve22 a écrit :

Ce nouveau Freesync2 sera t'il compatible avec les anciennes GCN ou seulement dédié aux dernières versions  ? (R9 290 par exemple :) )


 
Oui. Freesync 2 (color mapping) sera ajouter via Driver aux cartes qui supportent deja Freesync.
 
Pour le support etendu avec HDR, il faut malheureusement un ecran Freesync 2.

Reply

Marsh Posté le 03-01-2017 à 15:35:30   0  

bgx a écrit :

l'electronique de mon ecran BenQ 144Hz 24" est en train de mourrir rapidement (le 144hz ne marche plus (neige!), le 120hz met 1heure de chauffe avant d'afficher correctement les choses, le 60hz est plus utilisable mais c'est triste d'en arriver la et ca tue un peu l'interet de l'ecran). Vu d'autres plaintes sur le forum et aileurs, j'ai l'impression que c'est un probleme recurrent de l'ecran...
 
J'espere pouvoir acheter un 24" FHD FreeSync2 dans les 2 mois qui viennent!


 
Je pense qu'il faut plutôt compter sur mai/juin vu qu'AMD parle du premier semestre 2017.

Reply

Marsh Posté le 03-01-2017 à 15:52:14   2  

C'est cool toutes ces avancées mais je n'arrive pas à juger s'il est pertinent de casser sa tire-lire pour un écran HDG genre freesync 2 LFC HDR 12-bits 1440p mini et soyons fous, 120Hz ou plus, ou s'il vaut mieux attendre car la 4K a le 120Hz à portée de main (il y a encore très peu de référence, voire aucune dès que l'on monte en taille : > 30" ) et que nous pourrions aussi voir assez vite du HDR 16-bits voire du 32-bits.
 
Au final, je suis dans le flou complet, je n'ai aucune idée si la différence HDR 10-bits Vs. 16-bits est significative par exemple. Il y a quelques années, un écran HDG pour gamer, ça tapait dans les 500€/600€ et en même temps ça se résumait à une résolution (bien souvent 1080p ultra maîtrisé), une fréquence de rafraichissement et un type de dalle (il fallait voir du côté pro pour des choses plus pointues).  
Maintenant, dans l'univers gaming toujours, les grandes dalles pointent le bout de leur nez (> 30" ), la résolution monte à 4K, les Hz ne bougent pas mais il y a l'adaptative-sync (et ses multiples versions) et il faut faire avec la HDR, pour le type de dalle, certains rêvent encore de l'OLED. Le HDG gaming pratique désormais les prix du HDG pro et ça peut quand même faire mal, si en plus, le produit s'avère "obsolète" en peu de temps, cela a de quoi faire grincer des dents.

Reply

Marsh Posté le 03-01-2017 à 15:56:39   7  

Nilav2 a écrit :

C'est cool toutes ces avancées mais je n'arrive pas à juger s'il est pertinent de casser sa tire-lire pour un écran HDG ...


Pour ma part c'est bien simple : tout ceci est de la poudre aux yeux pour entretenir une économie des joueurs qui sans ces fausses nouveautés serait bien moins appétissantes pour les fabricants.
 
Imaginez, je joue toujours en 720p, et m'en régale les yeux avec une carte graphique fort raisonnable. Ah oui, je ne me mets pas à deux mètres de l'écran pour jouer!

Reply

Marsh Posté le 03-01-2017 à 16:01:45   4  

Et du-coup en rendant le support de LFC obligatoire pour FreeSync 2, AMD corrige le défaut qui restait à FreeSync : celui de rendre le choix d'un écran FreeSync compliqué.
 
Maintenant il suffit de prendre un écran FreeSync 2 pour être d'avoir un écran où FreeSync fonctionnera peu importe le nombre de fps.
 
Par contre le consommateur non averti va être perdu entre FreeSync et FreeSync 2 (encore que, je pense qu'il pourra déduire tout seul que le 2 est "mieux" ).


Message édité par robin4002 le 03-01-2017 à 16:02:31
Reply

Marsh Posté le 03-01-2017 à 16:01:45   

Reply

Marsh Posté le 03-01-2017 à 16:04:13   0  

Nilav2 a écrit :

C'est cool toutes ces avancées mais je n'arrive pas à juger s'il est pertinent de casser sa tire-lire pour un écran HDG genre freesync 2 LFC HDR 12-bits 1440p mini et soyons fous, 120Hz ou plus, ou s'il vaut mieux attendre car la 4K a le 120Hz à portée de main (il y a encore très peu de référence, voire aucune dès que l'on monte en taille : > 30" ) et que nous pourrions aussi voir assez vite du HDR 16-bits voire du 32-bits.
 
Au final, je suis dans le flou complet, je n'ai aucune idée si la différence HDR 10-bits Vs. 16-bits est significative par exemple. Il y a quelques années, un écran HDG pour gamer, ça tapait dans les 500€/600€ et en même temps ça se résumait à une résolution (bien souvent 1080p ultra maîtrisé), une fréquence de rafraichissement et un type de dalle (il fallait voir du côté pro pour des choses plus pointues).  
Maintenant, dans l'univers gaming toujours, les grandes dalles pointent le bout de leur nez (> 30" ), la résolution monte à 4K, les Hz ne bougent pas mais il y a l'adaptative-sync (et ses multiples versions) et il faut faire avec la HDR, pour le type de dalle, certains rêvent encore de l'OLED. Le HDG gaming pratique désormais les prix du HDG pro et ça peut quand même faire mal, si en plus, le produit s'avère "obsolète" en peu de temps, cela a de quoi faire grincer des dents.


 
 
la ou je me demande si Freensync/Gsync a son interet comparer a un ecran avec 120/144Hz (avec Vsync -> pas de tearing).
 
Tu gagne un rien en latence (pas d'attente du prochain refresh, mais sur un 120Hz c'est pas tres long), surtout en 'jitter' lorsque tu n'arrive pas a fournir le nombre de FPS, mais est-ce perceptible?
 
Un peu en FPS tu gagne aussi avec Freesync (avec Vsync ton GPU doit de temps a autre attendre), mais sur un 120Hz, est-ce encore significatif?
 

Reply

Marsh Posté le 03-01-2017 à 16:06:13   0  

tridam a écrit :

 

Je pense qu'il faut plutôt compter sur mai/juin vu qu'AMD parle du premier semestre 2017.

 

Dans les Slide il y a des écrans déjà en vente, comment ça se passe, une mise à jour firmware, hardware ?

 

J'ai préco le c34f791, mais aucune mention d'HDR ni freesync 2 (évidement) sur le site de Samsung.

Message cité 1 fois
Message édité par Charles K le 03-01-2017 à 16:08:09
Reply

Marsh Posté le 03-01-2017 à 16:07:27   0  


Citation :

devront être capables au minimum de doubler l'espace colorimétrique par rapport au sRGB


 
ça c'est très bien, le sRGB a largement vécu, par contre  
 

Citation :

au minimum de doubler la luminosité perçue


 
Préparez vos lunettes de soleil  :whistle:

Reply

Marsh Posté le 03-01-2017 à 16:14:42   0  

bep a écrit :

Nilav2 a écrit :

C'est cool toutes ces avancées mais je n'arrive pas à juger s'il est pertinent de casser sa tire-lire pour un écran HDG genre freesync 2 LFC HDR 12-bits 1440p mini et soyons fous, 120Hz ou plus, ou s'il vaut mieux attendre car la 4K a le 120Hz à portée de main (il y a encore très peu de référence, voire aucune dès que l'on monte en taille : > 30" ) et que nous pourrions aussi voir assez vite du HDR 16-bits voire du 32-bits.
 
Au final, je suis dans le flou complet, je n'ai aucune idée si la différence HDR 10-bits Vs. 16-bits est significative par exemple. Il y a quelques années, un écran HDG pour gamer, ça tapait dans les 500€/600€ et en même temps ça se résumait à une résolution (bien souvent 1080p ultra maîtrisé), une fréquence de rafraichissement et un type de dalle (il fallait voir du côté pro pour des choses plus pointues).  
Maintenant, dans l'univers gaming toujours, les grandes dalles pointent le bout de leur nez (> 30" ), la résolution monte à 4K, les Hz ne bougent pas mais il y a l'adaptative-sync (et ses multiples versions) et il faut faire avec la HDR, pour le type de dalle, certains rêvent encore de l'OLED. Le HDG gaming pratique désormais les prix du HDG pro et ça peut quand même faire mal, si en plus, le produit s'avère "obsolète" en peu de temps, cela a de quoi faire grincer des dents.


 
 
la ou je me demande si Freensync/Gsync a son interet comparer a un ecran avec 120/144Hz (avec Vsync -> pas de tearing).
 
Tu gagne un rien en latence (pas d'attente du prochain refresh, mais sur un 120Hz c'est pas tres long), surtout en 'jitter' lorsque tu n'arrive pas a fournir le nombre de FPS, mais est-ce perceptible?
 
Un peu en FPS tu gagne aussi avec Freesync (avec Vsync ton GPU doit de temps a autre attendre), mais sur un 120Hz, est-ce encore significatif?
 

Cette chaine propose une série de vidéos sur le sujet : https://www.youtube.com/watch?v=F8bFWk61KWA
À toi de juger ensuite. :)

Reply

Marsh Posté le 03-01-2017 à 16:15:16   0  

Et sur quelle norme s'appuie la communication avec les drivers cette fois ?

Reply

Marsh Posté le 03-01-2017 à 16:19:03   0  

Personnellement, j'attends beaucoup des technologies d'écran haut de gamme à venir  (4K, HDR, OLED, 144 Hz etc...). AMD devient un innovateur face à la concurrence et c'est tant mieux.
J'espère seulement que les prix restent raisonnables pour faire des écrans de grande taille (30 pouces et plus) "abordables" pour nos petits portefeuilles.

Reply

Marsh Posté le 03-01-2017 à 16:23:30   2  

Charles K a écrit :


 
Dans les Slide il y a des écrans déjà en vente, comment ça se passe, une mise à jour firmware, hardware ?
 
J'ai préco le c34f791, mais aucune mention d'HDR ni freesync 2 (évidement) sur le site de Samsung.


 
Cette partie de la prezo fait le point sur la situation au niveau de FreeSync. Il ne s'agit pas d'écrans qui supporteront FreeSync 2 vu qu'ils ne sont pas HDR.
 
Sinon pour avoir vu à plusieurs reprises des démonstrations sur des prototypes d'écrans HDR, ça apporte vraiment beaucoup. Après il faudra voir ce dont seront réellement capables les premiers écrans FreeSync 2 qui seront commercialisés. Mais sur base de ce que j'ai vu jusqu'ici, pour les joueurs, un écran 1440p HDR sera très largement préférable à un écran 4K classique. Et la bonne nouvelle c'est que contrairement à la 4K, la HDR (au niveau de l'affichage) c'est gratuit niveau performances vu que ça revient simplement à modifier des paramètres dans l'algorithme de tone mapping existant.

Reply

Marsh Posté le 03-01-2017 à 16:23:52   1  

HDR ou le nouveau dada des marketeux pour 2017 ... après le flop des écrans 3D, il fallait bien trouver une innovation quelconque pour faire mettre la main au portefeuille.
D'autant plus que quand on voit certains filtres HDR qui saturent à mort, on finit par avoir un rendu dégueulasse et à mille lieues d'un environnement réel.

Reply

Marsh Posté le 03-01-2017 à 16:26:22   4  

fmichaux a écrit :

HDR ou le nouveau dada des marketeux pour 2017 ... après le flop des écrans 3D, il fallait bien trouver une innovation quelconque pour faire mettre la main au portefeuille.
D'autant plus que quand on voit certains filtres HDR qui saturent à mort, on finit par avoir un rendu dégueulasse et à mille lieues d'un environnement réel.


 
Tu n'as pas compris... les écrans HDR vont justement permettre d'éviter ça. Ca sature quand on essaye d'afficher une image HDR sur un écran LDR.

Reply

Marsh Posté le 03-01-2017 à 16:29:34   0  

fmichaux a écrit :

HDR ou le nouveau dada des marketeux pour 2017 ... après le flop des écrans 3D, il fallait bien trouver une innovation quelconque pour faire mettre la main au portefeuille.
D'autant plus que quand on voit certains filtres HDR qui saturent à mort, on finit par avoir un rendu dégueulasse et à mille lieues d'un environnement réel.

Pour avoir une tv 4k hdr, ce dernier m'a bien plus bluffé que la 4k.
J'ai l'app amazon video sur ma tv (qui diffuse en 4k hdr) et sideloadé sur ma shield tv (qui diffuse en 1080p), le gain est conséquent.

Reply

Marsh Posté le 03-01-2017 à 16:34:46   0  

HDR sur moniteurs pc c'est plutot cool, c'est assez difficile d'avoir des infos à ce sujet jusque là.  
Bon par contre c'est réservé au pc /pilotes/gpu ,  on pourra pas mettre une console de dernier generation  dessus en plus pour profiter aussi du hdr si j'ai bien compris.

Reply

Marsh Posté le 03-01-2017 à 16:54:12   8  

Je commence à regretter ma gtx 1080, j'aurai jamais du aller chez nvidia, amd fait tellement d'effort que ça donne envie de les encourager

Reply

Marsh Posté le 03-01-2017 à 17:06:53   1  

kikamaruu a écrit :

Je commence à regretter ma gtx 1080, j'aurai jamais du aller chez nvidia, amd fait tellement d'effort que ça donne envie de les encourager


 
Bof quand y a pas de haut de gamme, y a pas de haut de gamme ...
 
La ligne de produits de Nvidia est bcp plus cohérente. Et j'ai des doutes sur Vega, sachant que Nvidia a décidé de ne pas aller sur la HBM2 en 2017. On peut redouter des pbs d'appro, et donc de prix.

Reply

Marsh Posté le 03-01-2017 à 17:08:45   0  

tridam a écrit :

Charles K a écrit :


 
Dans les Slide il y a des écrans déjà en vente, comment ça se passe, une mise à jour firmware, hardware ?
 
J'ai préco le c34f791, mais aucune mention d'HDR ni freesync 2 (évidement) sur le site de Samsung.


 
Cette partie de la prezo fait le point sur la situation au niveau de FreeSync. Il ne s'agit pas d'écrans qui supporteront FreeSync 2 vu qu'ils ne sont pas HDR.
 
Sinon pour avoir vu à plusieurs reprises des démonstrations sur des prototypes d'écrans HDR, ça apporte vraiment beaucoup. Après il faudra voir ce dont seront réellement capables les premiers écrans FreeSync 2 qui seront commercialisés. Mais sur base de ce que j'ai vu jusqu'ici, pour les joueurs, un écran 1440p HDR sera très largement préférable à un écran 4K classique. Et la bonne nouvelle c'est que contrairement à la 4K, la HDR (au niveau de l'affichage) c'est gratuit niveau performances vu que ça revient simplement à modifier des paramètres dans l'algorithme de tone mapping existant.


 
Tu parles de 1440P HDR à la place du 4K, perso je trouve déjà que le 1440p c'est le bon compromis côté qualité/performance.
 
Par contre pour ceux qui veulent rester sur du 24/1080/144hz sans devoir braquer une banque il va y avoir des 24/1080/HDR en 144hz? ou on se tourne définitivement vers 27/1440 en minimum?  
 

Reply

Marsh Posté le 03-01-2017 à 17:21:59   0  

tridam a écrit :

 

Cette partie de la prezo fait le point sur la situation au niveau de FreeSync. Il ne s'agit pas d'écrans qui supporteront FreeSync 2 vu qu'ils ne sont pas HDR.

 

Sinon pour avoir vu à plusieurs reprises des démonstrations sur des prototypes d'écrans HDR, ça apporte vraiment beaucoup. Après il faudra voir ce dont seront réellement capables les premiers écrans FreeSync 2 qui seront commercialisés. Mais sur base de ce que j'ai vu jusqu'ici, pour les joueurs, un écran 1440p HDR sera très largement préférable à un écran 4K classique. Et la bonne nouvelle c'est que contrairement à la 4K, la HDR (au niveau de l'affichage) c'est gratuit niveau performances vu que ça revient simplement à modifier des paramètres dans l'algorithme de tone mapping existant.

 

Ca je n'en doute pas, dommage que j'ai besoin de changer d'ecran et qu'il faille encore attendre :(

 

Merci pour les precisions en tout cas

Reply

Marsh Posté le 03-01-2017 à 17:52:10   2  

5imon a écrit :

sachant que Nvidia a décidé de ne pas aller sur la HBM2 en 2017. On peut redouter des pbs d'appro, et donc de prix.


 
C'est pas plutôt parce que Nvidia va se fournir chez Samsung ? Et vu que AMD a co-développé la HBM avec Hynix, normal que ça leur revient moins cher ...

Reply

Marsh Posté le 03-01-2017 à 18:23:46   0  

Intéressant mais bon j'espère que le prix des écrans ne va pas encore grimpé !

Reply

Marsh Posté le 03-01-2017 à 18:27:39   0  

Bof concrètement on risque juste d'avoir la plupart du temps que des écrans deux fois plus lumineux, pas de quoi se relever la nuit.

Reply

Marsh Posté le 03-01-2017 à 18:35:39   1  

Rien que pour le support de LFC obligatoire pour FreeSync ca vaut le coup. Ça évitera de devoir naviguer dans les méandre des numéros de série pour trouver un modèle qui va bien

Reply

Marsh Posté le 03-01-2017 à 18:42:14   0  

Bon bah je vois que je ne suis pas le seul à m'interroger. Cela devient complexe de juger l'intérêt d'une techno par rapport à une autre car elles ne jouent pas sur les mêmes caractéristiques, parfois, elles peuvent même se compléter. Genre, si l'OLED se généralise (on y croit), faut-il le privilégier au HDR ou l'inverse ? Ou prendre les deux en espérant qu'il y ait des produits qui les combinent et qu'il ne faille pas hypothéquer un organe.
Faut-il absolument du 120Hz/144Hz sur du freesync/gsync ?
 
Surtout ça avance très vite. J'ai pu facilement rentabiliser mon écran cathodique 17", remplacé par un écran plat 19", lui-même remplacé par un 24" 1080p, ce dernier remplacé par un 24" 1080p 144Hz. Là, entre 4K, HDR, a-sync et augmentation de la taille (je rêve d'un 32" ), OLED + ce qui se faisait avant genre le taux de rafraichissement. On ne sait plus trop où on va et pour le moment, il faut souvent faire des concessions faute de produit (genre pas de freesync LFC sur du 4K en grande dalle) ou faute d'un tarif prohibitif (genre un 27" 1440p freesync LFC 120/144Hz)

Reply

Marsh Posté le 03-01-2017 à 18:47:12   3  

Bon, en gros le sticker "Freesync 2" collé sur le moniteur voudra maintenant dire quelque chose. Cool.

Reply

Marsh Posté le 03-01-2017 à 19:10:11   1  

ravenloft a écrit :


Est-ce que tu sais si les développeurs ont prévu des patchs pour les jeux depuis 2005 qui supportent déjà le HDr afin de juste modifier le tone mapping?


 
Je doute que les développeurs ajoutent l'affichage HDR a de vieux jeux.
 

ravenloft a écrit :


Plus que l'oled?


 
Certains écrans HDR sont OLED justement.

Reply

Marsh Posté le 03-01-2017 à 19:10:49   0  

ah ouais là avec l'info brute c'est une excellente nouvelle. Avec LFC osef de la plage de fréquence (non ?) et donc plus aucune retenue pour moi. A voir si AMD ou les marques elles mêmes ne vont pas facturer cette "certification" de freesync 2. Entre Ryzen et cette nouvelle plus celle de vega, je sens le retour chez amd proche.

Reply

Marsh Posté le 03-01-2017 à 19:13:48   0  

A voir ce qui sortira réellement cette année.

Reply

Marsh Posté le 03-01-2017 à 19:24:07   0  

loustic a écrit :

Bof concrètement on risque juste d'avoir la plupart du temps que des écrans deux fois plus lumineux, pas de quoi se relever la nuit.

 

+1, je veux rien dire mais déjà 60 cd/m², je trouve que c'est déjà largement suffisant avec du 6500k, alors quand je vois parler de ça :

 
Citation :

On parle actuellement de 700 candelas par mètre carré (Samsung) voire 1000 cd/m²(Philips).

 

:sweat:

 

Au moins ça donnera du travail aux Ophtalmo'


Message édité par major95 le 03-01-2017 à 19:24:43
Reply

Marsh Posté le 03-01-2017 à 19:30:51   0  

Nilav2 a écrit :

si l'OLED se généralise (on y croit), faut-il le privilégier au HDR ou l'inverse ?

En cinéma tu peux faire les deux.(on regarde un film dans le noir en général) En jeu c'est différent, sauf à jouer à des jeux genre Alien ou prédator(jeux sombres)et encore faut la lampe pour voir les touches.
D'abord l'Oled à toujours des problèmes de marquages mais surtout il est limité par l'ABL. Soit une centaine de CD m/² sur une page blanche, c'est 3 fois moins qu'un moniteur non HDR. En jeu tu ne profiteras pas du gain d'avoir des noirs qui soient noir comme en cinéma. L'HDR en jeu sera principalement le gain en luminosité, pas de chance c'est le point faible de l'Oled.
Et puis ne rêvons pas, les soit disant quantum dot ou traitement au phospore pour le gain d'espace colorimétrique ça coute une blinde, les traitements 12bits natifs et plus ce n'est pas gratuit. Quant au surcout des Diodes pour le gain en luminosité j'en parle même pas, un écran de gamer sera bon marché à coté.  
Marché de niche pendant longtemps si ces 3 paramètres sont réunis.
Regarde le prix des téloches HDR, ça calme.

Reply

Marsh Posté le 03-01-2017 à 20:04:04   1  

"et nous pouvons supposer que Nvidia proposera d'ici-là une initiative similaire."
, pas certain vu le mal qu'ils ont eu à stabiliser le GSync au fur et à mesure des releases des drivers.

Reply

Marsh Posté le 03-01-2017 à 20:08:52   0  

ravenloft a écrit :

tridam a écrit :

A voir ce qui sortira réellement cette année.


S'il y avait du 4k HDR oled 120hz sur pc en 2017 et en bonus sans prix nécessitant 2 mois de salaires  :love: , ça serait génial car ça doit faire 10 ans depuis la fin de mon crt et les premières infos sur l'oled que je rêve de ça.


Idem, mais en g sync.

Reply

Marsh Posté le 03-01-2017 à 20:15:16   3  

Aween a écrit :

Bonne initiative. J'espère que nvidia les rejoindra sans créer une nouvelle norme propriétaire.


nVidia non-propriétaire? Tu rêves!

Reply

Marsh Posté le 03-01-2017 à 20:17:49   4  

Xixou2 a écrit :

Idem, mais en g sync.


Heu... le G-SYNC c'est 100€ de plus.
Faut bien que le caméléon puisse survivre...

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed