Jouer en Full Graphique 4K - Carte graphique - Hardware
Marsh Posté le 06-07-2014 à 00:17:47
Normalement oui. Mais il faut savoir qu'aucune carte graphique actuelle ne fait tourner correctement les derniers jeux en ultra et en 4k.
Marsh Posté le 06-07-2014 à 00:24:28
pour la 4K attend 2 ans...
ça sera bon à ce moment là.
Marsh Posté le 06-07-2014 à 00:26:38
master71 a écrit : pour la 4K attend 2 ans... |
Faut voir. Quand je vois la peine qu'à Far Cry premier du nom à tourner en 4K...
http://www.comptoir-hardware.com/a [...] dhui-.html
Marsh Posté le 06-07-2014 à 00:31:27
2 ans, les codec devrait être validés, testés et gravés dans les puces, la puissances du 14nano devrait avoir éclos sur les puces graphiques...
les connections devrait gérer le 4K nativement...
Marsh Posté le 06-07-2014 à 01:23:05
Ben je pense qu'une seule carte graphique ne suffira pas non plus
Mais un bon crossfire ou sli, ou quitte à mettre 3 ou 4 cartes, ou des cartes double GPU
Marsh Posté le 06-07-2014 à 09:35:52
en fait ça depend beaucoup des titres,farcry tournerai a 84 image mini sur une 780gtx,faut aussi voir que farcry c'est un jeu dx9 et ne tire pas parti des carte dx11.
autre point on parle souvent de fps,ça depend beaucoup des personnes,moi 30fps constant me suffise par exemple
donc c'est possible des aujourd'hui mais avec un fort coup,en argent comme en energie,qui sera evidement beaucoup moindre dans 2-3 ans
Marsh Posté le 06-07-2014 à 10:37:38
david76600 a écrit : en fait ça depend beaucoup des titres,farcry tournerai a 84 image mini sur une 780gtx,faut aussi voir que farcry c'est un jeu dx9 et ne tire pas parti des carte dx11. |
30 FPS dans un jeu comme watch dog ou tomb raider, c'est juste horribleeeeee
Marsh Posté le 06-07-2014 à 10:43:17
Pour toi et 1% des joueurs oui. L'immense majorité, non.
Marsh Posté le 06-07-2014 à 10:49:14
mini-mousaille a écrit : Pour toi et 1% des joueurs oui. L'immense majorité, non. |
Donc 99% des joueurs sont aveugles
Marsh Posté le 06-07-2014 à 10:51:40
mini-mousaille a écrit : Pour toi et 1% des joueurs oui. L'immense majorité, non. |
c'est plutot l'inverse.... 90% des gens font largement la différence entre 30 et 60 FPS.
si ca concernait seulement 1% des joueurs, c'est à se demander pourquoi plein de gens cherchent à être à 50-60 FPS minimum....
Marsh Posté le 06-07-2014 à 10:54:39
Tout à fait. Et je doute qu'on aurait développé les écrans 120/144hz pour un marché de niche
Pour ma part, je ne perçois plus vraiment de différence à partir de 80 ips.
Marsh Posté le 06-07-2014 à 12:45:16
j'ai pas dis que je ne le voyais pas,mais que ce n'est pas tres genant si c'est des fps constant,et puis les 144hz c'est surtout pour les jeux de tir ,oui on distingue la difference,oui pour un bon joueur c'est important mais ce n'est pas forcement indispensable ça depend de chacun
Marsh Posté le 06-07-2014 à 13:08:37
david76600 a écrit : j'ai pas dis que je ne le voyais pas,mais que ce n'est pas tres genant si c'est des fps constant,et puis les 144hz c'est surtout pour les jeux de tir ,oui on distingue la difference,oui pour un bon joueur c'est important mais ce n'est pas forcement indispensable ça depend de chacun |
Là on est d'accord
Marsh Posté le 13-08-2014 à 00:26:48
Euh, le jeu PC c'est quoi ? League Of Legends, Warcraft, DOTA 2, etc.
Va demander à Kevin le nombre d'images par seconde que son PC portable peut afficher sur LOL, il s'en fout royal.
Par exemple, le marché des cartes graphiques supérieures à 300 euro, c'est 10 à 15% du marché des cartes graphiques. Marché qui lui même est déjà une niche dans le marché du jeu vidéo global.
Soyons sérieux deux secondes. Personne ou presque ne fait la différence entre 30 et 60 images par secondes. C'est un truc de nerdz, certes, plusieurs millions de nerdz mais au final, ça ne fait que quelques points de pourcentage de la masse des joueurs.
Après, je ne nie pas l'existence de ce marché de joueurs très technophiles passionnés qui fait le bonheur de certaines firmes (comme Nvidia) mais il est minoritaire, de loin.
Marsh Posté le 13-08-2014 à 01:00:15
La difference entre 30 et 60 fps m'est insupportable clairement .
Quand t'as gouté au 60 fps constant tu t'en passes plus
Marsh Posté le 13-08-2014 à 01:35:09
gizmodo62 a écrit : La difference entre 30 et 60 fps m'est insupportable clairement . |
vous avez pas connu wing commander III a 5-10fps...
Wep tu pissez du nez qud tu jouais à ça à l'époque.
Mais il est très claire qu'un fps en dessous de 40fps c'est pas bon du tout....
Marsh Posté le 13-08-2014 à 06:46:58
Je plussoie
Marsh Posté le 13-08-2014 à 07:46:42
Pour moi, le plus gros défaut actuellement du 4K et la pauvre disponibilité de dalle non-TN.
Pour cela que je me suis tourné il y peut vers du 1440p IPS 27p. c'est juste
et ca, ca pose pas de soucis a ma "pauvre" AMD 7950
Marsh Posté le 15-08-2014 à 13:16:14
Citation : Personne ou presque ne fait la différence entre 30 et 60 images par secondes. |
Bah nan, bien sûr
(Et "Personne ou presque", c'est un mec qui vit dans ta tête ? Ou tu as vraiment organisé un sondage ?)
Marsh Posté le 15-08-2014 à 22:41:22
Non non ça ne ce voit pas...
http://frames-per-second.appspot.com/
Pour en revenir au sujet, comme dit précédemment, impossible sans sli (et encore...) à mon avis faudra attendre les hypothétique 890/titan 2
pour pouvoir espérer tenir du 4k de façon fluide en mono gpu.
Maintenant je comprend pas ce qu'ont les gens avec la 4k..
Je préférai mille fois avoir un écran 1080p en oled, donc sans rémanence, avec des contrastes de folie que du 4k sur des ecran tn de me***
Saloperie de marketing
Marsh Posté le 15-08-2014 à 23:25:57
bugfx32 a écrit : Non non ça ne ce voit pas... http://frames-per-second.appspot.com/ Pour en revenir au sujet, comme dit précédemment, impossible sans sli (et encore...) à mon avis faudra attendre les hypothétique 890/titan 2 Maintenant je comprend pas ce qu'ont les gens avec la 4k.. |
+1000
Mais le 4K est quand même plus agréable en utilisation bureautique.
Sinon sympa le site là, on voit bien la différence.
Marsh Posté le 15-08-2014 à 23:32:37
mrdoug a écrit : |
ouep, je le connaissais pas celui la , pas mal
Marsh Posté le 15-08-2014 à 23:33:16
ReplyMarsh Posté le 16-08-2014 à 09:04:25
mini-mousaille a écrit :
Va demander à Kevin le nombre d'images par seconde que son PC portable peut afficher sur LOL, il s'en fout royal. Par exemple, le marché des cartes graphiques supérieures à 300 euro, c'est 10 à 15% du marché des cartes graphiques. Marché qui lui même est déjà une niche dans le marché du jeu vidéo global. Soyons sérieux deux secondes. Personne ou presque ne fait la différence entre 30 et 60 images par secondes. C'est un truc de nerdz, certes, plusieurs millions de nerdz mais au final, ça ne fait que quelques points de pourcentage de la masse des joueurs. Après, je ne nie pas l'existence de ce marché de joueurs très technophiles passionnés qui fait le bonheur de certaines firmes (comme Nvidia) mais il est minoritaire, de loin. |
Je crois que même les kevin sont pas super fan d un pc qui saccade ou qui ram ! je connais personne qui est content d'un pc qui n est pas fluide même dans les gents qui n'y connaisse pas grand choses...
C'est juste qu'ils ne save pas pourquoi il saccade du coup indirectement il cherche les 60 Ips sauf que plutôt que d acheter une carte graphique ils change de pc tout court pour avoir un pc fluide...
et je peut t'assuré qu'il y a beaucoup de différence en 30 et 60ips car a 60ips t est parfaitement synchronisé avec l écran du coup tu a une grande fluidité c est le principe de la sync-v car même si tu a 150 ips tu seras pas fluide car ton écran ne Essai d afficher 2 voir 3 images mais qu'il n y arrive plus .
Pour la 4k je conseille plutôt un sli de 780 gtx voir plus (780 ti ) et c est un minimum !! il faut mieux prendre chez nvidia car ati est pas encore au point sur la 4k (problèmes de pilotes et les branchement pour les écran ne sont pas adaptée sur leurs cartes) de plus nvidia travaille sur une technologie pour synchronisé l écran la et la carte graphique pour être tres fluide même a 30 ips c est "G-sync" ou c est l'écran qui se sycronise avec ton fps comme sa tu n'a pas besoin de monter a 60 ips pour etre fluide donc tres intéressant avec la 4k vue que sa va etre dur de monter a 60Ips mais les écran 4k avec cette technologie sont tres cher et il ne doit y en avoir que 1 ou 2... mais bon si tu veut un pc 4k il faut lacher des euros quoi qu'il arrive
Edit :
- un seul écran G-sync en 4 k
http://www.materiel.net/ecran-pc-l [...] 07056.html a 650 euros...
Marsh Posté le 16-08-2014 à 09:23:16
mini-mousaille a écrit : |
Oulala il te faut des lunettes pour ne pas voir de différence entre 30 et 60 Img/s !!!!
Marsh Posté le 16-08-2014 à 09:47:33
netpower a écrit : |
c'est une simulation complètement bidon et qui n'a rien de réaliste.
site pourri.
Marsh Posté le 16-08-2014 à 09:51:39
bugfx32 a écrit : Non non ça ne ce voit pas... |
le contraste n'a jamais été un critère très important pour un pc, sauf pour un usage vidéo. Mais en jeu, bureautique, internet, photo, le contraste est le dernier des critères à prendre en compte.
j'ai un écran Eizo série Color graphic avec un contraste que tu qualifierais de pourri (700:1 à tout casser), seulement voila : l'image est excellente, y compris en jeux.... parce qu'il y a bien d'autres critères plus importants que le contraste.
si tu t'y connaissais en écran, tu aurais d'autres arguments.
Marsh Posté le 16-08-2014 à 09:54:30
mini-mousaille a écrit : |
soyons sérieux 2 secondes comme tu dis...... ce n'est pas parce que toi tu ne fais pas la différence entre 30 et 60 FPS que c'est pareil pour tout le monde.....
faut vraiment avoir de la merde dans les yeux pour ne pas faire la différence entre 30 et 60 FPS sur des FPS.....
Marsh Posté le 16-08-2014 à 10:56:56
L'écran G-sync conseillé par Yendal peut être une solution pour limiter le besoin en puissance GPU tout en conservant un résultat relativement fluide. Ceci dit, il est plus cher de 150 euros que le modèle UHD 28" de Samsung.
Quoi qu'il en soit, l'aventure UHD vaut le coup et il serait dommage de s'en priver. Lorsque le(s) GPU(s) encaissent mal par rapport aux gros jeux, il y a des solutions (écran G-sync, reste a voir les retours concernant l'efficacité de cette techno), suppression des filtres peu utiles dans les options graphiques des jeux. Dans le pire des cas, même la solution d'attente qui consiste a jouer en 1080p et profiter de tout le reste en UHD (bureau, video, photos), est appréciable. Les GTX880 ne devraient pas tarder a débarquer, pour un tarif a priori inférieur a celui de la 780 a sa sortie, et, parait il, environ 20% de perfs en + par rapport a la 780ti.
Marsh Posté le 16-08-2014 à 12:15:48
proximacentauri a écrit : L'écran G-sync conseillé par Yendal peut être une solution pour limiter le besoin en puissance GPU tout en conservant un résultat relativement fluide. Ceci dit, il est plus cher de 150 euros que le modèle UHD 28" de Samsung. |
D’après le site les numériques l G-sync fonctionne mais elle est couteuse !
on apprend aussi que amd se lance dans le même style de technologie mais que rien n est fait... je crois que c est un coup d'esbroufe pour garder des client intéresser par cette tech
mais si c est vrai c est une bonne choses car se seras surement moins couteux chez ati
http://www.lesnumeriques.com/monit [...] a1794.html
Mais je crois qu'il seras presque obligatoire d utiliser se genre de technologie pour le jeux fluide en 4k dans les début en tout cas la 4 k est vraiment très gourmande...
a moins de metre 4 gpu et de cracher 4000 euros dans une machine et encore je ne crois pas que l on resterai a 60Ips stable ...
Marsh Posté le 16-08-2014 à 13:44:57
Ybendal a écrit : |
Pourquoi spécialement des 780 ? Alors que chez AMD ca fonctionne mieux, c'est plus perf, et moins cher ?? Faut m'expliquer
Perso je tourne avec un CF de 290 que j'ai OC en uhd et tout les jeux tourne sans aucun soucis, le seul pour l'instant c'est BF4 que je mets en ultra, mais je dois baisser d'un cran 2 3 options c'est tout. Et quand tu vois le prix d'un CF de 290 comparé au prix des 780, il n'y a pas photos...
Pour le freesync AMD faut lire les news HFR http://www.hardware.fr/news/13841/ [...] n-1-0.html
Marsh Posté le 16-08-2014 à 14:02:59
Corleone_68 a écrit : |
Encore un PRO AMD !!!
Marsh Posté le 16-08-2014 à 14:07:00
Corleone_68 a écrit : Pourquoi spécialement des 780 ? Alors que chez AMD ca fonctionne mieux, c'est plus perf, et moins cher ?? Faut m'expliquer Perso je tourne avec un CF de 290 que j'ai OC en uhd et tout les jeux tourne sans aucun soucis, le seul pour l'instant c'est BF4 que je mets en ultra, mais je dois baisser d'un cran 2 3 options c'est tout. Et quand tu vois le prix d'un CF de 290 comparé au prix des 780, il n'y a pas photos... Pour le freesync AMD faut lire les news HFR http://www.hardware.fr/news/13841/ [...] n-1-0.html |
j ai expliqué pourquoi une préférence pour Nvidia !! pour la G-sync , les sortie mieux adaptée chez nvidia , et comme j ai dit aussi il y a pas mal de problemes de pilotes en 4k chez amd... du coup beaucoups de jeux sont obliger de fonctioner a 30hz max car en 60hz il y a des bugs
Bref la 4k chez nvidia est plus abouti ! mais c est vrai que raport prix/perf est meilleur chez ati , mais comme on parle de se qui serais le plus performant c est pour cela que l on parle de nvidia pour le coup !
et comme je disais en haut le freesync de chez amd est UN PROJET !! et Gsync de nvidia est déja fonctionnel !!
et j ai aussi dit que c est une bonne choses que amd se lance sur cette technologie car se seras moins cher !
donc en bref tu a rien lu de se que j ai posté...
si tu est toujours sceptique : http://www.clubic.com/carte-graphi [...] 295x2.html
sur la plupart des test le sli de 780 ti fonctionne mieux
Marsh Posté le 16-08-2014 à 14:25:32
A lire l'article des num, le g-sync est plutôt convaincant.
Quant au freesync d'AMD, alléchant sur le papier et a priori compatible avec davantage d'écrans, on peut rester perplexe tant que ce n'est pas fait. Rappelons nous au passage la question de la 3D 120hz. Amd avait communiqué très tôt sur le fait qu'ils allaient proposer une solution concurrente a 3D vision, mais le moins que l'on puisse dire, c'est que cela s'est longuement fait attendre, et que leur solution sortie bien après la fin de la partie a connu peu de succès. Alors, bis repetita a propos du freesync ?
Marsh Posté le 16-08-2014 à 14:30:00
proximacentauri a écrit : A lire l'article des num, le g-sync est plutôt convaincant. |
+1 !
Marsh Posté le 16-08-2014 à 14:56:18
kilidan a écrit : Encore un PRO AMD !!! |
Hein
Regarde par toi même c'est juste un fait http://www.hardware.fr/articles/92 [...] ances.html
Ybendal a écrit : j ai expliqué pourquoi une préférence pour Nvidia !! pour la G-sync , les sortie mieux adaptée chez nvidia , et comme j ai dit aussi il y a pas mal de problemes de pilotes en 4k chez amd... du coup beaucoups de jeux sont obliger de fonctioner a 30hz max car en 60hz il y a des bugs Bref la 4k chez nvidia est plus abouti ! mais c est vrai que raport prix/perf est meilleur chez ati , mais comme on parle de se qui serais le plus performant c est pour cela que l on parle de nvidia pour le coup ! et comme je disais en haut le freesync de chez amd est UN PROJET !! et Gsync de nvidia est déja fonctionnel !! et j ai aussi dit que c est une bonne choses que amd se lance sur cette technologie car se seras moins cher ! donc en bref tu a rien lu de se que j ai posté... si tu est toujours sceptique : http://www.clubic.com/carte-graphi [...] 295x2.html sur la plupart des test le sli de 780 ti fonctionne mieux |
Mieux abouti sur nV ? C'est pour ca que dans tout les tests Damien et Marc précisent que les R9 ont en général (sauf cas particulier) une meilleur tenue de performance en uhd, là ou les 780 et compagnie chutent ?? Regarde le test de "confort" de jeux sur HFR, c'est plus agréable sur R9... Faut arrêter avec votre pro/fanboy AMD, j'ai eu beaucoup plus de carte NV dans ma vie que de ATI/AMD alors stop... Je me contente de regarder les tests de personnes professionnel et confirmer la chose en utilisation pratique c'est à dire de ce servir de ce matos pour jouer ou autre...
proximacentauri a écrit : A lire l'article des num, le g-sync est plutôt convaincant. |
D'après la news le freesync serait pour fin d'année...
La 3D avec AMD ?
Ca fait des années que je joue en 3D avec une carte AMD, je ne comprends pas trop ce que tu dis
Ce n'est pas récent du tout et sans devoir avoir plein de matos compatible, rien, juste un logiciel quo coute 30 euros.
Marsh Posté le 16-08-2014 à 16:08:12
Corleone_68 relis ton test et tu remarquera qu'ils prefere ne pas utiliser les filtres style le msaa sur bf4 , le AA sur Crysis 3 ou les nvidia font mieux pas tres impartial de leurs part...
et je ne crois pas qu'ils utiline le physX
compare les deux test et tu verras
apres perso nvidia ou ati sa me passe par dessu...
Marsh Posté le 16-08-2014 à 16:25:51
proximacentauri a écrit : L'écran G-sync conseillé par Yendal peut être une solution pour limiter le besoin en puissance GPU tout en conservant un résultat relativement fluide. Ceci dit, il est plus cher de 150 euros que le modèle UHD 28" de Samsung. |
Pour l'instant, windows et une bonne partie des programmes ne sont pas adaptés au 4K. ce qui se traduit par une taille rikiki du text.....
bref, faut attendre!
Marsh Posté le 16-08-2014 à 16:37:38
Arrêtez de lui répondre laissez le dans son délire, rien de ce que vous lui écrirez ne lui fera voir autre chose que ce qu'il pense !!!
Marsh Posté le 06-07-2014 à 00:04:53
Bonjour tout le monde, ceci est mon tout premier sujet sur ce forum
Tout cela pour une petite questionse :
Si ma configuration comprend :
-Un pc compatible avec la 4K,
-Une carte graphique; également compatible avec la 4K,
-Un écran 4K.
-Un jeu avec les graphiques 4K
Est-ce qu'a partir du jeu, a partir des paramètres, je pourrait sélectionner l'option 3 840 × 2 160 pixels ?
Merci pour vos réponses !
---------------
sss