Est-il important d'avoir le DVI sur un écran ? - Ecran - Hardware - Périphériques
Marsh Posté le 06-02-2007 à 14:35:41
Ca ne joue en rien sur la qualité d'affichage, et il n'est pas nécessaire d'appuyer sur AUTO souvent, depuis 3 mois je ne l'ais fait qu'une fois.
Marsh Posté le 06-02-2007 à 14:37:40
Le DVI étant numérique, l'écran n'a pas besoin de recalibrer le signal, tout est automatique et toujours parfaitement cadré quelle que soit la résolution. Donc plus besoin d'appuier sur AUTO et si tu travailles en résolution native, les pixels seront parfaitement alignés (donc tu as toujours la netteté maximale), tu peux avoir le même résultat en VGA mais faut appuier sur auto et parfois toucher aux paramètres à la main.
Le DVI sur l'écran n'est pas obligatoire, car la sortie DVI des ordinateurs est du type DVI-I (contient à la fois le signal numérique mais aussi le signal analogique) donc tu peux utiliser un adaptateur DVI->VGA si ton écran ne possède qu'une entrée VGA.
Pour résumer : le DVI n'est pas obligatoire mais c'est plus simple.
Marsh Posté le 06-02-2007 à 14:42:08
Je ne vais pas en revenir en détails sur ce point car il a déjà été discuté à de nombreuses fois sur ce forum, mais en plus du fait que ça soit plus pratique, la qualité de l'affichage en DVI est aussi meilleure qu'en VGA (pas juste en théorie, mais aussi en pratique).
EDIT: voilà un topic (il y en a d'autres) où on a discuté de ce sujet: http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
Marsh Posté le 06-02-2007 à 15:37:10
Je vous remercie de vos réponses, je vais réfléchir sur mon choix d'écrans.
Marsh Posté le 06-02-2007 à 20:39:16
ça dépend de l'écran ET de la carte graphique donc tu as 9 chances/10 de pas voir de différence
vaux mieux avoir un ecran qui affiche bien, en vga qu'une daube en dvi (qui a dit tn ?)
Marsh Posté le 06-02-2007 à 20:44:11
mon écran est légèrement plus précis dans l'affichage en DVI qu'en VGA, je ne sais pas si c'est une question de connecteur, de câble ou d'électronique d'écran (edit : ou de carte graphique) mais j'ai aussi remarqué celà.
Marsh Posté le 06-02-2007 à 20:47:42
scottsummer a écrit : ça dépend de l'écran ET de la carte graphique donc tu as 9 chances/10 de pas voir de différence |
j'ai un écran à dalle TN qui est parfaitement net, ça vaut peut-être pour des sous-marques mais des marques connues et renommées je n'ai encore jamais vu de problèmes dans la qualité d'affichage en DVI
Marsh Posté le 06-02-2007 à 21:50:25
scottsummer a écrit : ça dépend de l'écran ET de la carte graphique donc tu as 9 chances/10 de pas voir de différence |
Non... crois-moi ou pas mais c'est faux.
Et les écrans "qui affichent bien" ont la plupart une entrée DVI (ou alors il existe une autre version avec DVI pour ~50 de plus, et ces 50 valent la peine d'être dépensés).
Voilà un topic (il y en a d'autres) où on a discuté de ce sujet: http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
Marsh Posté le 07-02-2007 à 07:38:41
Ben écoutes j'ai deux écrans, un Viewsonic 17" TN et un Dell 20" S-IPS, chacun avec DVI et VGA, et je met n'importe qui au défi de voir une différence entre les deux entrées.
La seule vrai différence, c'est qu'en VGA l'écran se désynchronise légèrement avec l'effet flou qui va avec, et un petit tour dans l'OSD pour re-synchroniser suffit à résoudre le problème.
J'ai lu qq part par contre que sur certains écrans pas cher avec DVI, l'entrée VGA est de moins bonne qualité pour une raison de coût (les constructeurs rogneraient sur le convertisseur que ça ne serait pas étonnant)
C'est pas parce qu'il existe des problèmes certains avec le VGA, dont les fameux flous, qu'on ne peut pas avoir un signal VGA de qualité avec un affichage parfait équivalent au DVI.
Inversement ce n'est pas parce que l'entrée DVI est souvent meilleure (pour la raison théorique évidente qui s'applique en pratique) que toutes les entrées DVI sont exempt de problèmes. J'ai déjà vu ce qui s'apparente à du balayage sur une entrée DVI car la fréquence envoyé par la carte graphique (et définie par l'EID de l'écran) n'était pas exact.
La réponse n'est pas le DVI est meilleur que le VGA, la réponse est le DVI est souvent meilleur que le VGA sur les écrans à double entrée, le VGA est parfait sur la plupart des écrans sans DVI mais les différents défauts inhérent au VGA peuvent apparaître et surtout sur le bas de gamme.
Marsh Posté le 07-02-2007 à 08:22:38
Le DVI est plus pratique car il y a besoin de beaucoup moins de réglage pour avoir une bonne image. De plus, seul le DVI permet d'utiliser l'écran en basse résolution ou en 4/3 pour les écrans larges sans interpolation en ajoutant des bandes noires sur les côtés.
Marsh Posté le 07-02-2007 à 08:46:27
Bonjour,
Et qu'en est il des 5 fiches BNC, est ce que ça améliore l'image?
Il existe aussi le même cable en VGA, mais il ne doit pas avoir de différence avec le DVI vu que c'est de l'analogique.
Marsh Posté le 07-02-2007 à 09:25:19
Vu les couleurs des cables ca doit être du composantes (connectique BNC -> matos professionnel) C'est de l'analogique, signal à peu près équivalent à du VGA par contre inutilisable sur du matos grand public.
Marsh Posté le 07-02-2007 à 10:48:49
orb9 a écrit : Ben écoutes j'ai deux écrans, un Viewsonic 17" TN et un Dell 20" S-IPS, chacun avec DVI et VGA, et je met n'importe qui au défi de voir une différence entre les deux entrées.
La réponse n'est pas le DVI est meilleur que le VGA, la réponse est le DVI est souvent meilleur que le VGA sur les écrans à double entrée, le VGA est parfait sur la plupart des écrans sans DVI mais les différents défauts inhérent au VGA peuvent apparaître et surtout sur le bas de gamme. |
Je l'ai déjà dit, je n'ai pas envie de rediscuter de ça "en profondeur" alors que ça a déjà été fait à différents endroits dans ce forum... et de tte façon j'ai déjà donné ce lien dans mon message précédent et je ne peux pas dire plus que ce que preshovich et moi y avons déjà dit... après chacun croit ce qu'il veut, ça m'est égal.
Marsh Posté le 07-02-2007 à 10:59:58
Ce n'est pas parce que deux personnes affirment quelque chose qu'elle est forcément vraie.
Je comprend totalement que tu ne veuilles pas revenir sur le sujet, mais je voulais juste dire que la réponse n'est pas aussi simple. Dans ton expérience tu as sûrement raison, je ne vois pas pourquoi tu diras cela en l'air, mais dans mon expérience ce n'est pas vraie, et à moins que tu considères mon expérience comme caduque, ton affirmation est a nuancée.
Oui le DVI est plus pratique pour tout un tas de raisons, oui il est plus facile avec d'avoir une image correcte, mais cela n'implique pas qu'un bon VGA soit forcément inférieur.
Marsh Posté le 07-02-2007 à 11:17:40
Tout dépend de l'écran effectivement, mais si la conversion vga est de qualité (ce qui est le cas sur bcp d'écrans), il n'y a pas de différence d'affichage.
C'est également ce que j'ai pu constater avec les écrans du boulot.
Et c'est également ce que constate des testeurs:
"DVI ou VGA : on lit parfois sur les forums que la prise DVI assure une meilleure réactivité et de plus belles couleurs. Honnêtement, après quelques centaines décrans passés entre mes mains et sous les sondes, ça nest jamais arrivé. Bien sur, linterface numérique est préférable. Déjà, elle évite une double conversion inutile du signal. Mais nous lavons vérifié, cette conversion ninduit pas de retard supplémentaire à lécran et elle est généralement très bien faite. Dans le cas contraire, si limage est un peu floue, il suffit de lancer la fonction "Auto" pour récupérer une image bien nette."
Comment on peut soutenir que le dvi offre une meilleure qualité d'affichage si les autres ne le voient pas?
C'est comme soutenir à qqn qui se sent triste qu'en fait il ne l'est pas, ça n'a pas de sens.
"si si je t'assure c'est mieux!!"
"ah mais moi je ne vois rien"
Donc, je suis aveugle? Il voit mieux que moi?
Après, je suis persuadé que bcp de soit disant différences d'affichages, a priori liées à la meilleure qualité du dvi, sont en fait liés au fait qu'on s'auto persuade que le dvi c'est forcément mieux, de part tout ce qu'on a pu lire à droite et à gauche.
D'autant que les écrans ne sont pas calibrés pareillement, ni possédant nécessairement la même dalle, le même temps de réponses, ni les mêmes réglages, etc.
Donc, une différence d'affichage, imputée à la différence de connexion, peut très bien être liée à autre chose.
Bref, jusqu'ici je n'ai lu encore preuve concrète, ni de part les tests, ni de part mes yeux.
Et, dans mon cas, l'absence de preuve conclu à l'absence de vérité.
Est-ce important d'avoir le DVI?
Oui et non.
Tout dépend de ton utilisation et du prix.
Le DVI est plus pratique, et offre un support HDCP (en fonction de l'écran), mais n'améliore en rien la qualité visuelle.
Voilà ce que je pense, et peu importe les arguments "pro dvi", mes yeux ont déjà statué.
Marsh Posté le 07-02-2007 à 11:46:06
Encore une fois, je ne vais pas répéter ce qui a déjà été dit par preshovich et moi dans l'autre topic...
Après si certains ne veulent absolument pas croire que le DVI c'est mieux que le VGA pour les LCD et préfèrent continuer à utiliser le VGA, tant pis pour eux, ce n'est pas mon problème...
Pour ceux qui veulent acheter un nouveau LCD, je ne peux que vous conseiller d'en prendre un qui a une entrée DVI (et de l'utiliser!), même s'il est un peu plus cher.
Marsh Posté le 07-02-2007 à 11:54:27
Ah, y a deux individus qui disent deux choses similaires et dautres qui disent le contraire, et on doit acquiescer en votre faveur ?
De part cet argument autoritaire, je dois en conclure que vous êtes deux spécialistes émérites, et que les autres nont pas les compétences nécessaires pour statuer de ce qui est vrai ou non.
Curieux comme mentalité.
Bien sur l'interface dvi est préférable, mais il ne faut pas lui inventer des qualités qu'elle n'a pas, voilà tout.
Marsh Posté le 07-02-2007 à 11:55:39
god is dead a écrit : Ah, y a deux individus qui disent deux choses similaires et d%u2019autres qui disent le contraire, et on doit acquiescer en votre faveur ? |
Très bonne conclusion, t'as tout compris
En fait, c'est plutôt que tout ce que tu dis a déjà été répondu dans l'autre topic (lis le en entier et tu t'en rendras compte), donc je ne vois pas l'intérêt de tout répéter...
Marsh Posté le 07-02-2007 à 11:59:08
Tu n'es pas obligé de le répéter, tu es un spécialiste, n'oublie pas.
Moi pas, donc je peux
Marsh Posté le 07-02-2007 à 12:01:36
Le topic que tu indiques n'a aucun véritable argument, les pro dvi se contente de dire : c'est tout numérique donc c'est meilleur.
Je suis moi même en dvi sur un des écrans, preuve que je n'ai rien contre cette connectique, la n'est pas le problème. Personne n'est pro vga contre le dvi il me semble, on est contre l'affirmation que le vga est forcement moins bon que le dvi.
Marsh Posté le 07-02-2007 à 12:03:36
L'avantage du spécialiste, c'est qu'il peut affirmer des choses sans en apporter la preuve concrète... bon ok en l'occurence ça fait rire, parce qu'il n'est pas plus spécialiste que les autres, mais bon.
Marsh Posté le 07-02-2007 à 12:24:16
Citation : Tout dépend de l'écran effectivement, mais si la conversion vga est de qualité (ce qui est le cas sur bcp d'écrans), il n'y a pas de différence d'affichage. |
Ca dépend surtout de la carte graphique. Après tout, c'est elle qui génère le signal analogique, tâche beaucoup plus complexe que le convertisseur ADC de l'écran (qui ne fait pas grand-chose de plus que d'échantillonné le signal à intervalle régulier).
Avec une bonne Matrox, je doute qu'on puisse voir la moindre différence. Avec une carte noname d'entrée de gamme, par contre...
Marsh Posté le 07-02-2007 à 12:26:04
Pas spécialement besoin d'une Matrox.
Les cartes récentes, même bas de gamme, assure une bonne conversion vga.
Mon ancienne 9200se en était capable.
Marsh Posté le 07-02-2007 à 12:29:56
god is dead a écrit : Tout dépend de l'écran effectivement, mais si la conversion vga est de qualité (ce qui est le cas sur bcp d'écrans), il n'y a pas de différence d'affichage. D'autant que les écrans ne sont pas calibrés pareillement, ni possédant nécessairement la même dalle, le même temps de réponses, ni les mêmes réglages, etc.
Voilà ce que je pense, et peu importe les arguments "pro dvi", mes yeux ont déjà statué. |
orb9 a écrit : Le topic que tu indiques n'a aucun véritable argument, les pro dvi se contente de dire : c'est tout numérique donc c'est meilleur. |
C'est vraiment si difficile à comprendre qu'en VGA il y a une double conversion (totalement inutile) du signal et que ça provoque de toute façon une perte de qualité? Combien va dépendre des convertisseurs et du câble, or la plupart des gens utilisent ceux fournis avec la carte graphique et/ou l'écran, et ce n'est de loin pas l'idéal (si on veut en acheter des meilleurs, c'est le seul argument en faveur du VGA (le prix) qui s'envole car ça coûtera au moins aussi cher que de prendre un LCD avec DVI...).
Marsh Posté le 07-02-2007 à 12:41:10
Ça c'est la théorie, et je suis bien d'accord que dans l'absolu il est préférable d'éviter une double conversion inutile si possible.
Par contre dire que l'on perd automatiquement en qualité c'est faux, même avec le câble d'origine, il n'y a de preuve que l'expérience personnelle du testeur.
Qu'est ce que tu veux que te dise, je n'ai aucun intérêt a conseiller le VGA par rapport au DVI, je ne touche pas de commission sur les vente de connecteurs dsub
, et d'ailleurs je ne conseille pas le VGA par rapport au DVI, je répond à la question.
Affirmer que la qualité d'affichage du VGA est forcément moins bonne qu'en DVI sur le simple fait qu'il ait double conversion, je nesuis pas d'accord. En VGA, avec un auto adjust de tant en tant, tout est aussi net qu'en DVI, et la calibration couleur se fait aussi bien. Alors à moins de me prouver que le DVI est plus net que net
Marsh Posté le 07-02-2007 à 12:44:12
orb9 a écrit : Ça c'est la théorie, et je suis bien d'accord que dans l'absolu il est préférable d'éviter une double conversion inutile si possible. |
Tu te contredis toi-même dans tes 2 phrases: pkoi dans l'absolu c'est préférable d'éviter une double conversion inutile si on ne perd pas automatiquement en qualité?
orb9 a écrit : Affirmer que la qualité d'affichage du VGA est forcément moins bonne qu'en DVI sur le simple fait qu'il ait double conversion, je nesuis pas d'accord. En VGA, avec un auto adjust de tant en tant, tout est aussi net qu'en DVI, et la calibration couleur se fait aussi bien. Alors à moins de me prouver que le DVI est plus net que net... |
Lis cet article que j'ai donné juste avant: http://firingsquad.com/hardware/19 [...] /page5.asp
Marsh Posté le 07-02-2007 à 12:54:44
Citation : Combien va dépendre des convertisseurs et du câble, or la plupart des gens utilisent ceux fournis avec la carte graphique et/ou l'écran, et ce n'est de loin pas l'idéal |
De loin? Si le cable fourni avec un écran n'offre pas une bonne qualité (avec une distance PC-écran normale bien entendu), c'est qu'il est défectueux. Ce genre d'argument me fait penser à ceux qui défendent les cbles hors de prix pour leur installation audio (même si il n'y a en pratique aucune différence mesurable).
Citation : C'est vraiment si difficile à comprendre qu'en VGA il y a une double conversion (totalement inutile) du signal et que ça provoque de toute façon une perte de qualité? |
La question est "Cette double perte de qualité est-elle perceptible?".
Le mp3 aussi provoque une perte de qualité. Pourtant, comme démontré dans des tests en double aveugle, un mp3 à 256kbps n'est pas différentiable du fichier wav originel.
Ca n'empêche pas les puristes de ne jurer que par les formats "sans pertes". C'est le même problème ici, si la dégradation n'est pas perceptible, il est ridicule de cracher sur ceux aui préfèrent la solution moins chère/plus pratique.
Marsh Posté le 07-02-2007 à 12:56:36
Apprends à lire, nulle part je dis qu'on perd en qualité.
Dans l'*absolu*, comme indiqué, il est évident qu'il est préférable de faire
Numérique -> Numérique que
Numérique -> Analogique -> Numérique
car il y a statistiquement plus de chance de corruption.
En pratique, sur mon écran, il n'y a aucune différence, tout est aussi net en DVI qu'en VGA.
Alors à la question posée "Le DVI est il obligatoire pour avoir une image nette", je répond non, en VGA mes pixels sont bien là ou ils doivent être, sans flou, sans vibration sans rien
mais je dois être aveugle.
Marsh Posté le 07-02-2007 à 13:00:21
Blue Apple a écrit :
Le mp3 aussi provoque une perte de qualité. Pourtant, comme démontré dans des tests en double aveugle, un mp3 à 256kbps n'est pas différentiable du fichier wav originel. Ca n'empêche pas les puristes de ne jurer que par les formats "sans pertes". C'est le même problème ici, si la dégradation n'est pas perceptible, il est ridicule de cracher sur ceux aui préfèrent la solution moins chère/plus pratique. |
Dis-moi juste: prétends-tu aussi qu'il n'y a pas de différence de qualité entre un écran en DVI ou VGA?
Au fait, en quoi le VGA est plus pratique? C'est plutôt l'inverse...
Et lis l'article que j'ai donné juste avant, tu verras bien qu'avec les câbles/convertisseurs d'origine, il y a bien une différence facilement visible.
Et je ne crache pas sur ceux qui préfèrent la solution moins chère, je dis juste qu'il y a bien des différences entre DVI et VGA sur un LCD (c'était la question originale, non?).
orb9 a écrit : Apprends à lire, nulle part je dis qu'on perd en qualité. En pratique, sur mon écran, il n'y a aucune différence, tout est aussi net en DVI qu'en VGA. Alors à la question posée "Le DVI est il obligatoire pour avoir une image nette", je répond non, en VGA mes pixels sont bien là ou ils doivent être, sans flou, sans vibration sans rien%u2026 mais je dois être aveugle. |
C'est toi qui ne sait pas lire...
La question d'origine est: "[...] je voudrais savoir s'il vaut mieux que j'achète des moniteurs équipés de DVI ou est-ce sans importance? [...] est-ce que dans 2 ans les cartes graphiques ne seront pas équipées que de ports DVI, et cela joue-t-il sur la netteté de l'image, est-il nécessaire d'appuyer à chaque démarrage sur la touche auto afin d'avoir une image nette?"
La réponse est: oui, le DVI joue sur la netteté de l'image, oui en VGA il faut appuyer sur la touche auto pour avoir une image nette (ptêtre pas tjrs à chaque démarrage, ça dépend) et oui les cartes graphiques dans 2 ans auront plus que des ports DVI (c'est déjà le cas sur la plupart des modèles haut de gamme) mais on pourra utiliser un convertisseur pour les brancher sur les écrans VGA (jusqu'au jour où ça sera plus que du DVI-D et non du DVI-I, en fait même là ça sera tjrs possible de le faire, mais le convertisseur coûtera presque le prix de l'écran).
Marsh Posté le 07-02-2007 à 13:14:08
Et alors? La plupart des DVI sont des DVI-I, les écrans sans DVI ne vont pas miraculeusement devenir obsolètes.
Oui le DVI joue sur la netteté, dans le sens qu'en VGA il faudra peut-être appuyé sur auto de temps en temps pour récupérer la synchro, ce qui n'est pas nécessaire en DVI.
Donc oui si tu veux le DVI est net tout le temps et pas le VGA puisqu'il lui arrive de se flouter, auquel cas il faut appuyer sur auto
Marsh Posté le 07-02-2007 à 13:15:10
Le mien ne se floutte pas
Marsh Posté le 07-02-2007 à 13:32:38
Citation : Dis-moi juste: prétends-tu aussi qu'il n'y a pas de différence de qualité entre un écran en DVI ou VGA? |
Je ne prétends que ce qui est mis dans mes post, à savoir que la différence entre une connexion VGA et DVI n'est pas forcément perceptible (fait qui dépends à la foi du matériel ainsi que de l'utilisateur).
Citation : Et lis l'article que j'ai donné juste avant, tu verras bien qu'avec les câbles/convertisseurs d'origine, il y a bien une différence. |
Il n'y a aucun test de cable. Et un seul moniteur testé. Et la carte graphique n'est pas mentionnée (si c'est une carte nVidia, je ne suis pas étonné par le résultat).
Citation : Et je ne crache pas sur ceux qui préfèrent la solution moins chère, je dis juste qu'il y a bien des différences entre DVI et VGA sur un LCD (c'était la question originale, non?). |
Alors prouve-le avec un test en double aveugle.
Marsh Posté le 07-02-2007 à 13:43:29
Blue Apple a écrit :
|
Voilà encore un article qui explique pkoi le DVI est mieux pour les écrans LCD: http://www.thesmallest.com/lessonettes/dviandvga.html
Et un autre qui confirme que même si elle n'est pas visible par tout le monde, la différence existe bel et bien: http://reviews.cnet.com/4520-3174_7-5136369-1.html
Marsh Posté le 07-02-2007 à 14:10:28
Citation : On est d'accord et je l'ai déjà dit: tout le monde ne remarquera pas forcément la différence (tout comme certains ne voient pas de rémanance sur des écrans 25ms ou de fourmillement lors de la lecture de videos sur des dalles TN), mais elle existe bel et bien et certains la voient... |
Le problème, c'est que, comme expliqué dans l'article de http://www.thesmallest.com/lessonettes/dviandvga.html, il n'y a pas automatiquement dégradation du signal.
La carte graphique génère trois mots de 8 bits par pixel. En VGA, ces mots sont traduits en un signal à 256 niveaux. En DVI, en une succession de 8 signaux à 2 niveaux. Si l'électronique de la carte et celle du moniteur sont de bonne qualité, il n'y aura pas de différence entre les valeurs reçues dans les deux cas.
Oui, avec le DVI, il n'y a aucun risque de déphasage comme en VGA. Oui, le signal est plus robuste et ne sera pas dégradé même avec des cables plus long/défectueux (quoique, contrairement au signal VGA, quand la dégradation commence c'est direct la neige alors quen VGA ça se fait progressivement). Oui, la connexion ne doit pas être calibrée (un pointage exact sur la phase et l'amplitude est nécessaire en VGA, d'où la fameuse touche AUTO).
Le DVI est clairement un progrès par rapport au standard VGA (mais ne va pas assez loin, un meilleur protocole devrait utiliser une interface paquetisée ce qui permettrait l'ajout de codes correcteurs d'erreur, du signalling out-of-band pour remplacer le DCC etc...).
Mais il est totalement faux de dire qu'une connexion en VGA a forcément un taux d'erreur supérieur à une connexion en DVI. Dans la plupart des cas il sera le même, à savoir 0%. Et dans ce cas, bien malin qui peut faire la différence...
Marsh Posté le 07-02-2007 à 14:18:48
Je vais faire une photo rapidement pour comparer, car les photos du texte sur ton article sont délirantes.
Test fait sur un Viewsonic VX715 TN 16ms, la carte graphique est une radeon 9500, il y a un câble VGA entre la sortie VGA de la carte et l'entrée VGA de l'écran, et un câble DVI entre la sortie DVI de la carte et l'entrée DVI de l'écran.
C'est fait assez rapidement, je n'ai pas corrigé la colorimétrie etc., j'ai juste passé le tout dans photoshop pour avoir la même échelle mais je suis prêt à faire plus précis au besoin.
Désolé pour la taille mais je voulais qu'on puisse bien voir.
Spoiler : À gauche le VGA, à droite le DVI. |
Marsh Posté le 07-02-2007 à 14:20:29
Blue Apple a écrit :
La carte graphique génère trois mots de 8 bits par pixel. En VGA, ces mots sont traduits en un signal à 256 niveaux. En DVI, en une succession de 8 signaux à 2 niveaux. Si l'électronique de la carte et celle du moniteur sont de bonne qualité, il n'y aura pas de différence entre les valeurs reçues dans les deux cas. Oui, avec le DVI, il n'y a aucun risque de déphasage comme en VGA. Oui, le signal est plus robuste et ne sera pas dégradé même avec des cables plus long/défectueux (quoique, contrairement au signal VGA, quand la dégradation commence c'est direct la neige alors quen VGA ça se fait progressivement). Oui, la connexion ne doit pas être calibrée (un pointage exact sur la phase et l'amplitude est nécessaire en VGA, d'où la fameuse touche AUTO). Le DVI est clairement un progrès par rapport au standard VGA (mais ne va pas assez loin, un meilleur protocole devrait utiliser une interface paquetisée ce qui permettrait l'ajout de codes correcteurs d'erreur, du signalling out-of-band pour remplacer le DCC etc...). Mais il est totalement faux de dire qu'une connexion en VGA a forcément un taux d'erreur supérieur à une connexion en DVI. Dans la plupart des cas il sera le même, à savoir 0%. Et dans ce cas, bien malin qui peut faire la différence... |
Tu l'as dit toi même qu'avec les cartes graphiques nvidia la différence se voit... et c'est ce que bcp de gens ont, donc ça contredit ce que tu dis par la suite (comme quoi dans la plupart des cas la différence entre un LCD en VGA et en DVI ne se remarquera pas).
Et des convertisseurs parfaits ça n'existe pas, il y aura de tte façon une perte, après comme je l'ai dit, je suis d'accord que pas tout le monde ne remarquera la différence.
L'article que tu donnes c'est celui que j'ai donné juste avant, et si tu le lis bien tu verras qu'ils disent que justemment le DVI est meilleur que le VGA pour les LCD, leur conclusion est: "In short, DVI provides a cleaner, faster, more precise display with hardware that supports it properly.".
Et relis le 1er post de ce topic et les question posées par dupont33 et dis-moi si tu trouves vraiment que la réponse que je lui ai donné (à savoir que si on achète un écran LCD maintenant il vaut mieux en prendre un qui a une entrée DVI) n'était pas la bonne?
Marsh Posté le 07-02-2007 à 17:23:16
Je viens aussi de prendre des photos (crops 100% sans aucune retouche) de l'écran de mon PC "serveur" avec une carte graphique ati (radeon 9800xt) car elles ont une meilleure sortie VGA que les nvidia selon Blue Apple, mes autres PC ont une nvidia et donc la différence aurait été encore plus grande, mais comme ça on ne pourra pas me sortir l'excuse: c'est uniquement à cause de la sortie VGA pourrie des nvidia.
Par contre, comme je l'ai dit, bcp de personnes ont des nvidia, c'est donc (si c'est vrai) une raison de plus de ne pas prendre un écran sans DVI, et même si vous avez une ati maintenant, rien ne vous dit que la prochaine ne sera pas une nvidia...
Dans le Bios:
Les lettres n'ont pas tout le temps la même largeur (c'est très flagrant entre le g et le e).
J'ai pris exprès ce cas car l'image du bios n'est pas dans la résolution native de l'écran, elle doit être agrandie pour être affichée en plein écran et on voit bien que le rendu final n'est pas le même, donc il y a bien des différences dans le traitement et dans l'image en DVI et VGA.
En parlant de ça, comme l'a dit alcidric2, seul le DVI permet d'utiliser l'écran en basse résolution ou en 4/3 pour les écrans larges sans interpolation en ajoutant des bandes noires sur les côtés.
Google:
En VGA, il y a un halo blanc bcp plus visible autour (surtout à droite) des lettres...
Et les photos en VGA sont après auto-ajustement... sans c'est assez logiqument pire (certains s'en sortent mieux que d'autres et il ne faut pas appuyer sur le boutton d'ajustement auto à chaque boot comme c'est la cas sur d'autres) comme on peut le voir dans cet article: http://firingsquad.com/hardware/19 [...] /page5.asp
Voilà, ça va être mon dernier post ici à ce sujet (à moins que j'arrive à retrouver le test dont j'ai parlé plus haut) car ça ne sert à rien de discuter de ça sur encore 10 pages, de tte façon chacun se fera son propre avis en fonction de ce qu'il a lu ici et sur l'autre topic et/ou de ce qu'il peut trouver ailleurs sur internet (où au moins 3/4 des articles disent qu'il vaut mieux utiliser le DVI).
Que tous ceux qui pensent que c'est la même chose et utilisent le VGA (alors qu'ils pourraient être en DVI) restent en VGA (d'ailleurs y'en a combien dans ce cas ici?), c'est leur problème... mais sachez que si vous êtiez en DVI la qualité d'affichage serait probablement meilleure et l'écran serait plus pratique à utiliser.
Pour ceux qui veulent acheter un nouveau LCD, je ne peux que vous conseiller d'en prendre un qui a une entrée DVI (et de l'utiliser!), même s'il est un peu plus cher.
Marsh Posté le 06-02-2007 à 14:27:59
Bonjour, je vais acheté 2 écrans pour faire du dual screen, je voudrais savoir s'il vaut mieux que j'achète des moniteurs équipés de DVI ou est-ce sans importance?
Sachant qu'il y a 4 ans environ, les cartes graphiques n'étaient équipées que d'un port VGA, aujourd'hui elle possèdent en plus le DVI, est-ce que dans 2 ans les cartes graphiques ne seront pas équipées que de ports DVI, et cela joue-t-il sur la netteté de l'image, est-il nécessaire d'appuyer à chaque démarrage sur la touche auto afin d'avoir une image nette?