sortie DVI ?

sortie DVI ? - Carte graphique - Hardware

Marsh Posté le 24-11-2005 à 09:30:41    

bonjour,
 
j ai une Carte Graphique GeForce 7800 GT - 256 Mo GDDR3 - VIVO - PCI express 16X leadtek
 
elle possede 2 sorties DVI
 
question simple: est-il mieux de la brancher directement en DVI sur mon moniteur (plat hyundai 19" LD+ qui possede 1 sortie DVI et normale) ou sortie VGA habituelle  avec l adaptateur fournit?
 
je me demande si en DVI la qualité est aussi bien.
 
merci

Reply

Marsh Posté le 24-11-2005 à 09:30:41   

Reply

Marsh Posté le 24-11-2005 à 10:59:22    

Sortie DVI ;)

Reply

Marsh Posté le 24-11-2005 à 11:00:15    

DVI c'est clair
 
L'image est bien plus jolie

Reply

Marsh Posté le 24-11-2005 à 12:04:15    

dvi egal numerique donc dvi a dvi pas de perte or dvi en vga (carte graphique) puis de vga a dvi ecran la tu a de la perte en plus tu as du tres bon materiel donc je pense que tu verra le difference

Reply

Marsh Posté le 24-11-2005 à 12:10:17    

merci à vous. j ai hate de check ce soir.

Reply

Marsh Posté le 24-11-2005 à 13:31:05    

Si tu as une carte avec une sortie DVI et un moniteur avec une sortie DVI, il faut rester en DVI de bout en bout.
 
Voila pourquoi:
 
Pour afficher sur un moniteur cathodique, les cartes devaient lui fournir un signal analogique, il y avait donc une conversion digitale=>analogique du signal par la carte, puis envoi par la prise VGA vers le moniteur.  
 
Les écrans LCD, eux, affichent un signal numérique, mais pour des raisons de compatibilité avec le matos existant, certains sont dotés d'une prise VGA. Ils faut donc qu'ils fassent une conversion analogique=>digital pour afficher.
 
Si on utilise le VGA, on a donc une conversion digitale=>analogique faite par la carte graphique pour transmettre via la prise VGA, puis une conversion analogique=>digitale faite par le moniteur LCD à l'arrivée.  
 
La sortie DVI permet de rester en numérique de bout en bout, et d'éviter ces deux conversions du signal.

Message cité 1 fois
Message édité par groux le 24-11-2005 à 13:36:03
Reply

Marsh Posté le 25-11-2005 à 20:45:43    

groux a écrit :

Si tu as une carte avec une sortie DVI et un moniteur avec une sortie DVI, il faut rester en DVI de bout en bout.
 
Voila pourquoi:
 
Pour afficher sur un moniteur cathodique, les cartes devaient lui fournir un signal analogique, il y avait donc une conversion digitale=>analogique du signal par la carte, puis envoi par la prise VGA vers le moniteur.  
 
Les écrans LCD, eux, affichent un signal numérique, mais pour des raisons de compatibilité avec le matos existant, certains sont dotés d'une prise VGA. Ils faut donc qu'ils fassent une conversion analogique=>digital pour afficher.
 
Si on utilise le VGA, on a donc une conversion digitale=>analogique faite par la carte graphique pour transmettre via la prise VGA, puis une conversion analogique=>digitale faite par le moniteur LCD à l'arrivée.  
 
La sortie DVI permet de rester en numérique de bout en bout, et d'éviter ces deux conversions du signal.


 
Si j'ai bien compris, le fait de mettre les 2 en DVI, on gagne en qualité (tout en numérique) mais aussi en temps de réponse ?

Message cité 1 fois
Message édité par fredcharp le 25-11-2005 à 20:46:12
Reply

Marsh Posté le 25-11-2005 à 20:53:10    

fredcharp a écrit :

Si j'ai bien compris, le fait de mettre les 2 en DVI, on gagne en qualité (tout en numérique) mais aussi en temps de réponse ?


 
Le temps de reponse est une caréctéristique dependant de l'écran uniquement

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed