Quelle carte graphique pour mon usage?

Quelle carte graphique pour mon usage? - Carte graphique - Hardware

Marsh Posté le 26-02-2012 à 19:46:26    

Bonjour,
 
Si j'ai une idée sur à peu près tous les composants de mon futur ordi, je suis complètement perdu sur les cartes mères.
Usage :
- je vais faire du montage HD, utiliser aussi After Effect (la suite Adobe CS5 quoi)
- je peux aussi de temps en temps lire des vidéos HD de toutes sortes (y compris en 3D, j'ai l'équipement pour).
- je n'envisage pas du tout de jouer aux jeux vidéos (exit les cartes hyper chères)
- je veux sortir en double sortie HDMI (j'ai l'impression que ça n'existe pas en 2012!!!!) à la fois sur mon (futur) moniteur LCD d'ordi (enceintes intégrées** même si le son est mauvais, c'est pour une utilisation bureautique) et vers mon ampli home-cinéma (j'aimerais sans débrancher envoyer sur l'un ou l'autre ou les 2 [bureau étendu, ou image du moniteur LCD et son du home-cinéma])
 
**EDIT : ça aussi c'est très dur à trouver, pfff
 
Voilà ce qui me rend perplexe :
a]j'ai lu que même en lecture de Blu-Ray ou pour du montage, dans la plupart des cas le processeur vidéo de la carte mère suffit (!)
b]quand je vois une référence comme la Radeon HD 5450 (40 euros), j'ai l'impression qu'elle suffit
c]quand je tape dans un comparateur GTX 560, j'ai 150 références différentes incompréhensibles proposées par plusieurs marques différentes de 160 euros à 240 euros.
 
Pouvez-vous m'éclairer sur ces points et me suggérer des modèles (références précises au vu du point c] )
Important: Le choix de la carte graphique et de l'écran sont aussi conditionnés par ce besoin de sortir l'image et le son (donc HDMI) sur 2 sorties distinctes.
 
 
PS : mon processeur sera un Intel i7 (ou i5 si je me rend compte que c'est démesuré) et le système Windows Seven 64 bits


Message édité par chris-stof le 27-02-2012 à 09:08:32
Reply

Marsh Posté le 26-02-2012 à 19:46:26   

Reply

Marsh Posté le 27-02-2012 à 09:09:07    

Oups, j'avais mis un mauvais titre (quelle carte mère au lieu de quelle carte graphique)...et je m'étonne de ne pas avoir de réponse...

Reply

Marsh Posté le 27-02-2012 à 20:43:04    

Bon, je crois que ma question est trop détaillée et ça fait fuir tout le monde.
Tant pis, si vous pouvez au moins me dire quelle carte graphique pour faire du montage HD mais pas de jeux vidéo peut-être que ça fera moins peur ?

Reply

Marsh Posté le 27-02-2012 à 20:54:30    

Bah euh, pour After Effects c' est le CPU qui fait tout, non?
Apres il serait judicieux de prendre une nVidia pour bénéficier de Cuda sur certaines applications....


---------------
FSP Raider 750w -- MSI B350 Tomahawk -- Ryzen 5 1600 -- EVGA GTX1060 SC 6GB -- 16GB DDR4 -- Samsung Evo 500Go -- NZXT Phantom 410 White -- Logitech G710+ -- Razer Taipan
Reply

Marsh Posté le 27-02-2012 à 22:24:30    

Coulous a écrit :

Bah euh, pour After Effects c' est le CPU qui fait tout, non?


Peut-être oui. Alors disons qu'il faut qu'elle ait une sortie HDMI 1.4 (si je veux pouvoir sortir la 3D)...mais j'ai l'impression que la sortie de la carte mère (Z68XP-UD3P) le fait déjà... du coup je ne sais vraiment pas si j'ai besoin d'une carte graphique (mis à part qu'initialement je voulais sortir sur 2 écrans mais s'il faut mettre 150-200 euros juste pour ça c'est idiot, je peux aller en HDMI sur mon moniteur, et me contenter du son en optique vers mon ampli, tant pis pour le 2e écran puisque c'est occasionnel et si je veux l'image je débranche le cable HDMI du moniteur vers l'ampli)
 

Coulous a écrit :

Apres il serait judicieux de prendre une nVidia pour bénéficier de Cuda sur certaines applications....


Ah voilà, on entre dans les trucs que je connais pas; alors que peut m'apporter une carte graphique; pour les vidéos HD, ça apporte un plus sur la puce vidéo de la carte mère?


Message édité par chris-stof le 27-02-2012 à 22:45:02
Reply

Marsh Posté le 28-02-2012 à 15:54:36    

:sweat:

Reply

Marsh Posté le 28-02-2012 à 16:15:46    

1. Si budget serré (340€) : carte mère en H67 (http://www.topachat.com/pages/deta [...] 48990.html) + i7 2600 (http://www.topachat.com/pages/deta [...] 47453.html)
 
2. Si budget moyen (415€) : carte mère en Z68 (http://www.topachat.com/pages/deta [...] 53737.html) + i7 2600k (http://www.topachat.com/pages/deta [...] 47454.html)
 
3. Si budget moyen+ (450€) : idem ci-dessus + nVidia GT520 (http://www.topachat.com/pages/deta [...] 50053.html)
 
Pour ton histoire d'écran de PC (soit disant obligé d'utiliser l'HDMI pour faire passer également le son), je suis perplexe.
Ton écran dispose à mon avis d'un port jack (vert) classique pour faire passer la stéréo dans les enceintes intégrées.
 
Bref, en cas d'utilisation du HDx000 (inclus dans les processeurs Intel) ou de l'achat de la GT520, même combat : DVI+jack pour l'écran de PC et l'HDMI pour ta TV.

Message cité 1 fois
Message édité par pepes003 le 28-02-2012 à 16:58:12

---------------
> Mon FEEDBACK <
Reply

Marsh Posté le 28-02-2012 à 23:06:50    

pepes003 a écrit :

3. Si budget moyen+ (450€) : idem ci-dessus + nVidia GT520


Je vais gagner quelque chose avec une carte graphique à 40 euros?  :ouch:  
Quelque chose de bien peut sortir d'une carte si peu chère ? Du coup quelle est la meilleure sortie HDMI?
La carte mère que je pensais prendre (GIGABYTE GA-Z68XP-UD3P) serait pas meilleure au vu de ce que j'ai lu?
 
 

pepes003 a écrit :

Pour ton histoire d'écran de PC (soit disant obligé d'utiliser l'HDMI pour faire passer également le son), je suis perplexe.
Ton écran dispose à mon avis d'un port jack (vert) classique pour faire passer la stéréo dans les enceintes intégrées.


Si on peut toujours faire sortir des tas de cables dans tous les sens mais je trouve invraisemblable en 2012 de ne pas pouvoir utiliser ces formidables sorties HDMI (meilleur son et meilleure image possible dans un seul cable désormais bien répandu) et de continuer à voir des sorties DVI 3 fois plus grosses incapables de sortir le moindre son...


Message édité par chris-stof le 28-02-2012 à 23:07:21
Reply

Marsh Posté le 29-02-2012 à 19:33:35    

up!

Reply

Marsh Posté le 01-03-2012 à 13:03:36    

Pas d'autres remarques? Avec tous les mordus de hardware qui rôdent dans le coin? ;-)

Reply

Marsh Posté le 01-03-2012 à 13:03:36   

Reply

Marsh Posté le 01-03-2012 à 18:43:38    

Bonjour a toi  
 
si cela peut t'aider j'ai fait une compile de toutes les cartes graphiquespour faire le tri avec  
les radeons dont les nomenclatures étaient parfois folkloriques sans compter  
les renommages j'y ai inclus la performance nvidia.
Mes sources furent
 hardware,guru3d,presence pc,tom'shardware,clubic et tt-hardware..
.
Je précise que je n'ai pas de préférences particulieres pour l'une ou l 'autre des marques.
 
La résolution choisie pour l'évaluation de la jouabilité est 1920*1080.
 
Le terme de jouabilité s'entend pour des jeux relativements récents et assez gourmands
 (crysis 1 et 2,battlefiel3,metro 2033,dirt 3 etc...)
 
il faut comprendre par config minimale avoir autour de 40fps en moyenne
 ce qui suppose des ralentissements perceptibles sur des scenes chargées et
 pour certains jeux ^meme avec une moyenne de 40 cela peut tomber a 10fps..
.
il faut comprendre config optimale plus de 50fps avec une fluidité quasi parfaite  
 
Les modes que j'ai choisi ont une définition un peu empirique "en gros"  
j'entends par Normal:AA*4,details niveau moyen.
 
Haut :AA*8,details haut ou aa*4 details extremes..etc
 
Ultra: tout au max.....
 
 bonne lecture  
http://img11.imageshack.us/img11/3 [...] hiques.jpg

Reply

Marsh Posté le 01-03-2012 à 19:27:33    

udolgor a écrit :

si cela peut t'aider j'ai fait une compile de toutes les cartes graphiques (...)


C'est gentil mais je crains que tout cela n'ait aucun rapport avec ma demande...

Reply

Marsh Posté le 01-03-2012 à 20:39:48    

Pour la 3D, vaut mieux etre en DVI... il y a moins de limitation que le hdmi... meme avec le 1.4a.
 
Ensuite, si 2 sorties hdmi ne sont pas répendues (chai pas si il y a des cartes avec + de 1 hdmi), c'est pour une simple et bonne raison... Le hdmi a été prévu (a la base) pour des entrées/sorties "secondaires"...
 
Maintenant, pour le choix de la marque de carte graphiques (concernant le rendu/qualité de calcul), j'ai vu des test ati/amd vs nVidia...  
Je saurais pas retrouver ça car ça ne m'intéressais pas... Ce que j'ai remarqué, c'est que suivant le soft utilisé, les perf & qualité divergent suivant la marque des cartes graphique téstées.
 
Et, si c'est pas pour jouer, pourquoi ne pas regarder du coté de Matrox... Ils sont spécialisés en montage video.

Message cité 1 fois
Message édité par actaruxs le 01-03-2012 à 20:40:57
Reply

Marsh Posté le 01-03-2012 à 20:47:57    

Argghhhh oui désolé.....j'étais sur un autre post...et j'ai validé le message par erreur il n'était pas destiné a ta problématique...

Reply

Marsh Posté le 01-03-2012 à 21:00:46    

actaruxs a écrit :

Pour la 3D, vaut mieux etre en DVI... il y a moins de limitation que le hdmi... meme avec le 1.4a.


Ah bon? Dans quels cas je serais limité en HDMI et pas en DVI? Alors que la norme HDMI 1.4 a été prévue (entre autres) pour la 3D alors que le DVI n'inclue pas cette norme; je ne pense(pensais) même pas qu'on puisse passer de la 3D Full-HD (autrement lire un Blu-Ray 3D, pas un mkv qui n'a rien de différent d'un film HD normal puisqu'en side-by-side) autrement que via HDMI.
Enfin bon, passons, car je ne compte pas (sauf caméra perso 3D dans le futur) lire de Blu-Ray 3D sur mon PC (j'ai mon matériel Hi-Fi pour ça).
 

actaruxs a écrit :

Le hdmi a été prévu (a la base) pour des entrées/sorties "secondaires"...


Là aussi c'est obscur pour moi
 

actaruxs a écrit :

si c'est pas pour jouer, pourquoi ne pas regarder du coté de Matrox... Ils sont spécialisés en montage video.


En fait je reste perdu sur les compétences d'une simple carte mère en terme de vidéo car je ne comprend pas ce qu'apporte de plus une carte vidéo (sauf que j'ai entendu parler que la carte mère peut allier la puissance du CPU avec celle du GPU de la carte graphique, je ne sais pas les conditons).
Bref, est-ce que pour mon usage une carte mère à 120 euros et une carte graphique à 40 euros est un choix intelligent pour ce que je veux faire ou pas?
J'arrive pas à imaginer qu'à 40 euros on puisse avoir un truc qui sort une vidéo de qualité avec facilité sur tous types de vidéo, je ne sais pas si After Effect quand il calcule la génération de particules utilise la puissance du CPU ou de la carte graphique, si on passe facilement d'une HDMI de la carte mère à la HDMI de la carte graphique (j'ai lu quelque part que seule celle de la carte mère pouvait être définie en principale), etc.

 
 

udolgor a écrit :

désolé j'ai validé le message par erreur il n'était pas destiné a ta problématique


pas de souci; j'étais un peu perplexe  ;)


Message édité par chris-stof le 01-03-2012 à 21:02:15
Reply

Marsh Posté le 01-03-2012 à 22:49:03    

Oui, bien sûr dans ton cas, avec ton ampli hdmi tu as pas le choix.
 
Je parlais au sens general... Le dvi ne possède pas une norme standardisée comme le hdmi... il supporte juste une résolution max (3840×2400 -> dvi-i ou dvi-d, en dual link)... avec la seule limitation (il me semble) de 400Mhz de Ramdac ou assimilé. C'est le digne successeur du vga avec le support du numérique en plus de l'analogique (vga).
 
Maintenant, le hdmi 1.4 est compatible 3D 120hz, mais il me semble qu'il est limité a du 720p max en 3D... Chui pas sûr car pas connaisseur (juste le résultat de mes recherches concernant la 3D). Le mieux est de parcourir les topic dédiés a la 3D.
 
La grosse différence pour le hdmi est le transfert du son (mais tu dois dejà etre au courant ;) ).
 
Le hdmi a été prévu pour les systèmes dans ton genre... pouvoir brancher un second moniteur ou pour relier un ampli audio/video entre ton pc et ton écran... Dans tous les cas, si tu rajoute un autre écran mais vga, dvi ou display port, tu risque d'avoir des surprises si ton écran sur hdmi est configuré en écran principal.
 
ça peut très bien fonctionner, comme fonctionner mais avec des bizareries... Ainsi, j'avais un écran en hdmi (l'autre prise était une vga) en écran principal, et j'ai eu des problemes bizarre en mode étendu et clone a cause de mon second écran branché en dvi et configuré en secondaire. de plus, il semblerait que certaines cartes graphique possédant plusieurs prises dvi, aient un port principal.  
Après plusieurs tests et une bonne galère, ça fonctionnait nickel avec l'ecran (celui en hdmi) branché en vga/dvi sur la prise dvi de l'autre écran (mais powaa pas bô le vga sur un lcd)... J'ai dû remplacer mon écran principal en hdmi.
 
Maintenant pour "causer" de la carte video, celle embarquée sur la carte mere/cpu soit assez puissante pour un flux 3d ou hd avec la possibilité de faire du calcul spécifique type GPGPU/directcompute... sauf si c'est un chip graphique très puissant.
 
Ce type de puce graphique est juste suffisante pour pouvoir afficher le bureau... Dès que l'on décide de s'attaquer a la 3D, j'ai peur que ça sit limite.
 
Pour info... relis bien mon précédent message... Je n'ai pas dis qu'un gpu @40€ puisse sortir une video en qualité max sur plusieurs format.  
 
Meme les cartes graphiques a 300€ ne le peuvent pas... Et la carte mere n'a pas d'importance... suffit juste d'avoir un cpu pas trop poussif. Si tu as un P4, euh, faudra mettre le max de perf dans la cg car il risque d'avoir un peu de mal... le pôve pèpère :D  C'était un simple exemple... tu compte te prendre un z68.
 
Certains gpu seront parfaits avec tel programme, d'autres seront tout aussi bon... mais avec un autre soft. Je parle du calcul de la carte graphique demandé par le programme utilisé.
Là faudra te renseigner dans un topic approprié orienté GPGPU/directcompute.
 
Sinon, une simple Radeon hd5850 ou gtx 460, par ex, offrent de bons résultats... Mais il doit bien en avoir d'autres, suivant tes finances.
 
Je t'ai cité la marque Matrox, car ils sont spécialisés dans le montage video. ça veut pas dire que tu vas devoir dépenser 10000€ dans une carte... C'est comme ATI ou nVidia, il y a tout les tarifs.
 
PS: pour la possibilité de brancher un écran (ou autre) sur le hdmi de ta carte mere, en plus de la carte graphique, faut voir dans le bios de la carte mere. En général, des qu'une carte graphique est connectée, ça désactive celle de la c-m.
 
PS²: Pour ton souhaite d'avoir 2 hdmi... Pourquoi ne pas envisager l'achat de 2 gpu a pas cher (dans le cas du gpu integré au cpu se trouve désactivé d'office avec la présence d'une vraie c-g)... Meme pas obligé de les utiliser en SLI ou CF (d'ailleurs je crois qu'en cf c'est pas possible... faut configurer le eyefinity... soit plus de 3 écran pour avoir droit au 2 hdmi).

Message cité 1 fois
Message édité par actaruxs le 01-03-2012 à 22:58:33
Reply

Marsh Posté le 02-03-2012 à 08:10:55    

actaruxs a écrit :

ça peut très bien fonctionner, comme fonctionner mais avec des bizareries...


 :fou: J'adore l'informatique...
 

actaruxs a écrit :

En général, des qu'une carte graphique est connectée, ça désactive celle de la c-m.


 :fou: J'adore l'informatique... (bis)
C'est pas vrai mais j'ai loupé quelque chose ou on est en 2012 et ça ferait quasiment 10 ans que le HDMI existe.
Donc on achète une carte mère en payant tout un tas de composants (graphique notamment) pour rien...
 
Bon, j'abandonne la double sortie HDMI, on verra pour mon prochain PC en 2020...
Je vais uniquement utiliser mon moniteur LCD en HDMI (peut-être finalement via une carte graphique à 120 - 150 euros dans le doute...) et brancher le son en optique...à partir de la carte mère (sous réserve qu'on n'ait pas l'imbécilité que celle-ci désactive sa sortie optique si une carte graphique [par ailleurs dépourvue de sortie optique bien qu'elle connaisse le son puisqu'elle a le HDMI] est détectée).
 
A s'arracher les cheveux...

Reply

Marsh Posté le 02-03-2012 à 18:28:55    

Je comprend pas pourquoi tu as besoin de 2 hdmi sur le pc. 1 sur l'ampli et 1 pour l'écran ?
Tu peux pas brancher l'écran sur l'ampli ?
Maintenant, il existe des adaptateurs hdmi <-> dvi & <-> display port.
 
Pour la limitation de l'hdmi avec la 3D, je suis pas trop au courant... J'attend pour une nouvelle carte nVidia (seulement du jeu pour moi & accessoirement quelques films 3D sur l'ordi) pour tester la 3D
 

chris-stof a écrit :


 :fou: J'adore l'informatique...
 


 

chris-stof a écrit :


 :fou: J'adore l'informatique... (bis)
C'est pas vrai mais j'ai loupé quelque chose ou on est en 2012 et ça ferait quasiment 10 ans que le HDMI existe.
Donc on achète une carte mère en payant tout un tas de composants (graphique notamment) pour rien...
 
A s'arracher les cheveux...


 
En gros, je pense la meme chose... Notamment le maintient des prises vga sur du lcd  :o  
Le vga est utile uniquement pour les écrans analogiques (crt... et ne sont plus fabriqués depuis 2004 ou 2006).
 
A mon taf, ils sont en train de se débarrasser de vieux pc (P120 & PIII 700 + écran 19" bombés powaaa)... cartes graphiques en pci "normal"... Je pense qu'ils voulaient passer au écran lcd... & ils doivent virer tout les vieux "trucs".
 
Maintenant, quand le hdmi est sorti, le vga et le DVI étaient là depuis un bail... L'hdmi a été prévu pour des appareils auxilliaires vu que les écrans étaient soit en vga, soit en dvi.
Par conséquent le hdmi s'est donc retrouvé pour les appareils secondaires, en simplifiant la connectique. audio & video dans le meme cable (bien que j'ai déjà vu des cables dvi audio/video).
 
Le truc qui a vraiment favorisé la démocratisation de l'hdmi ( au niveau des constructeurs) est la mise en place du HDCP, puisque le vga & dvi ne comprennent pas de dispositifs de protection a la copie.
 
PS:
Faut verifier dans le bios (ou sur le topic de ta carte mere... ou du moins, avec ta marque/chipset) si tu peux utiliser la puce video de ton cpu avec une vraie cg.
&... ça désactivera pas la sortie son optique de ta mobal...
 
PS²:
Pour faire travailler le gpu a autre chose que du jeu (encodage par ex), tu as 3 termes différents. On appel ça plus communément le GPGPU, mais le nom change suivant la marque:
- nVidia l'appelle Cuda
- Ati/Amd l'appelle Steam
- et pour Microsoft c'est Directcompute  
 
Essai de faire une recherche de test/comparatif avec ton soft

Message cité 1 fois
Message édité par actaruxs le 02-03-2012 à 19:02:54
Reply

Marsh Posté le 02-03-2012 à 20:19:10    

actaruxs a écrit :

Je comprend pas pourquoi tu as besoin de 2 hdmi sur le pc. 1 sur l'ampli et 1 pour l'écran ?


J'ai :
-un bureau d'un côté (avec le moniteur PC dessus)
-un peu sur la droite se trouve mon ampli home-cinéma (par conséquent branché à mon LCD 46" 3D)
 
Naïvement je voulais
-une sortie HDMI vers mon moniteur LCD à enceintes intégrées (je ne veux pas m'encombrer avec des enceintes déportées vu que je ne compte as écouter de musique ici, c'est ust pour avoir un retour audio pratique)
-une sortie HDMI vers on ampli/LCD de salon (dans le but de tester mes montages perso ou autres dans des bonnes conditions sans débrancher quoi que ce soir); et tant qu'à faire (encore avec la plus grande naïveté...) j'aurais pensé que parfois j'aurais pu travailler avec la partie gauche sur mon moniteur LCD et une éventuelle partie droite (comme à mon boulot) sur le LCD de salon.
 
Bon, c'est pas l'usage courant mais quitte à monter un PC moi-même, j'aurais voulu prévoir le maximum de cas.


Message édité par chris-stof le 02-03-2012 à 20:19:33
Reply

Marsh Posté le 02-03-2012 à 20:41:02    

Salut,
 
je suppose que ton moniteur alimente ses enceintes par une prise jack.
 
Dans ce cas, tu peux brancher ton moniteur en DVI et l'ampli en HDMI, pour l'affichage ça fera ce que tu veux, par contre pour l'audio, soit il faudra préciser dans les applis quand c'est possible (rare hors jeux), soit il faudra switcher manuellement entre les 2 (le HDMI est un passthrough numérique, la jack prendra le chipset son de ta carte mère)..

Reply

Marsh Posté le 02-03-2012 à 22:13:30    

oui, je vois ce que tu souhaiterai obtenir.
 
Pour infos, certains écrans ayant des enceintes intégrées n'ont pas d'entrées jack pour le son.. C'est vraiment dommage :(
 
+1 pour le dvi de l'écran pc...  
Mais tu peux toujours trouver des mini-enceintes, telles que "Ferox" de Razer (env 50€), ou encore les "X-mini v²" (pas trouvable en france mais a env 30€)... Ce sont les meilleures, et tous les autres modèles sont des clones (sauf ferox qui est a part). Ce sont des enceintes pour ordi portables & telephone nouvelle générations... Et c'est meilleur (il parait) que les enceintes intégrées (sauf pour portable alienware qui ont un meilleur son). Fait une recherche sur youtube ;)
 
Après une autre petite recherche, j'ai l'impresion que l'encodage video est plus rapide, mais de moins bonne qualité avec le GPU que traditionnellement par le cpu.  
De plus, il n'y a pas de différence de durée d'encodage quelle que soit la marque et le modele de cg.
 
En + clair, le calcul par le cpu est plus long, mais il y a pas mieux ;)  
 
D'autre part, pour regarder des films en 3D, je pense que tu ne sera pas limité, puisque Les films sont diffusés @24hz. Tu auras donc le full HD en passant par l'ampli, si la liaison est en 1.4.
 
Ps: je ne vois que la solution du dvi si le hdmi de la carte mere se trouve désactivé avec la présence d'une vraie carte graphique. Faut que tu pose la question dans le topic dédié a ta c-m (ou dans le topic de ta marque de carte mere en précisant ton modele)
 
Voilà, je pense avoir atteint les limites de mes faibles connaissances dans ce domaine (3D + ampli audio/video). Bonne chance


Message édité par actaruxs le 02-03-2012 à 22:23:20
Reply

Marsh Posté le 02-03-2012 à 22:24:40    

J'ai peut-être pas été suffisamment clair mais le but de l'écran avec enceintes intégrées, c'est de débarasser le bureau d'enceintes, de gagner des cables disgrâcieux en moins.  
 
Etant très pointilleux sur la qualité du son, ça peut sembler paradoxal mais je me fiche de la qualité qui sortira des enceintes intégrées (où même d'enceintes à 50 euros) puisque je possède juste à côté un système à X milliers d'euros.
Jamais je ne m'amuserai à écouter de la musique sur de quelconques enceintes bas de gamme.
Comme je disais c'est du "retour audio" (suffisant pour faire du montage, pour écouter une vidéo Youtube, etc).


Message édité par chris-stof le 02-03-2012 à 22:25:10
Reply

Marsh Posté le 02-03-2012 à 23:10:39    

J'avais bien compris ;)
 
seulement, juste pour avoir un retour du son si tu decide a passer en dvi...  
C'est juste pour info, des mini enceinte font env  5cm de diametre (& les x-mini existent aussi en mono)... donc relativement discretes.
Certes le son est meilleur que celui de l'écran, mais ça vaut pas un vrai système audio... ça je le sait bien.
 
Je te souhaite de trouver la configuration qui te conviendra :jap:


Message édité par actaruxs le 02-03-2012 à 23:11:33
Reply

Marsh Posté le 02-03-2012 à 23:23:19    

Il est surtout rare de trouver des moniteurs pc dont les enceintes intégrées sont commandées par le HDMI, la plupart sont alimentées par un câble jack.

Reply

Marsh Posté le 03-03-2012 à 08:56:02    

Grosbaf a écrit :

Il est surtout rare de trouver des moniteurs pc dont les enceintes intégrées sont commandées par le HDMI, la plupart sont alimentées par un câble jack.


Ah bah il manquerait plus que ça tiens! Un coup comme ça me rendrait méga furax  :fou:  :fou:  
En tous cas il n'y a que Iiyama qui fasse actuellement des écrans 20 à 22" avec enceintes intégrées, l'histoire ne dit pas s'il y a un piège comme ça (ça serait gros!); exemple ces modèles Iiyama - ProLite - E2273HDS-B1 ou Iiyama - PLB2274HDS

Reply

Marsh Posté le 03-03-2012 à 09:38:55    

chris-stof a écrit :


Ah bah il manquerait plus que ça tiens! Un coup comme ça me rendrait méga furax  :fou:  :fou:  
En tous cas il n'y a que Iiyama qui fasse actuellement des écrans 20 à 22" avec enceintes intégrées, l'histoire ne dit pas s'il y a un piège comme ça (ça serait gros!); exemple ces modèles Iiyama - ProLite - E2273HDS-B1 ou Iiyama - PLB2274HDS


Ben je suis à peu près sur que sur ces moniteurs le HDMI ne sert que pour la vidéo (en tous cas pour l'un des deux, regarde le câble audio est fourni...), l'audio est alimenté par un jack.
On a un flopée de moniteurs du même acabit au boulot.

Reply

Marsh Posté le 03-03-2012 à 16:09:28    

Pour avoir un Iyama Prolite B2409HDS le son arrive bien par le HDMI puisque j'avais la xbox branchée ainsi et j'étais obligé de passer par la sortie casque pour sortie le son sur mon Kit 2.1 analogique. Maintenant j'ai du VGA avec sortie RCA directement branché sur le kit et la qualité de son s'en ressent. Au niveau de l'affichage je trouve pas que l'HDMI soit tellement mieux que le VGA, du moins pour les jeux le rendu est plus "chaud" et moins aliasé en analogique, après ça dépend des usages.  
 
De toute façon le mélange analogique/numérique est pas très pratique, ces changements de normes sont un peu délicat à gérer. Parfois  mieux vaut une technologie éprouvée que la dernière nouveauté qui évoluera de x générations en quelques années.


Message édité par cyberslan le 03-03-2012 à 16:26:05
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed