Évolution des cartes graphiques

Évolution des cartes graphiques - Carte graphique - Hardware

Marsh Posté le 26-05-2013 à 14:16:30    

Salut,
 
Je viens de lire un article sur un PC équipé de 3 Titan et je dois dire que ça laisse rêveur. Ne m'y connaissant pas trop en CG, j'aimerais savoir combien d'années il faudra (à peu près et en se basant sur l'évolution des CG au cours de ces dernières années) avant d'avoir autant de puissance sur une seule CG (parce que 3 x 1000 euros je trouve ça cher).
 
Merci et bon dimanche.

Reply

Marsh Posté le 26-05-2013 à 14:16:30   

Reply

Marsh Posté le 26-05-2013 à 16:12:27    

Il y a une loi, celle de moore qui dit: "tout les 18 mois, la puissance des ordinateurs double et par conséquent, leur prix est divisé par 2". En réalité il s'agit plus d'une conjecture, mais bon, en pratique elle tend à être valider, même si l'on s'approche des limites physiques et donc d'un ralentissement de cette dit puissance.
 
Pour faire une analogie, aujourd'hui, on ne fait plus réellement la course au Ghz, ni même réellement au nombre de transistor(pas dans l'immédiat, même si les finesses de gravures permettent d'en mettre de plus en plus), mais plus à l'amélioration des architectures.
Ceci ce démontre avec les processeurs intel et amd en architecture x86. Bref je m'étale pas dessus.
Bref en d'autre mot, aujourd'hui améliorer la puissance d'un processeur c'est assez difficile.
 
Pour en revenir à ton cas, Nvidia a dévoilé sa roadmap, et prévoit une amélioration très signification de la puissance/consommation vers 2015-2016 et ceci grâce à la finesse de gravure. Etant donné que les cartes graphiques Haut de gamme correspondent à une puissance très élevé dans un instant T, ceci justifie leur prix (ou pas d'ailleurs). Cependant cette puissance P, n'est pas illimité dans le temps et tend à être obsolète très rapidement.  
 
Alors on peut espérer que le haut de gamme de la Titan sera égalée et dépassée en 2015-2016.  
 
Mais rien de sert réellement et surtout si t'en a pas besoin, ni le budget, d'acheter au très haut de gamme. Achètes le meilleur rapport qualité/prix (ex: chez Nividia 660/660TI).
;)

Reply

Marsh Posté le 26-05-2013 à 22:30:28    

C'est marrant, tu parles de deux trucs auxquels j'avais pensé.

 

Pour commencer, la loi de Moore : je pensais qu'elle n'était plus d'actualité depuis quelques années mais apparemment si je te suis bien elle va seulement commencer à ne plus se vérifier.

 

Ensuite la 660Ti : c'est justement celle que je compte acheter.

 


Je posais plutôt la question par curiosité et parce que j'avais le sentiment que le monde informatique n'évoluait plus aussi vite qu'avant, ce que ta réponse confirme. Merci !


Message édité par MarioBros41 le 26-05-2013 à 22:30:59
Reply

Marsh Posté le 27-05-2013 à 05:58:15    

Oui la loi de Moore ralentit, et peut-être plus important on se heurte à deux limites : la puissance électrique consommée et chaleur dégagée (power) et la bande passante (bandwith)

 

On ne peut pas faire non plus une carte graphique qui consomme 1000 watts et qui a un bus mémoire sur 1024 bits. Déjà les cartes graphiques sont allées jusque 200 à 250 watts et bus mémoire sur 384 ou 512 bits, en partant de bien plus bas.
Pas le choix d'attendre les futurs process (20nm, 16nm, 10nm) et mémoires : GDDR6 et même "stacked memory", le Haswell GT3e en est un premier exemple avec sa petite mémoire dédiée directement reliée au processeur. Nvidia y viendra aussi (avec le GPU "Volta", qui sort après le Maxwell, genre en 2016.)

 

Je crois que la loi de Moore en est maintenant à un doublement des transistors tous les trois ans, les 18 mois c'est fini. Continuer est de plus en plus horriblement difficile et cher et on finira par devoir changer complètement de technologie (comme remplacer le silicium par les nanotubes de carbone, ou autre chose je ne peux pas te dire)


Message édité par blazkowicz le 27-05-2013 à 06:03:36
Reply

Marsh Posté le 27-05-2013 à 09:42:38    

Merci pour ce post littéralement fascinant !
 
J'espère juste que l'inévitable changement de technologie ne nous fera pas reculer quelques années pour mieux sauter.  
 
En fait on se base sur la même technologie depuis les débuts de l'informatique ?

Reply

Marsh Posté le 27-05-2013 à 10:03:37    

Le premier processeur x86 date de 1978 (35 ans, la préhistoire en informatique)...
 
http://fr.wikipedia.org/wiki/X86

Reply

Marsh Posté le 27-05-2013 à 10:47:35    

Le principe de base est le même depuis les années 70, lithographie sur silicium, mais les détails techniques ont évolué certainement :D

Reply

Marsh Posté le 29-05-2013 à 13:38:10    

A vue de pif, je dirais qu'il faut 3 générations pour doubler la puissance brute en haut de gamme...
Donc pour avoir l'équivalent de 2 Titan en 1 seule carte, faudra voir dans 3 générations, soit, quoi... 4 ou 5 ans ?
Pour remplacer 3 Titan en une seule carte, peut être 6-7 ans ?
 
Mais d'ici là, les règles du jeu pourraient être pas mal revues : on parle de transistors en 3D, notamment, qui pourraient décupler la densité des transistors sur les puces, et donc la puissance.
Enfin ça, c'est un peu "boule de cristal" :)

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed