GPU plus puissant que CPU ?

GPU plus puissant que CPU ? - Carte mère - Hardware

Marsh Posté le 09-05-2006 à 19:43:52    

J'ai lu dans un livre de programmation 3D  que le GPU est beaucoup plus puissant que le CPU, et qu'il est sous-exploité alors que le CPU lui est sur-exploité, une tendance qui etait autrefois totalement inversé.
Je voudrai savoir si cela est vrai et si oui pourquoi n'utilise t on pas les GPU comme CPU sans trop entrer dans les détails je n'y connais pas grand chose.
Merci

Reply

Marsh Posté le 09-05-2006 à 19:43:52   

Reply

Marsh Posté le 09-05-2006 à 20:08:29    

pas pareil.
un CPU est généraliste
un GPU est spécialisé.
 
essayes de faire un déménagement avec une ferrari.

Reply

Marsh Posté le 09-05-2006 à 20:10:16    

bjone a écrit :

pas pareil.
un CPU est généraliste
un GPU est spécialisé.
 
essayes de faire un déménagement avec une ferrari.


 
Très bonne image  :jap:  

Reply

Marsh Posté le 09-05-2006 à 20:11:41    

Le gpu bouffe de la 3d.

Reply

Marsh Posté le 09-05-2006 à 20:11:54    

trés trés bonne ouais !

Reply

Marsh Posté le 09-05-2006 à 20:12:31    

on peu pas surexploité un cpu (ou même toute autre puce)
à moins de tenir compte de l'overclocking
 
faut pas perdre de vu que derriere c est du langage binaire
à la base
et imaginé ça un peu comme des poupée russe
 
tout en bas de l echelle le transistor 0 ou 1 bref ouvert ou fermé
 
avec une succession de petit mot on arrive à faire de grands mot
 
donc on est passé du 8 à 16..32...64... etc... bits
 
à l epoque de windows 95 les gpu devait de souvenir être des puce 64bits
à l epoque du dos etendu (bref epoque des jeux sous dos genre wing commander) carte vesa local bus et premiere pci les gpu etait 32bits
 
aujourd hui on doit tourner en moyenne dans les 128-256Bits pour les gpu (je parle pas bus memoire)
 
tu conviendra que tout c est grand mot... ils sortent pas comme ça brut de pomme de ton cd ou dvd
qui l a aussi est du binaire donc 0 ou 1
tout comme les actions sur ton clavier ou ta souris des 0 ou des 1
 
donc pour remettre mes poupées russe dans l histoire
 
t'as le chipset de carte mère et le cpu par exemple qui sont chargé de traité des petits mots pour en faire des grands mots  
c est grand mots de xxx bits sont destiné à être bouffé tout cru par des des cartes justement specialisé par le traitement de grands mot
ça peut être des GPU comme des VPU, des puce de compressions video et bien d autre encore
mais aussi bien les registre MMX, SSE 1, 2 ou 3 (de 128bits pour certains d entre eux)
qui bien qu intégré dans le cpu même sont des registres specialisé à part entiere tout comme va l etre un gpu
 
bon c est pas simple à expliquer en 1 post
j espere juste que t arrivera à comprendre l idée dans mon brouillon que je viens d ecrire

Reply

Marsh Posté le 09-05-2006 à 20:14:12    

Avant w95 y'avait pas de gpu même, c'était des "accélérateurs vga", bref pour ainsi dire rien du tout comparé à un gpu :o

Reply

Marsh Posté le 09-05-2006 à 20:14:15    

plus puissant dans le sens qu'il y a plus de transistor depuis un petit moment dans nos cherS CG que dans les CPU çà c une vérité. de la à comparer le reste ?

Reply

Marsh Posté le 09-05-2006 à 20:17:26    

En puissance de calcul brute, un gpu est indéniablement plus puissant qu'un cpu, maintenant faut voir qu'on fait pas non plus ce qu'on veut avec un gpu...
 
On peut calculer de la géométrie, des effets 2D, faire un rendu, mais on aura du mal à faire tourner un jeu en utilisant exclusivement le gpu, à l'inverse on peut tout faire avec un cpu, mais à une vitesse nettement moindre.

Reply

Marsh Posté le 09-05-2006 à 20:23:59    

Gigathlon a écrit :

Avant w95 y'avait pas de gpu même, c'était des "accélérateurs vga", bref pour ainsi dire rien du tout comparé à un gpu :o


 
sans compter les vpu....  :sweat:  
 
des fois faut mieux pas trop se poser de questions
 
c est déjà assez compliqué comme ça
 
sinon on va en revenir au carte perforé avant le clavier et l ecran


Message édité par blue_dwarf le 09-05-2006 à 20:24:32
Reply

Marsh Posté le 09-05-2006 à 20:23:59   

Reply

Marsh Posté le 09-05-2006 à 20:39:58    

Je parle de la puissance de calcul brute et quand je dis surexploité  c'est pour dire que le CPU fonctionne a 100% dans un jeux video par exemple et qu'on lui donne trop de tache a géré. Pour moi les calculs des effets3d et tout le reste c'est une couche supérieur je me diasit pourquoi on prend pas le CPU on change pas comme ca les calcul qu'il a a faire et on le transforme en beau CPU bien puissant mais si c'est pas encore fait c'est qu'il y a un truc je m'en doute.
Merci de vos reponses.

Reply

Marsh Posté le 09-05-2006 à 20:53:52    

tu confond pas CPU et GPU?


---------------
J'ose tout ce qui sied à un homme, celui qui ose davantage n'en est plus un.
Reply

Marsh Posté le 09-05-2006 à 22:37:02    

Li-QuiD a écrit :

tu confond pas CPU et GPU?


Tu me prend pour un triso ou c'est que j'ai dit une aneri
GPU = processeur graphique
CPU = processeur (pour tous les autres calculs ou presque)

Reply

Marsh Posté le 09-05-2006 à 22:44:20    


il manque pas de la ponctuation?
comprendre le language sms c'est relou mais faisable... mêm bien écris, sans la ponctuation, c'est chaud à comprendre


Message édité par Li-QuiD le 09-05-2006 à 22:45:32

---------------
J'ose tout ce qui sied à un homme, celui qui ose davantage n'en est plus un.
Reply

Marsh Posté le 09-05-2006 à 22:47:25    

dans un jeu c'est pas parceque le proco est marqué utilisé à 100% qu'il est a saturation... j'ai un logiciel de création de jeux (Multimedia Fusion), les .exe crées avec utilisent en permanence 100% du cpu qu'il y ait a l'écran 1 sprite ou 500 (et pourtant a 500 ça rame pas plus qu'a 1)
 
 
 
et c'est faux, en général c'est plutot le GPU qu'on surcharge (on est assez rarement cpu limited puisqu'on pousse toujours les effets graphiques au max...), un simple athlon 3000+ suffit largement pour ne pas etre cpu limited, donc avec par exemple un a64 4000+ on a de la réserve de puissance  :)


Message édité par xphanoo le 09-05-2006 à 22:48:05
Reply

Marsh Posté le 09-05-2006 à 23:11:55    

dans un même jeu, la limitation est tantôt GPU tantôt CPU.
 
la notion de charge CPU est défini par l'OS en fonction de la proportions de timeslices attribuées aux process, hors généralement un jeu n'utilise pas une boucle de traitement de messages blocante, ce qu'il fait qu'il consomme tout le temps dans sa boucle de traitement temps réel pour débiter un max de fps.
 
un process de jeu descends généralement en charge cpu OS uniquement quand il fait des accès disques.

Reply

Marsh Posté le 11-05-2006 à 16:33:10    

J'ai lu le contraire dans un livre, j'ai du mal comprendre et désolé pour la ponctuation.

Reply

Marsh Posté le 11-05-2006 à 16:35:24    

bjone a écrit :

pas pareil.
un CPU est généraliste
un GPU est spécialisé.
 
essayes de faire un déménagement avec une ferrari.


 
essaye de faire un demenagemetn avec une 2CV et on en reparle  
 
 
 
 
 
 
 
 
 
 
 
:D

Reply

Marsh Posté le 11-05-2006 à 16:42:50    

En même temps, ça s'est fait... :o
 
Vas-y que je te passe l'armoire par le toit ouvrant en toile, j'aimerais bien t'y voir faire ça avec une f355 :whistle:
 
Par contre, avec une deuch/twingo/autre caisse banale, pas de souci pour aller chercher du pain, aller en courses, amener les 2 gosses à l'école... chose qu'il est difficile d'envisager aussi bien avec une ferrari qu'une semi.

Reply

Marsh Posté le 11-05-2006 à 16:53:45    

Et on peut pas convertir un GPU en CPU parce que les unités de calcul des GPU sont optimisés pour des calculs  propres a la 3D et au texturage alors qu un CPU contient des unités de calcul bcp plus primaires intercombinables pour executer une infinité de calcul different selon les besoins infinies des prog qu il sert.  
 
c est comme si ,pour simplifier ,les GPU avait une puce speciale pour faire une multiplication de A X B en un coup alors qu un CPU ne sait que faire des additions et devra donc utiliser "B fois" cette instruction d addition A+A  
Alors evidemment le GPU multiplie plus vite mais il ne sait pas faire de simples additions!

Reply

Marsh Posté le 11-05-2006 à 16:55:17    

mais si aller chercher du pain avec une ferrari c est possible mais au prix de l essence c est surtout trés con  :p

Reply

Marsh Posté le 11-05-2006 à 16:55:57    

deumilcat a écrit :

Et on peut pas convertir un GPU en CPU parce que les unités de calcul des GPU sont optimisés pour des calculs  propres a la 3D et au texturage alors qu un CPU contient des unités de calcul bcp plus primaires intercombinables pour executer une infinité de calcul different selon les besoins infinies des prog qu il sert.  
 
c est comme si ,pour simplifier ,les GPU avait une puce speciale pour faire une multiplication de A X B en un coup alors qu un CPU ne sait que faire des additions et devra donc utiliser "B fois" cette instruction d addition A+A  
Alors evidemment le GPU multiplie plus vite mais il ne sait pas faire de simples additions!


 
Bon résumé... :jap:


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
Reply

Marsh Posté le 11-05-2006 à 17:31:35    

deumilcat a écrit :

mais si aller chercher du pain avec une ferrari c est possible mais au prix de l essence c est surtout trés con  :p


 
Tout comme on pourrait faire des calculs généralistes avec un gpu, mais est-ce bien intéressant?

Reply

Marsh Posté le 11-05-2006 à 18:11:14    

c'est interressant si il n'y a pas trop de restrictions.
 
actuellement, il y a des restrictions sur la longueur de code, les branchements dynamiques, et d'autres détails qui font que le GPGPU est encore une cible a atteindre.
 
l'autre problème c'est qu'un GPU tire son efficacité de son contexte restreint, donc un GPU sera toujours un peu spécialisé, un CPU sera toujours généraliste.  
 
ceci dit l'assouplissement des GPUs est toujours une très bonne chose.

Reply

Marsh Posté le 12-05-2006 à 21:56:04    

D'accord j'ai compris.
Merci pour vos réponse.


Message édité par Profil supprimé le 12-05-2006 à 21:56:19
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed