hd3870: 8800GTX optimisée dx10 pour 300euros ?

hd3870: 8800GTX optimisée dx10 pour 300euros ? - Carte graphique - Hardware

Marsh Posté le 23-10-2007 à 20:31:00    

hd3870. D'après les specs par rapport aux perfs de la hd2900xt, sa amène a une perf égale a une 8800GTX, en plus les nouveaux drivers ati sont bien meilleurs dans dirextX10 et l'antialiasing également pour ATI. Meme perf pour prix bas ? Etonnant tout de meme...

Reply

Marsh Posté le 23-10-2007 à 20:31:00   

Reply

Marsh Posté le 23-10-2007 à 20:33:25    

tu as vu cela ou ?


---------------
Mon feed *_* Mes Achats / Vente
Reply

Marsh Posté le 23-10-2007 à 20:36:27    

Chez Mme Irma voyons  :whistle:

Reply

Marsh Posté le 23-10-2007 à 20:48:04    

:o


---------------
Mon feed *_* Mes Achats / Vente
Reply

Marsh Posté le 23-10-2007 à 20:49:47    

on pren la perf de la 2900xt. puis comme c'est les memes caractéristiques et bien c'est proportionnel a la fréquence GPU et GDDR4. Ainsi on obtient une perf égale environ a la 8800GTX. :)

Reply

Marsh Posté le 23-10-2007 à 20:51:52    

tu va t'attirer la foudre avec tes explication... :D  :D  :D


Message édité par Cizia le 23-10-2007 à 20:51:59

---------------
“ je n’ai jamais joué, j’ai vécu ”  ~ Alain Delon
Reply

Marsh Posté le 23-10-2007 à 20:52:39    

:D  ;)

Reply

Marsh Posté le 23-10-2007 à 20:53:31    

Ca marche pas comme ça.  
 
Les HD3800 ont un bus 256 bits, donc même avec de la GDDR4-2400, la BP est 40% moins élevée que la 2900XT. [:spamafote]
 
Elles vont concurrencer la 8800GT, mais pas la GTX. Après si on fait ses mesures en 1280 sans filtres...


Message édité par marllt2 le 23-10-2007 à 20:54:32
Reply

Marsh Posté le 23-10-2007 à 20:54:40    

tout est proportionnel dans la vie, mais le plus qu'il faut ce méfier, c'est l'integral ou peut-être la 'derive" ...  :D

Reply

Marsh Posté le 23-10-2007 à 20:54:54    

Regardez ce que ça donne avec la 88GT .... 256 bits aussi pourtant elle nique tout :D  
 
le test vous le trouverez dans las section dédié ;)

Reply

Marsh Posté le 23-10-2007 à 20:54:54   

Reply

Marsh Posté le 23-10-2007 à 20:55:02    

lol ok désolé non mais je pensais que c'étais valable puisque la performance d'une carte est proportionnelle a la fréquence de son processeur et de sa mémoire ( en comptant les shaders :) ) et avec le pourcentage d'augmentation de fréquence entre la hd2900xt et la hd3870 et la différence de perf entre hd 2900xt et 8800gtx on arrivait à la meme perf. Toutefois sans considérer la division du bus mémoire par 2 et les seulement 512Mo de mémoire :):) bon c'est pas grave.

Reply

Marsh Posté le 23-10-2007 à 20:56:23    

L'augmentation de fréquence GPU n'est que de 10% pour la version la plus HDG. [:spamafote]

Reply

Marsh Posté le 23-10-2007 à 20:57:20    

ha alors jme suis complètement gourré désolé :)

Reply

Marsh Posté le 23-10-2007 à 20:57:21    

tu pratique la meme methode...
celle de mettre la charrue avant les boeuf... :D  
 
attend quel sortent cette 8800gt,avec plusieur test pour verifier tout ca... :ange:


Message édité par Cizia le 23-10-2007 à 20:57:35

---------------
“ je n’ai jamais joué, j’ai vécu ”  ~ Alain Delon
Reply

Marsh Posté le 23-10-2007 à 20:57:32    

si tout est fonctionnel dans la puce on sait jamais...

Reply

Marsh Posté le 23-10-2007 à 21:01:09    

kyro38 a écrit :

Regardez ce que ça donne avec la 88GT .... 256 bits aussi pourtant elle nique tout :D  
 
le test vous le trouverez dans las section dédié ;)


Tout a fait, si Amd a fait ce choix de passer en bus 256 bits c'est peut etre qu'au final ça n'est pas si pénalisant.Par contre là ou il y a une différence, c'est que le gpu de la la nouvelle 8800GT a plus de patate que la GTS et c'est pas uniquement lié a sa fréquence... Alors que si la HD 3850 se contente "seulement" de qques mhz de plus et d'un bus 256 bits (là on divise la bande passante mémoire par 2 par rapport a la 2900xt...) il est certain que ça ne sera pas suffisant.Bref il faudra voir ses specs réelles pour se faire une idée.

Message cité 1 fois
Message édité par mac fly le 23-10-2007 à 21:02:35
Reply

Marsh Posté le 23-10-2007 à 21:01:35    

ok oui mais je suis teellement impatient!!!!j'ai 300 euros qui hiberne dans ma tirelire la!!!!!!! :):)


Message édité par jm1010 le 23-10-2007 à 21:01:50
Reply

Marsh Posté le 23-10-2007 à 21:04:43    

jm1010 a écrit :

hd3870. D'après les specs par rapport aux perfs de la hd2900xt, sa amène a une perf égale a une 8800GTX, en plus les nouveaux drivers ati sont bien meilleurs dans dirextX10 et l'antialiasing également pour ATI. Meme perf pour prix bas ? Etonnant tout de meme...


 
L'indice de perf le plus fiable que je connaisse, c'est le prix de la carte.
Regarde son prix, prends une carte avec un prix équivalent chez le concurrent, et y'a de fortes chances qu'elles soient au coude-a-coude.

Reply

Marsh Posté le 23-10-2007 à 21:05:04    

mac fly a écrit :


Tout a fait, si Amd a fait ce choix de passer en bus 256 bits c'est peut etre qu'au final ça n'est pas si pénalisant.Par contre là ou il y a une différence, c'est que le gpu de la la nouvelle 8800GT a plus de patate que la GTS et c'est pas uniquement lié a sa fréquence... Alors que si la HD 3850 se contente "seulement" de qques mhz de plus et d'un bus 256 bits (là on divise la bande passante mémoire par 2 par rapport a la 2900xt...) il est certain que ça ne sera pas suffisant.Bref il faudra voir ses specs réelles pour se faire une idée.


 
je crois que l'on avait fait des test avec la hd2900xt a sa sortie , on avait teste en baissant la frequence de la ram (pas mal) il n'y avait pas beaucoup de diff a l'arriveé, donc si AMD a ameliore le filtrage je pense que c'est tous bon (comme le sera je pense le 8800gt)

Reply

Marsh Posté le 23-10-2007 à 21:06:17    

en gros elles vont appramment etre kif-kif sauf que la 8800GT 512 est a 250 euros alors que la hd3870 est a 300euros...

Reply

Marsh Posté le 23-10-2007 à 21:06:43    

kyky a écrit :


 
je crois que l'on avait fait des test avec la hd2900xt a sa sortie , on avait teste en baissant la frequence de la ram (pas mal) il n'y avait pas beaucoup de diff a l'arriveé, donc si AMD a ameliore le filtrage je pense que c'est tous bon (comme le sera je pense le 8800gt)


 :jap:

Reply

Marsh Posté le 23-10-2007 à 21:09:24    

jm1010 a écrit :

en gros elles vont appramment etre kif-kif sauf que la 8800GT 512 est a 250 euros alors que la hd3870 est a 300euros...


Faudra voir les tests, meme moi je ne saurais dire si elles seront dans la meme zone ou si l'une aura l'avantage...
En tout cas la chose dont on est a peut près sure, c'est que Nvidia va assurer avec sa 8800gt en rapport perfs de très bon niveau/prix, et c'était prévisible (ils ont le recul de l'expérience du G80 avec tout le temps pour peaufiner son évolution )


Message édité par mac fly le 23-10-2007 à 21:11:29
Reply

Marsh Posté le 23-10-2007 à 21:13:17    

oui c'est sur, mais en simple slot il parait que ce sera forcément davantage bruyant.

Reply

Marsh Posté le 23-10-2007 à 21:13:17    

Déjà que la 2900 était mauvaise dans les filtres, on rajoute de la puissance de calcul et on  diminue les bus... ca va être beau !
 
ils veulent enrichir Nvidia ou quoi ?

Message cité 1 fois
Message édité par bonk1 le 23-10-2007 à 21:13:32

---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
Reply

Marsh Posté le 23-10-2007 à 21:14:05    

kyro38 a écrit :

Regardez ce que ça donne avec la 88GT .... 256 bits aussi pourtant elle nique tout :D


 
8800 GT: 16 Rops , bus 256 bits, 53Go/s, 112 SPU @ 600
 
8800 GTX:  24 Rops, bus 384 bits, 80Go/s, 128 SPU @ 575
 
 
Le seul point où la GT approche la GTX, c'est en puissance brute, où elle est 10% moins rapide.
 

bonk1 a écrit :

Déjà que la 2900 était mauvaise dans les filtres, on rajoute de la puissance de calcul et on  diminue les bus... ca va être beau !
 
ils veulent enrichir Nvidia ou quoi ?

Et le bug des ROPs corrigé... :ange:  
 
Niveau BP mémoire, elle en a 33% plus que la 8800 GT. [:spamafote]

Message cité 1 fois
Message édité par marllt2 le 23-10-2007 à 21:16:38
Reply

Marsh Posté le 23-10-2007 à 21:34:09    

et il y a une chose que j'aimerais savoir: les ATI consomment plus, ont plus d'unités de calcul ( bcp plus) des fréquences plus hautes et un bus mémoire plus élevé ( prenez la comparaison 8800GTS vs HD2900XT) et ont pourtant du mal à s'imposer ( beaucoup de mal). Pourquoi? Si c'est un réel problème d'architecture pourquoi ATI ne copient-ils pas celle de nvidia? Sa se voit bien maintenant qu'ils se plantent avec le R600 alors pourquoi garder la meme architecture désastreuse ?

Reply

Marsh Posté le 23-10-2007 à 22:09:57    

desastreuse,faut pas pousser!!
 
avec certain bleme avec filtrage ok,mais sinon,c'est bien perf...


---------------
“ je n’ai jamais joué, j’ai vécu ”  ~ Alain Delon
Reply

Marsh Posté le 23-10-2007 à 22:14:30    

Allé zou, qu'ati nous sorte une excellente carte a 250€ cela m'empechera d'aller voir chez le cameleon le mois prochain avec leur 8800gt :/, je les aime bien c Canadiens :o


---------------
Mon feed *_* Mes Achats / Vente
Reply

Marsh Posté le 23-10-2007 à 22:17:44    

lol oui d'accord mais quand on regarde les spécifications théoriques des hd2900, puis les spéc des 8800GTS puis les tests, on se dit mais putin ils ont foutu tout en désordre la-dedans!!

Reply

Marsh Posté le 23-10-2007 à 22:34:00    

jm1010 a écrit :

et il y a une chose que j'aimerais savoir: les ATI consomment plus, ont plus d'unités de calcul ( bcp plus) des fréquences plus hautes et un bus mémoire plus élevé ( prenez la comparaison 8800GTS vs HD2900XT) et ont pourtant du mal à s'imposer ( beaucoup de mal).


Attention. Les 128 SPU de la GTX et les 320 de la 2900XT ne correspondent pas du tout à la même chose. [:spamafote] http://www.hardware.fr/articles/67 [...] 00-xt.html
 
Dans le même genre un P4 3GHz se fait exploser par un C2D 2GHz, malgré la fréquence.
 
Tiens d'ailleur à propos de fréquence, la GTX a des shaders qui tournent à 1350MHz, contre 750MHz sur la 2900XT.
 

jm1010 a écrit :

Pourquoi? Si c'est un réel problème d'architecture pourquoi ATI ne copient-ils pas celle de nvidia? ?


nVidia fait des archi qui marchent tout de suite (ce que demandent les gamers), quitte à s'éloigner de spécifications de DX. Alors que AMD respecte à la lettre les specs de DX, et vise des architectures valables à long terme. Plus les drivers pour les anciennes cartes qui sont mieux suivies chez AMD. (Ce qui fait d'ailleur que les cartes AMD vieillissent mieux que les nVidia.)
 
Par exemple, les calculs en Geometry Shader sont 50 fois plus rapides avec une 2900XT qu'avec une 8800. Pourtant les GS étaient cencés être l'apport majeur de DX10.  [:spamafote] Inutilisable en pratique sur les GF8, et comme tous les studios ont des partenariats avec nVidia ils n'utilisent pas du tout de GS pour pas plomber les GF8.
 
Ensuite, nVidia incite les devs à utiliser des fonctions particulières. Genre le brouillard volumétrique de Bioshock DX10 est fait par des opérations scalaires interdépendantes. Sauf que ce genre de fonction n'a rien à faire dans un jeu. Ca ne fait pas partie des specs de DX10, et le brouillard peut être fait avec d'autres fonctions plus "universelles" et pas moins performantes.
 
Pourquoi nVidia demande ça alors ? Les GF8 ont une archi qui ne pénalise pas l'utilsiation des opérations scalaires interdépendantes. ALors que celle d'AMD est moins appropriée. En même temps comment leur reprocher puisque ces oprations ne font pas partie des specs de DX10 et n'on rien à faire dans un jeu ? [:spamafote]  
 
Résultat: le passage DX9 -> DX10 ne fait pas perdre de perfs sur le GF8 alors que les HD2000 baissent de 20%. [:spamafote]  
 
 

jm1010 a écrit :

Sa se voit bien maintenant qu'ils se plantent avec le R600 alors pourquoi garder la meme architecture désastreuse ?

Cette archi est loin d'être désastreuse. Elles a des problèmes certes, mais qu'AMD pourraient résoudre. [:spamafote]  
 
Il ne vont probablement pas le faire pour se concentrer sur le R700. Les principaux soucis: pas assez de TMUs, ROPs buggées, et je sais plus quelle autre partie de la puce (fastpath ou un truc comme ça) est trop lent.

Message cité 1 fois
Message édité par marllt2 le 23-10-2007 à 22:39:32
Reply

Marsh Posté le 23-10-2007 à 22:38:43    

ok alors la question existentielle que j'ai envie de te poser: pour l'avenir des jeux; nvidia ou ATI ? 8800GT ou HD3870 ? wait and see ?

Reply

Marsh Posté le 23-10-2007 à 22:45:24    

jm1010 a écrit :

ok alors la question existentielle que j'ai envie de te poser: pour l'avenir des jeux; nvidia ou ATI ? 8800GT ou HD3870 ? wait and see ?


Les RV670 (3850/3870) et 8800GT n'ont pas une architecture à long terme. [:spamafote]  
 
Si on en reste aux caractéristiques techniques, le RV670 s'en sortirait beaucoup mieux que la 8800GT. Simplement il faudrait que les développeurs programment à 100% en respectant les specs de DX10, ce qui n'est pas le cas avec les accords TWIMTBP.
 
Tu fait des jeux DX10 avec plein de Geometry Shaders, et tu supprimes les fonctions bidons de brouillard, et ta 8800GT elle est au 3e sous-sol. [:spamafote]  
 
Le jour où nVidia sortira des cartes performantes en GS, il laissera le champ libre aux devs pour inclure des GS dans leurs jeux. Sauf que quand ces jeux sortiront, le RV670 sera dépassé. [:spamafote]


Message édité par marllt2 le 23-10-2007 à 22:46:34
Reply

Marsh Posté le 23-10-2007 à 22:48:06    

marllt2 a écrit :

 


Par exemple, les calculs en Geometry Shader sont 50 fois plus rapides avec une 2900XT qu'avec une 8800. Pourtant les GS étaient cencés être l'apport majeur de DX10.  [:spamafote] Inutilisable en pratique sur les GF8, et comme tous les studios ont des partenariats avec nVidia ils n'utilisent pas du tout de GS pour pas plomber les GF8.

 

Ensuite, nVidia incite les devs à utiliser des fonctions particulières. Genre le brouillard volumétrique de Bioshock DX10 est fait par des opérations scalaires interdépendantes. Sauf que ce genre de fonction n'a rien à faire dans un jeu. Ca ne fait pas partie des specs de DX10, et le brouillard peut être fait avec d'autres fonctions plus "universelles" et pas moins performantes.

 

Pourquoi nVidia demande ça alors ? Les GF8 ont une archi qui ne pénalise pas l'utilsiation des opérations scalaires interdépendantes. ALors que celle d'AMD est moins appropriée. En même temps comment leur reprocher puisque ces oprations ne font pas partie des specs de DX10 et n'on rien à faire dans un jeu ? [:spamafote]

 


 

J'étais pas au courant de cette histoire, nvidia sont de gros margoulains  :lol:

Message cité 1 fois
Message édité par sasuke87 le 23-10-2007 à 22:48:55
Reply

Marsh Posté le 23-10-2007 à 22:49:30    

sasuke87 a écrit :

J'étais pas au courant de cette histoire, nvidia sont de gros margoulains


C'est quoi ça ?  [:gratgrat]  


Message édité par marllt2 le 23-10-2007 à 22:52:41
Reply

Marsh Posté le 23-10-2007 à 22:50:47    

c'est la fusion de magouilleur et vilain  :D

Reply

Marsh Posté le 23-10-2007 à 22:52:47    

L'histoire des SM3 de Far Cry, c'était pas du margoulanisme aussi ?  :o  
 
Met toi à leur place. Tu as la possibilité de gagner 20% de perfs sur le concurrent simplement en demandant aux développeur d'utiliser des fonctions spéciales. A la place de nVidia, AMD ferait pareil de toute façon hein. ;)

Message cité 2 fois
Message édité par marllt2 le 23-10-2007 à 22:53:10
Reply

Marsh Posté le 23-10-2007 à 22:53:54    

lol non mais sans etre péssimiste les cartes la ont bien des bons cotés et par exemple pour crysis et d'autres en directX 10 qui arrivent, se tourneront ils vers les options spécifiques de la spécialité nvidia ou vers la généralité dx10 et donc a l'avantage d'ATI ?

Reply

Marsh Posté le 23-10-2007 à 22:56:46    

jm1010 a écrit :

lol non mais sans etre péssimiste les cartes la ont bien des bons cotés et par exemple pour crysis et d'autres en directX 10 qui arrivent, se tourneront ils vers les options spécifiques de la spécialité nvidia ou vers la généralité dx10 et donc a l'avantage d'ATI ?


Pour Crysis aussi il y a du margoulanisme dans l'air.  :o Pourtant vu la quantité de géométrie, les GS auraient bien étés utiles...
 
Un peu comme la bêta de Lost Planet qu'AMD n'avait pas pu avoir avant la sortie pour optimiser ses drivers. :o


Message édité par marllt2 le 23-10-2007 à 22:58:32
Reply

Marsh Posté le 23-10-2007 à 22:57:27    

marllt2 a écrit :

L'histoire des SM3 de Far Cry, c'était pas du margoulanisme aussi ?  :o  
 
Met toi à leur place. Tu as la possibilité de gagner 20% de perfs sur le concurrent simplement en demandant aux développeur d'utiliser des fonctions spéciales. A la place de nVidia, AMD ferait pareil de toute façon hein. ;)


 
ça c'est clair, et maintenant qu'ATI est devenu AMD, il se pourrait que leur politique vis-à-vis des jeux change... On pourrait obsever un peu plus de "Get in the game" dans les jeux. Pourquoi pas un Duke Nukem forever optimisé à mort R700???  :D  Enfin ça sera possible seulement si AMD est en position de force sur le marché et c'est loin d'être le cas actuellement.

Reply

Marsh Posté le 23-10-2007 à 22:58:13    

si ia du margoulisme partout moi je reste avec ma x1600PRO j'ai pas l'air d'un con :)

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed