Workstation 3D/Rendu - Carte mère - Hardware
Marsh Posté le 31-10-2007 à 16:43:24
peut être que si tu avais acheté une carte graphique étudié pour ce genre de chose tu n'aurais pas été décu
ensuite il ne me semble pas que 3ds soit particulièrement optimisé pour le multicore
edit : si il l'est
mais d'autre facteur peuvent intervenir, comme la quantité de ram
ensuite les fabricants n'ont pas que tes petits besoins en tête, et si la progression dans ton utilisation ne te semble pas assez importante, dans d'autres domaines elle l'est flagrante
Marsh Posté le 31-10-2007 à 16:44:22
3DSMAX 9.0 est-il optimisé pour les quad core ? Y'a-t-il un patch S'il ne l'est pas, une seul core va faire le traitement de ton rendu donc perfs pas terribles, mais quand même un peu mieux que ton ancienne config. Et bon en même temps, il met deux fois moins de temps pour faire le rendu en 640x480, donc c'est quand même 2x plus rapide.
Marsh Posté le 01-11-2007 à 01:54:18
Si certain trouve que l'évolution est flagrante, c'est au niveau des jeux ! Je suis d'accord, mais c'est le code qui a évoluer et aussi il y a le certain calcule qui sont fait en hadrware par des puces spécialiser : le GPU, mais en ce qui concerne la puissance pure de calcule, cad un rendu ....et bien ce n’est pas fameux !!! J’ai même trouver des test concernant les xeon quad core, et bien ce n’est pas terrible non plus.
Marsh Posté le 01-11-2007 à 01:59:11
Pour info et d'apres mes constatations, 3DSMAX 9 utilise les quad core à 100% dans tout mes tests. Ce n'est pas le cas des soft de Adobe en CS2 et CS3, ni Combustion 4 par exemple.
Marsh Posté le 01-11-2007 à 04:24:42
Mon avis c'est que pendant encore un petit bout de temps (jusqu'à ce qu'on atteigne le milliers de core par processeur et le calcul parallèle massif), pour faire du calcul pure rien de tel que le calcul partagé sur plusieurs machines. L'année dernière j'avais fait un gros projet où je devais utiliser un logiciel de calcul bourrin de mécanique des fluides et bien sur mon petit réseau familial c'était impec, bien que les PC ne soient pas tous des bêtes.
Marsh Posté le 01-11-2007 à 08:52:53
neos73 a écrit : Bonjour, |
Deja compare avec les memes versions si tu veux etre plus objectif
Marsh Posté le 01-11-2007 à 09:04:40
Ensuite calcule la puissance que tu as par rapport au prix d'achat.
Si ca pouvait etre pareil pour les voitures ...
Marsh Posté le 01-11-2007 à 11:27:27
Bonjour,
Pour info, openGl 2.0 n’est pas compatible avec une GeForce 4
Et puis, vu que ma nouvelle GeForce 8 et si évoluée et accepte l’openGL 2.0 on s’attend à une bombe..... Mais les résultat sont pas terrible pour une évolution sur 4 génération de GPU tu comprends ce que je veux dire.
Et pour répondre à "I_have_a_big_problem", il est claire que j'ai un réseau de pc (3 machines : Xp2500 + Xp2800 + le nouveau) pour utiliser les softs de rendu, dont ReelFlow pour le calcule des fluides, mais pour une nouvelle machine il faut avouer que ce n’est pas une révolution quand même !!!!
Marsh Posté le 01-11-2007 à 12:54:24
neos73 a écrit : Bonjour, Pour info, openGl 2.0 n’est pas compatible avec une GeForce 4 |
la geforce 8 n'a jamais eu pour but de faire du calcul de rendu, l'acheter dans ce but c'est n'importe quoi, tu ne peux t'en prendre qu'a toi même
un peu comme si quelqu'un achetait un quadro fx ou une firegl et se plaignait qu'elle n'est pas à la hauteur pour les jeux
Marsh Posté le 01-11-2007 à 21:26:57
C'est quand meme bizzarre cette histoire de GPU. Tu n'aurais pas un problème de drivers : genre tu utiliserais les drivers microsoft ?
Marsh Posté le 02-11-2007 à 09:01:31
je crois que je me suis mal exprimé, quand je parles de la carte graphique c'est juste au niveau de l'affichage d'une scene de pres de 3.000.000 de poly non texturer sur 3dsmax 9 , donc un soft pro. je sais que avec une quadro les drv sont optimiser et que c 'est mieux, sauf que le prix est 4 a 10x plus cher mais il n'en reste étonnant que les résulta
Marsh Posté le 02-11-2007 à 11:11:56
J'ai vu la différence entre un driver microsoft et un driver nvidia. J'ai sais que c'est bete comme remarque mais verifie bien que c pas le driver microsoft parce quand meme entre une Gf4600 et une Gf8800 GTX 768Mb
la différence est en principe enorme.
Pour alors un pb de driver du chipset mal installé ?
Marsh Posté le 02-11-2007 à 11:29:24
En cherchant sur le forum je suis tombé la dessus
http://forum.hardware.fr/hfr/Graph [...] 7846_1.htm
Marsh Posté le 02-11-2007 à 11:41:53
Tu met le doigt sur le fait que nvidia optimise a mort dans les jeux, que les nouveau effet sont supporté, mais que la puissance pour lesoperation de base n'as peut etre pas tant evolué que ca, et surtout, les drivers d'une gforce sont absolument pas optimisé 3dsmax.
Marsh Posté le 02-11-2007 à 19:30:19
DesuetCR_B tu as tout compris, pour les jeux c'est de l'optimisation logiciel, une meilleurs gestion de l'ensemble et bien sure un peu de puissance en plus et ca donne des Call of Duty 4 qui sont super beau.... mais en réalité mes tests sont honnête et juste, je peux donner le fichier à qui veux pour tester par lui même ! et comme le dit la personne sur ton lien : http://forum.hardware.fr/hfr/Graph [...] 7846_1.htm avec son client... n’acheter plus rien !
Marsh Posté le 02-11-2007 à 19:35:14
A bon moi j'y ai trouvé ça :
BerTiN03 a écrit : AVec les quadro, Nvidia te font plus payer une stabilité et un dévelloppement en parteneriat avec de gros éditeurs de softs de modélisation et de CAO, que vraiment de la performance pure. |
Marsh Posté le 02-11-2007 à 19:43:20
neos73 a écrit : mais en réalité mes tests sont honnête et juste |
prétendre mesurer les performances globales d'une carte graphique ou d'un processeur en utilisant une seule application et un seul test
Marsh Posté le 02-11-2007 à 19:50:47
Oui faut faire une différence entre les objets qui sont affichés en filaire et en mode shaded
De plus, en OpenGL le GPU donne des intersections et un plaquage de texture plus juste, mais, gère moins de poly à l'écran car la scène est recalculée en continu, mais il n y pas de latence lors du changement du point de vu, à l'inverse, en Direct3D on gère bcp plus de poly (+7000000), mais avec moins de précision et surtout, quand on a une scène très lourde, vous remarquerez une latence de 5 sec de calcule pour préparer le traitement par Direct3D avant que vous puissiez modifier le point de vu !!!!
Marsh Posté le 02-11-2007 à 19:58:20
eifersucht91, si tu remarques le titre de ce forum, c'est "Workstation 3D/rendu" et je sais de quoi je parle, que tu travails sous 3DSMAX Cinema4D Maya8 XSI6 et même Houdini le résultat est le même
Car 3dsmax est le meilleurs bench pour voir que vaut ta machine pour bosser en 3D. Il utilise tout les cors du CPU pour le rendu et le GPU pour l'affichage sans artifices.
Marsh Posté le 02-11-2007 à 20:04:17
a tout hasard un comparatif cpu sous 3ds 9
http://www.hardware.fr/articles/69 [...] x9650.html
Marsh Posté le 02-11-2007 à 20:09:21
si 3ds max était l'outil ultime permettant à lui seul de cerner la totalité des performances ca se saurait...
la preuve de tes tests c'est que tu tire une conclusion erroné : que la puissance brute du hardware n'a que très peu évolué
tu n'a absolument pas considéré une chose : plus il y a de puissance disponible, moins les programmeurs ont tendance a se fouler pour optimiser leur code
de plus tout en utilisant 3ds max tu ne pose pas la question de savoir si ta méthode de test est bonne, il n'y qu'avoir les tests utilisant 3ds max pour comparer les performances des processeurs qui montre un accroissement significatif des performances allant à l'encontre de tes propres résultats (cf : le lien donné par OdbO juste au dessus)
tes tests reflètent l'évolution des performances dans ton utilisation personnel uniquement (et même pas l'évolution des performances sous 3ds max), il est compréhensible que tu trouve ca frustrant et que tu trouve l'évolution trop faible, mais de là à en tirer des conclusions générales et définitives
Marsh Posté le 02-11-2007 à 20:22:06
Ecoute je vais te dire les choses simplement, 3DSMAX est le soft 3D le plus rependu au monde, et c'est mon outil de travail.
Mon test est simple est il est baser sur une anime de uniquement 25 images , il est clair que sur 10h de calcul l'écart va se creuser entre les CPU (oublie le GPU).
Alors peu importe ce que tu peux dire, mon test, comme je l'ai énoncé donne ses résultats avec une machine optimisée. Et je trouve que sur plus de 4 ans l'évolution des CPU est trop faible pour être honnête
Marsh Posté le 02-11-2007 à 20:22:46
ben déja faire des tests openGL sous max c est un peu la dernière des choses à faire , vu la poussivité du bouzin dans se mode d'affichage c est dire ... même directX est plus rapide... grumpf !!
non si tu souhaite tester l'affichache openGL dans de bonne condition, faut le faire sur des softs qui on fait leurs preuves dans se domaine, st'a dire des pointures genre maya, xsi(softimage), c4D et surment d'autres
Marsh Posté le 02-11-2007 à 20:25:32
Alors je cherche qui à accès a des Xeon dual ou Xeon Quad affin de faire le même test que moi pour voir que qu'il obtiendra.
Marsh Posté le 02-11-2007 à 20:32:17
le problème c'est peut-être justement que ton test de rendu n'est pas assez long pour t'apporter une bonne vision de l'augmentation des performances
plus le calcul est simple moins l'augmentation des performances aura d'incidence sur le temps de calcul
si t'as un peu de temps, refais un calcul de rendu mais qui durerait dans les 10 min sur ton ancienne plateforme, je suis pas sur que le gain ne serait toujours que de 50% (ce qui serait déjà pas si mal)
Marsh Posté le 02-11-2007 à 20:38:35
neos73 a écrit : Alors je cherche qui à accès a des Xeon dual ou Xeon Quad affin de faire le même test que moi pour voir que qu'il obtiendra. |
ben j'ai un bi quad xeon ..mais je n'utilise pas max si tu as une scène de test plus complexe à rendre par exemple essai de la poster en *.obj
Eifersucht91 a écrit : le problème c'est peut-être justement que ton test de rendu n'est pas assez long pour t'apporter une bonne vision de l'augmentation des performances |
vi complètement sur un rendu comme il a actuellement les cpus ont peut être même pas le temp de monter au max de leurs charge
Marsh Posté le 03-11-2007 à 13:09:06
J'ai envoyé le fichier à nepheast. qui d'autre veux tester ?
Marsh Posté le 03-11-2007 à 16:58:01
merci neos73 pour le fichier ,mais n'ayant pas max9 sous la main je ne peux pas faire grand chose, les rares scripts pour convertir le*.max ne fonctionne pas
si tu exportes ton fichier en *.3ds est il toujours aussi lourd?, tu as des paramètres d'animation dans ton fichier ou c'est simplement un grand nombre d' objets/polygons ?
Marsh Posté le 06-11-2007 à 22:24:12
Hello, me revoilà.
Je propose que quelqu’un crée un fichier avec 500.000 poly en *.obj et nous discuterons d'un protocole de test GPU et CPU pour la 3D et le rendering.
Qui veut participer ?
Marsh Posté le 07-11-2007 à 19:45:33
neos73 a écrit : Hello, me revoilà. |
Juste pour le sport alors, j'ai la meme config que toi avec une vieille carte graphique.
Marsh Posté le 09-11-2007 à 17:47:49
Si tu veux, prepare un fichier, et on decidera quoi faire comme animation.
Marsh Posté le 31-10-2007 à 16:34:33
Bonjour,
Il me semble que on se moque de nous !!
En 4 ans et tout le blah blah que on nous fait, avec tout les test etc.... Je suis trés decu de l'évolution des CPU et GPU
Voici le test que je propose, il simple, et parle de lui même.
Soft : 3DSMAX 9.0
OS : Xp pro SP2 32Bit
Scene: 50x50 spheres de 32 faces groupées et annimée avec une rotation de 360° en 25 images
Overcloking des machines : NON
Workstation 1: Acheter il y a plus de 4 ansAMD Xp2800+
2 Gb Ram Corsaire PC3200 en dual Channel
Raptor 75Gb SATA
Gf4600 128 Mb sur AGP 8x
Carte mère Asus A7N8X-E
Workstation 2 : Acheter il y a 1 semaine
Intel Core2 Q6600
2 Gb Ram DDR2 Cruicial Ballistix Tracer PC6400 en dual Channel
Gf8800 GTX 768Mb PCI-E
Raptor 75Gb SATA
Carte mère Asus P5N32-E Chipset 680I
Resultat réel de l'affichage: affichage en 1920x1200
Workstation 1 = 2.97 im/s en openGL 1.57
Workstation 2 = 8.27 im/s en openGL 2.0
=> pour une GeForce de dernière génération !!!! c est nul
Workstation 1 = 31.31 im/s en DirectX (9.0c)
Workstation 2 = 56.42 im/s en DirectX (9.0c)
=> pour une GeForce de dernière génération !!!! c est nul
Resultat du Rendu: Résolution 640x480
Workstation 1 = 45s
Workstation 2 = 21s
=> pour un quatre core !!!! c est nul
Donnez votre avis et vos résultats.