Unreal Tournament est t'il un jeu T&L???

Unreal Tournament est t'il un jeu T&L??? - Jeux Video

Marsh Posté le 27-07-2001 à 21:45:01    

C que je plafonne a 25FPS (13FPS de moyenne) avec une GEforce2 MX dans un démo avec 17Bots :ouch:  
 
 :cry:  :cry:  :cry:  :cry:  :cry:  
 
 :hello:

Reply

Marsh Posté le 27-07-2001 à 21:45:01   

Reply

Marsh Posté le 27-07-2001 à 21:53:31    

:cry: Sivouplâit :cry:  
 
 :hello:

Reply

Marsh Posté le 27-07-2001 à 21:58:02    

non, ut pompe sur le cpu


---------------
InstaKAKAgramLa bouffe de TotozSteam▲BattleTag: Totoz#1835
Reply

Marsh Posté le 27-07-2001 à 21:58:47    

[:dur] [:dur] [:dur] [:dur] [:dur] [:dur] [:dur] [:dur] [:dur][:dur] [:dur] [:dur] [:dur] [:dur] [:dur]

 

[edtdd]--Message édité par partymaker--[/edtdd]

Reply

Marsh Posté le 27-07-2001 à 22:00:21    

Ya pas un update :cry:  
 
 :hello:

Reply

Marsh Posté le 27-07-2001 à 22:07:00    

yen a meme plusieur des update pour ton pb
ils sapellent duron , athlon et pentium3 (le p4 cest trop cher  :))


---------------
vous cherchez l'âme soeur ? vous n'avez pas trouvé chaussure à votre pied ? vous voulez une relation durable loin des rencontres de passage ?  alors ne faites pas le 36 17 SUSMAB, c'est que pour du cul  ©les nuls
Reply

Marsh Posté le 27-07-2001 à 22:09:38    

:fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou: :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou:  :fou: :fou:

 

[edtdd]--Message édité par partymaker--[/edtdd]

Reply

Marsh Posté le 27-07-2001 à 22:10:15    

susmab a écrit a écrit :

yen a meme plusieur des update pour ton pb
ils sapellent duron , athlon et pentium3 (le p4 cest trop cher  :))  




 
voire mieux: voodoo 4 ou 5 :lol:


---------------
*Janclod a dit un jour: «Moi je suis AwAre, je suis réveillé, et quand tu te réveilles tu te dis: mais qu'est-ce que???!!....et tu peux réussir!»
Reply

Marsh Posté le 27-07-2001 à 22:13:53    

mouais UT aime bien les carte 3dfx et leur glide , il tournait tres bien avec ma voodoo3
mais bon il bouffe quand meme surtout du cpu , pis acheter une voodoo5 par les temps qui court , chui pas sur que ce soit le meilleur choix :)


---------------
vous cherchez l'âme soeur ? vous n'avez pas trouvé chaussure à votre pied ? vous voulez une relation durable loin des rencontres de passage ?  alors ne faites pas le 36 17 SUSMAB, c'est que pour du cul  ©les nuls
Reply

Marsh Posté le 27-07-2001 à 22:20:19    

bah un conseil fait le tourner en open Gl sa Gforce apreciera bcp bcp mieu :-)
si mais souvenir sont bon l openGL prend en charger l T&L mais de oute facon les Gforce sa tourne bcp mieu en openGL de maniere generale.....voila voila..sinon les boot open gl ou pas sa te pompe directemnt sur le cpu.....

Reply

Marsh Posté le 27-07-2001 à 22:20:19   

Reply

Marsh Posté le 27-07-2001 à 22:21:04    

ben pas si sur, c ke ca bouffe du cpu ces petites betes.
Ma voodoo 3 PCI @180 ne semble meme pas saturée par mon celeron @945 (progression des perfs quasi double par rapport a mon vieux p2 @472)... alors une voodoo5!
 
j'aimerais bien voir ce que ca donne une voodoo 5 sur un gros tbird (~1.5ghz) ou p4 (~2Ghz)
 
d'ailleurs moi j'en cherche une de V4/V5 en pci, (pis un peu pour le cote "collector" de la chose j'avoue)
 
 
bon bien sur sur les jeux recents ca risque d'etre plus a la traine qu'une GF3, mais j'aimerais bien voir ce que ca donne, mais plus aucun site ne benche de V4/V5 pour ce genre de tests

 

[edtdd]--Message édité par Arcapt--[/edtdd]


---------------
*Janclod a dit un jour: «Moi je suis AwAre, je suis réveillé, et quand tu te réveilles tu te dis: mais qu'est-ce que???!!....et tu peux réussir!»
Reply

Marsh Posté le 27-07-2001 à 22:37:46    

Je confirme: en OpenGL, UT exploite le T&L.
Donc, avec une GeForce, on gagne considérablement à le faire tourner en OpenGL (et en outre, c'est beaucoup plus beau).

Reply

Marsh Posté le 27-07-2001 à 22:40:14    

Mettre une V5 :ouch:  J'viens de me payer une GEforce2 MX :hap:  
 
OpenGL change rien a ma pitoyable situation :cry:  
 
 :hello:

Reply

Marsh Posté le 27-07-2001 à 22:45:27    

Morchuflex a écrit a écrit :

Je confirme: en OpenGL, UT exploite le T&L.
Donc, avec une GeForce, on gagne considérablement à le faire tourner en OpenGL (et en outre, c'est beaucoup plus beau).  




 
je pense pas. sinon les perfs sur UT progresseraient selon la CG. et meme en opengl c'est pas vraiment le cas (aucune différence sensible entre ma GF ddr et ma GF2 ultra, c toujours ~60fps au utbench avec les memes settings), et en plus la différence avec le d3d serait bien plus marquée ( 55fps aux utbench a comparer aux 60fps de l'opengl, avec des settings identiques)


---------------
*Janclod a dit un jour: «Moi je suis AwAre, je suis réveillé, et quand tu te réveilles tu te dis: mais qu'est-ce que???!!....et tu peux réussir!»
Reply

Marsh Posté le 27-07-2001 à 22:46:21    

partymaker a écrit a écrit :

Mettre une V5 :ouch:  J'viens de me payer une GEforce2 MX :hap:  
 
OpenGL change rien a ma pitoyable situation :cry:  
 
 :hello:  




 
bah vi mais bon , celeron 500 sur UT , ca aide pas


---------------
vous cherchez l'âme soeur ? vous n'avez pas trouvé chaussure à votre pied ? vous voulez une relation durable loin des rencontres de passage ?  alors ne faites pas le 36 17 SUSMAB, c'est que pour du cul  ©les nuls
Reply

Marsh Posté le 27-07-2001 à 22:46:29    

sinon partymaker, je parierais sur un probleme de via 4en1 pas ou mal installés.  
 
edit: oups... c pas du via :D
 
 
re-edit: bon je viens de voir ta config plus en détails. alors, si c pas deja fait, tu me passes ton agp aperture a 128, voire 256.
 
ensuite tu d/l le dernier renderer opengl ici: http://unreal.epicgames.com. tu fais ce qu'il fo pour ke ca marche.
 
ensuite, sous ut, met-toi en 16 bits (sous D3d 32bits>16bits, mais en opengl 16bits=32bits) tu vires les decals et le volumetric lightning. tu passes le framerate désiré a 200 (un truc ke t sur de pas atteindre quoi), les 2 details sur medium, la qualité du son a low, directinput coché, ensuite console>preferences>audio tu met la qualité du son a 16khz ou 11025hz.
 
pis voila tu devrais avoir un framerate un peu meilleur :)
 
 
mais bon avec 17 bots et un celeri 500 y'a pas de miracles!

 

[edtdd]--Message édité par Arcapt--[/edtdd]


---------------
*Janclod a dit un jour: «Moi je suis AwAre, je suis réveillé, et quand tu te réveilles tu te dis: mais qu'est-ce que???!!....et tu peux réussir!»
Reply

Marsh Posté le 27-07-2001 à 23:01:38    

Tu es en quelle résolution?
En 768x1024 j'ai un jeu fluide (30 im/sec en moyenne sur une démo lourde et plus en jeu solo)avec Athlon 550 et Gforce 1 DDR alors je penche pour une mauvaise installation de tes pilotes. Vire tout et réinstalle un à un.

Reply

Marsh Posté le 27-07-2001 à 23:55:42    

  • [*][#00b846][/#00b846][#001ce2][#008d71][img][/img][#0000b8]

    partymaker a écrit a écrit :

    C que je plafonne a 25FPS (13FPS de moyenne) avec une GEforce2 MX dans un démo avec 17Bots :ouch:  


     :cry:  :cry:  :cry:  :cry:  :cry:  
     
     :hello:  



    [img][/img]

Reply

Marsh Posté le 28-07-2001 à 03:17:31    

bah moi j'y jouait fluide avec c466+tnt2 mon consei:
-tu t'en fous de la demo ou y a 17 bots [:fred2k]  
si le jeux est fluide...


---------------
Nashtbg a écrit : cete nuit j'ai révé qu'il yavait TheRealBl0P Fred2k et Qyri chez moua kon faisait un 2 vs 2  
Reply

Marsh Posté le 28-07-2001 à 08:11:43    

BHJ a écrit a écrit :

Tu es en quelle résolution?
En 768x1024 j'ai un jeu fluide (30 im/sec en moyenne sur une démo lourde et plus en jeu solo)avec Athlon 550 et Gforce 1 DDR alors je penche pour une mauvaise installation de tes pilotes. Vire tout et réinstalle un à un.  




 
Sa fais pas 2 jours que g ré-installé Windaube :jap:  
 
G foutu les .dll de D3D et OpenGL :jap:
 
Mon aperture est a 256MB mais avec 64MB de ram vidéo :sarcastic:  
 
 :hello:

 

[edtdd]--Message édité par partymaker--[/edtdd]

Reply

Marsh Posté le 28-07-2001 à 08:23:05    

Les .dll ont pas aidés pour la vitesse mais ont au moins le mérite d'avoir améliorés la qualité graphique :sarcastic:  
 
 :hello:

Reply

Marsh Posté le 28-07-2001 à 11:32:15    

fire in the hole !!! a écrit a écrit :

bah un conseil fait le tourner en open Gl sa Gforce apreciera bcp bcp mieu :-)
si mais souvenir sont bon l openGL prend en charger l T&L mais de oute facon les Gforce sa tourne bcp mieu en openGL de maniere generale.....voila voila..sinon les boot open gl ou pas sa te pompe directemnt sur le cpu.....  




 
 
NAWAK !   :lol:  :lol:  :lol:  :lol:


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
Reply

Marsh Posté le 28-07-2001 à 13:05:45    

Arcapt,  
 
J'ai un gros doute; d'abord, si tu ne vois pas de différence entre ta GF DDR et ton Ultra, c'est qu'il y a qqch qui limite ta config. Moi, je viens de remplacer ma GF DDR par une GF3 (oui, je suis riche, c'est ignoble), et la différence, je la vois. C'est simple, je peux maintenant jouer en 1600x1200x32 avec un meilleur framerate que celui que j'avais en 1024x768x32!
 
Maintenant, c'est vrai que la différence de perfs n'est pas énorme entre OpenGL et D3D. Voici ce que j'obtiens à UTbench sur ma config (256 Mo de RAM, TBird 1200@133, GF3) en 1600x1200x32:
 
OpenGL + S3TC: 68 fps
D3D: 62 fps
 
Cela représente 9% de différence si je sais calculer. Ce n'est pas colossal, mais il faut voir qu'en OpenGL j'utilise les textures détaillées. Un sacré surcroît de travail pour la CG, non? Même avec la compression...
Qu'en penses-tu?

Reply

Marsh Posté le 28-07-2001 à 13:07:45    

Oups: j'aurais dû dire
 
"cela représente 10% de différence".
Apparemment je ne sais pas calculer!

Reply

Marsh Posté le 28-07-2001 à 14:26:50    

bien sûr qu'il y a une différence avec la DDR morchuflex. mais bon la différence tu la sens essentiellement passé 1280*960... puis en plus avec les 64Mo de la carte maintenant  le 1600*1200 passe, donc oui y'a bien une différence (d'ailleurs sur Q3 je la sens tres bien la différence!), seulement, comme c'est ecrit durant les temps de chargements de 3dmark2001: "framerate is life".
et le pour en avoir un bon de framerate, c'est 1024*768 max et le plus souvent 800*600*16 pour pas trop en perdre ;)
 
certains trouveront le fait de jouer dans cette résolution criminel avec une GF2 ultra, mais un fraggeur fou comprendra :)
 
sur UT ma config n'est malheureusement limitée que par une seule chose: mon cpu, mais bon c kan mm 1Ghz, et pis mm si je suis un fraggeur fou je v pas le changer rien ke pour UT ;)

 

[edtdd]--Message édité par Arcapt--[/edtdd]


---------------
*Janclod a dit un jour: «Moi je suis AwAre, je suis réveillé, et quand tu te réveilles tu te dis: mais qu'est-ce que???!!....et tu peux réussir!»
Reply

Marsh Posté le 28-07-2001 à 14:45:13    

Je comprends ton point de vue, Arcapt. Mais je trouve trop déprimant de jouer en basse résolution. Comme je n'ai pas la prétention de devenir champion, je préfère fragguer moins bien mais dans de sublimes décors.
 
Cela dit, la question d'origine était de savoir si UT supporte le T&L et je me / te demandais si les 10% de perfs à UT entre OpenGL et D3D étaient dûs au T&L...

Reply

Marsh Posté le 28-07-2001 à 15:06:35    

Non mais là le pb est clair! :lol:
 
17 bots!!! :lol:
 
Le celeron est à genoux là, faut se calmer! ;)

 

[edtdd]--Message édité par Leg9--[/edtdd]


---------------
If I could start again, a million miles away, I would keep myself, I would find a way... "Loreleï's dead ; Heaven is about to fuzz."
Reply

Marsh Posté le 28-07-2001 à 15:25:29    

effectivement je n'ai pas répondu a la question principale.
 
bon alors deja, la je viens d'essayer de tester l'opengl avec et sans s3tc...ben c pas une franche réussite, ca plante sur une erreur de textures sans le s3tc. bon faut dire qu'avec le temps mon UT est devenu assez sensible (le petit fait 2.5Go ;)).
 
bon pour ce que j'en pense, je me base sur une affirmation de départ: le direct3d doit etre compatible avec un maximum de cartes, puisque c'est cette API que l'équipe de UT a choisi, afin de ne pas pénaliser les cartes ki s'en sortaient mal avec l'opengl (les matrox par ex).
donc il doit etre d'abord etre compatible et ensuite performant.
Alors que loki a conçu directement le renderer opengl sous linux, pour les geforce, et avec une geforce! forcément, si on optimise plus pour une carte en particulier ca aide.  
 
ensuite, il y a quelques mois, je jouais avec la qualité du son a fond, et j'avais, sur la meme machine, un framerate plus important en direct3d qu'en opengl, et de maniere assez nette.
Cela tendrait a démontrer qu'avec l'opengl on profiterait plus d'une augmentation de puissance cpu. Donc en fait que le direct3d serait utilisé, tant pour la compatibilité universelle, que parce qu'il serait plus efficace sur une machine avec un cpu modeste que l'opengl.
Et ca tendrait a confirmer ma première hypothèse également (optimisation pour CG récentes= matériel récent= gros cpu)
 
je ne crois pas que UT profite du T&L, sinon l'ecart serait bien plus grand que les 10% de différence de framerate que l'on peut constater, surtout dans les resolution basses et moyennes. il suffit de voir la différence qu'il y a entre une gf sdr et une tnt2 ultra: la tnt2 est plus ou moins égale sur les jeux non T&L, par contre sur les jeux T&L elle se prend une véritable piquette.
 
edit: je tiens également à ajouter que l'augmentation de framerate dûe au s3tc est sans doute tres modérée (1-3%, mieux un truc comme ca), mais ca tu l'auras compris je ne peux pas le prouver. Je ne suis pas sûr, au vu de la qualité délavée des textures de base, que UT soit vraiment emmerdé par un probleme de BP mémoire.
Je me souviens également avoir lu sur planetunreal que tim sweeney disait que les 3dfx et Ati s'en sortent un peu mieux dans la gestion des textures, peut-etre que le s3tc compense partiellement cette faiblesse
 
enfin c'est mon opinion la-dessus, si qqn a mieux a proposer, je suis preneur :)

 

[edtdd]--Message édité par Arcapt--[/edtdd]


---------------
*Janclod a dit un jour: «Moi je suis AwAre, je suis réveillé, et quand tu te réveilles tu te dis: mais qu'est-ce que???!!....et tu peux réussir!»
Reply

Marsh Posté le 28-07-2001 à 15:40:30    

UT n'utilise pas OpenGL : il y a une différence entre offir un renderer OpenGL et moteur OpenGL comme celui de Quake. Pour pouvoir utiliser le T&L avec OpenGL il faut utliser les fonctions de transformation comme glRotatef(...) etc... A la base le moteur d'Unreal est logiciel et Glide. Les versions Direct3D et OpenGL n'offrent qu'un renderer et comme son nom l'indique ça ne fait que du rendu : ça permet d'avoir du filtrage et des petits effets sympas mais en aucun cas le T&L...


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
Reply

Marsh Posté le 28-07-2001 à 15:50:15    

Zeross> j'aime bien ton explication!  
est-ce que tu connaitrais un site qui expliquerais ca? Ne serait-ce que parce que j'ai du mal a comprendre la seule notion de "moteur 3d", et la nuance renderer/moteur opengl pur.
 
est-ce que ca veut dire que pour utiliser le T&L, il faut que le moteur soit purement et simplement fait pour une seule api (direct3d 7, ou opengl).
 
est-ce que de vieux jeux comme Q2 ou HL profitent quand meme du T&L grace a leur moteur opengl ou pas?

 

[edtdd]--Message édité par Arcapt--[/edtdd]


---------------
*Janclod a dit un jour: «Moi je suis AwAre, je suis réveillé, et quand tu te réveilles tu te dis: mais qu'est-ce que???!!....et tu peux réussir!»
Reply

Marsh Posté le 28-07-2001 à 16:13:52    

Un site ? oula non en fait j'ai appris ça comme ça sur le tas, puis je développe un peu en OpenGL donc ça aide.  
 
Le T&L basiquement c'est simplement une unité qui multiplie des vecteurs par une matrice, toutes les transformations 3D marchent comme ça. Donc si je veux faire une rotation soit je programme ma propre routine dans mon coin comme le faisait les programmeurs des moteurs 3D logiciels, soit je fais un appel à une fonction OpenGL ou DX(en l'occurence glRotate). Unreal est à la base un moteur logiciel et Glide, ce qui signifie que le moteur est basé sur les routines développés par le programmeur dont je te parlais plus haut autrement dit toutes les transformations géométriques sont à la charge du CPU c'est pour cela que dans UT le processeur est plus important que la carte graphique. Mais bon avec la multiplication des catrtes 3D les développeurs se sont dits qu'ils ne pouvaient pas laisser les choses en état, du coup comme il était impossible de reprendre tout le moteur ils ont fait des renderer c'est à dire qu'ils utilisent les fonctions de rendu d'OpenGL et DirectX comme le filtrage, les transparences etc.... mais la structure même du moteur est fondamentalement la même.  
 
En revanche Carmack dés qu'il a réalisé le portage du QuakeEngine en OpenGL s'est aperçu de la puissance de l'API et comme le bonhomme est assez visionnaire il se doutait que des cartes gérant la géométrie arriverait sur PC du coup il a utilisé les fonctions de l'API afin de disposer d'une accélération T&L dés que ce serait disponible. Rejoue à GLQuake avec une GeForce tu vas voir les frame rate de folie !
 
Bon ça c'est le minimum pour avoir un moteur qui bénéficie du T&L mais en fait pour vraiment en profiter il faut totalement concevoir le moteur autour en utilisant es structures de données spéciales pour la géométrie afin de mieux pouvoir la déporter vers l'accélérateur géométrique mais je m'emporte je m'emporte et en relisant j'ai l'impression que je vais plus t'embrouiller qu'autre chose :).


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
Reply

Marsh Posté le 28-07-2001 à 16:38:53    

non non ca va je suivais bien ;)
je m'interesse a la technique un minimum, je peux bien faire un effort de compréhension de temps en temps!
 
mais apres ton explication me vient une question: comment se fait-il que pour un jeu qui utilise le T&L on n'ait pas plusieurs renderers: un pour le T&L software et un pour le T&L hardware, puisque a priori seulement l'un des 2 est intégré au moteur du jeu?
 
et aussi saurais-tu pourquoi le renderer D3d de UT merdouille sur le 16bits (problemes de Z-buffer a ce que je sais, ca se voit ne serait-ce que sur le ptit flingue de base, ou lorsqu'on fait tourner son perso dans la config joueur), mais pas en 32bits, alors qu'il est censé se contenter de traduire betement ce que lui envoie le moteur de jeu?
D'ailleurs c pareil pour tribes2


---------------
*Janclod a dit un jour: «Moi je suis AwAre, je suis réveillé, et quand tu te réveilles tu te dis: mais qu'est-ce que???!!....et tu peux réussir!»
Reply

Marsh Posté le 28-07-2001 à 17:07:45    

Leg9 a écrit a écrit :

Non mais là le pb est clair! :lol:
 
17 bots!!! :lol:
 
Le celeron est à genoux là, faut se calmer! ;)  
 
 




 
Non, G le mème trouble avec 4 bots :cry:  
 
 :hello:

Reply

Marsh Posté le 28-07-2001 à 17:15:30    

Enfait c'est plus l'aspect confus que l'aspect technique de mon post précédent qui me faisait peur, mais si tu as suivi mes élucubrations tant mieux :).
 
Comme je te l'ai dit le T&L hardware est totalement transparent à partir du moment qu'il est supporté dans l'API et dans les drivers de la carte vidéo. Pour le renderer ça ne fait strictement aucune différence que ce soit la carte vidéo où le CPU qui lui envoie les sommets des polygones transformés. En fait lorsque tu effectues une transformation OpenGL, l'application interoge le driver si la carte supporte le T&L alors c'est elle qui effectue le calcul sinon c'est le CPU. Dans le cas d'un moteur logiciel il n'y a pas cette interrogation : les calculs sont directement faits par le CPU mais les résultats sont identiques, ensuite ces polys sont rasterisés (c'est à dire transformés en points pour être affiché sur un écran) puis texturés etc... c'est pour ça qu'il n'y a besoin que d'un seul renderer que le moteur gère ou pas le T&L.
 
En ce qui concerne le problème de ZBuffer sur UT je ne vois pas trop à quoi c'est dû, visiblement la distance entre les plans de clipping proche et éloigné est trop importante du coup la perte de précision du ZBuffer 16 bits entraîne quelques artefacts visuels mais bon ce n'est qu'une supposition.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
Reply

Marsh Posté le 28-07-2001 à 20:48:10    

Idée d'un patch T&L pour ce jeu...  
 
Chais po si sa existe mais vi qu'il y a des patches 3D NOW et SSE j'imagine que peut ètre...
 
 :hello:

Reply

Marsh Posté le 28-07-2001 à 20:48:21    

Zeross, merci pour les explications techniques: j'y vois plus clair.
Arcapt, merci pour avoir donné ton avis, et de façon nuancée, ce qui change de certains posts qu'on voit parfois sur ce forum.
Grâce à vous deux, j'ai appris des choses.
 
Il y a une dernière chose qui est un peu surprenante avec les perfs d'UT par rapport à celles de Q3: le CPU minimum pour faire tourner le jeu est bien plus petit que pour Q3 et pourtant le point où l'augmentation de puissance CPU cesse d'être utile est bien plus haut que pour Q3.
J'explique: UT peut tourner décemment (en 640x480x16 bien sûr)sur un P200 MMX et une Voodoo2, alors que Q3 rame atrocement sur une telle config.
En revanche, les perfs de Q3 sont très vite plafonnées par la CG: au-dessus de 500 MHz de puissance CPU, on ne gagne plus grand-chose à ce jeu (en haute résolution), alors que UT bénéficie de chaque MHz supplémentaire du CPU.
Exemple: quand j'overclocke mon TBird de 1200 à 1400, je gagne strictement zéro fps à Q3 mais facilement 5-10% à UT.
Serait-ce dû au T&L, présent dans Q3 et absent à UT? Ou au fait que les textures de Q3 sont plus chargées, ce qui fait que la CG limite les perfs avant que le CPU soit sur les genoux?

Reply

Marsh Posté le 28-07-2001 à 21:01:43    

Tu as une GEforce3, donc Quake 3 peut effectuer tout ses calculs de géométrie et de lumière a partir de la carte et laisser le processeur effectuer les calculs d'intelligence artificielle et de physique (Mon Celeron 563 effectue cette tache aisément avec le max de Bots sous Quake3 alors un T-Bird a 1400MHZ...) alors qu'a Tournament (Sauf si il y a un patch que je connais pas) le processeur s'occupe de tout et donc, + tu monte en fréquence, + le processeur peut calculer de Polygones, de Vertices, d'IA et de Physique ce qui explique que ton nombre de FPS augmente de façon parallèle a l'augmentation de fréquence alors que sa plafonne sur mon Celeron563...
 
Pour ce qui est de la config minimum nécéssaire pour le jeu, Les tableaux d'Unreal Tournament sont moins chargés que ceux de Quake3 ce qui réduit la charge d'un CPU modeste comme un P200MMX, mème en haute résolution (moins de calculs a effectuer) et des bots, c des bots, sa bouffe du CPU T&L ou pas...
 
Voila c pas bien compliqué :jap:  
 
 :hello:

 

[edtdd]--Message édité par partymaker--[/edtdd]

Reply

Marsh Posté le 28-07-2001 à 21:04:32    

Ca sonne assez logique, oui.

Reply

Marsh Posté le 28-07-2001 à 21:05:37    

Voila et j'espère avoir pu t'aider ;)  
 
 :hello:

Reply

Marsh Posté le 28-07-2001 à 21:08:08    

J'essaie tournament en 640x480x16 pour fun...

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed