[HFR] Dossier : AMD A8-3850 : Le pari APU

Dossier : AMD A8-3850 : Le pari APU [HFR] - HFR - Hardware

Marsh Posté le 30-06-2011 à 08:26:07   0  

Après le lancement il y a deux semaines de Llano en version Mobile, cette APU débarque aujourd'hui sur les PC de bureaux. Voici notre test de la version la plus haut de gamme, l'AMD A8-3850 !
Lire la suite ...

Reply

Marsh Posté le 30-06-2011 à 08:26:07   

Reply

Marsh Posté le 30-06-2011 à 08:53:04   2  

Concernant l'overclocking par le multi, c'est un problème sur lequel on était tombé avec Moyen_Moins et nos expérimentations sur Zacate/Ontario, il semblerait que quelque chose verrouille la fréquence max à 1:2 (E-350) ou 1:4 (C-50) vis à vis de la PLL.
 
Dommage que les cores K10 soient à ce point voraces (et peu performants), tout le reste est bon :/


Message édité par Gigathlon le 30-06-2011 à 08:57:19
Reply

Marsh Posté le 30-06-2011 à 08:56:54   1  

Merci pour le test !
 
Une idée de la date d'arrivée des A4 ? Idéaux pour un HTPC pour le PC de Mamie il semblerait :)
 
Pour le reste c'est clair que ce sont surtout les portables qui vont profiter de ces APUs, entre leur sensibilité à la consommation, l'importance du graphisme intégré sur ce marché et leur résolution native plus faible, c'est du tout bon pour Llano ! Pour les vrais PC (troll inside) perso j'attends même de voir ce que ça donnera au-delà de Trinity (+50% ce n'est pas encore assez :D), en attendant vivement Bulldozer.

Reply

Marsh Posté le 30-06-2011 à 08:57:23   1  

Vos mesures de consommation ont l'air bonnes (pas de différences extravagantes venant de la carte mère). C'est un progrès à souligner en votre faveur et d'autres sites francophones devraient faire la même chose, et arrêter les bêtises.
 
Par contre pourquoi ne pas avoir testé avec 1X,2X,4X instances de prime (vous l'avez déjà fait) ou alors donner les scores de prime ? La conso est proportionnelle à ce que l'ont fait. Techreport donne un score perf/watt sur cinebench depuis bien longtemps déjà.

Reply

Marsh Posté le 30-06-2011 à 09:04:04   1  

C'est vrai que ce serait sympa d'avoir la conso avec 2x Prime en sus vu qu'on a des quad natif vs des dual HT. Want! :) Pour la mise en // des perfs et conso alors il faudrait aussi l'avoir sur FurMark tant qu'à faire.


Message édité par Elian le 30-06-2011 à 09:06:55
Reply

Marsh Posté le 30-06-2011 à 09:07:26   1  

tigredubois a écrit :

Par contre pourquoi ne pas donner les scores de prime ? La conso est proportionnelle à ce que l'ont fait. Techreport donne un score perf/watt sur cinebench depuis bien longtemps déjà.


Je pense que c'est prévu pour le nouveau protocole "comparo CPU v2.011" :o
 
Maintenant, ça demande une certaine rigueur pour bien sortir des chiffres intéressants (idéalement avec 1-2-4-6-8 threads pour les trucs genre Cinema4D/Prime, et pas avec une seule appli mais en incluant les quelques jeux du protocole).
 
D'ailleurs, j'en profite pour brailler tiens! Je trouve dommage le manque de mesures comparables dans les perfs graphiques, la HD5570@600MHz sur les autres CPU par exemple, mais aussi vis à vis du dual graphics, qui devrait se retrouver face à l'i3 couplé à un GPU de même calibre dans les configs "entrée de gamme jeu".

Reply

Marsh Posté le 30-06-2011 à 09:17:39   0  

Merci pour l'article :jap:

 

EDIT :
page 7

 
Citation :

La situation s'inverse drastiquement ici puisque les Core i3 arrivent à détronner détrôner les meilleurs Phenom II, pourtant plus chers.


Message édité par Zack38 le 30-06-2011 à 09:25:27

---------------
Méta-Topic Hardware
Reply

Marsh Posté le 30-06-2011 à 09:25:45   1  

Gigathlon a écrit :

Maintenant, ça demande une certaine rigueur pour bien sortir des chiffres intéressants (idéalement avec 1-2-4-6-8 threads pour les trucs genre Cinema4D/Prime, et pas avec une seule appli mais en incluant les quelques jeux du protocole).

Sur toutes les applis du protocole, même :whistle: (ce serait sérieusement l'idéal). Assez galère, par contre déjà réintroduire la conso en fonction du nombre d'instance serait une bonne chose :jap:
 

Gigathlon a écrit :

D'ailleurs, j'en profite pour brailler tiens! Je trouve dommage le manque de mesures comparables dans les perfs graphiques, la HD5570@600MHz sur les autres CPU par exemple, mais aussi vis à vis du dual graphics, qui devrait se retrouver face à l'i3 couplé à un GPU de même calibre dans les configs "entrée de gamme jeu".


 
Tu veux vraiment la mort de notre Guillaume national ? :D
On est pas vraiment CPU limited dans les jeux utilisés pour les perfs GPU vu les perfs graphiques donc je ne vois pas trop l'intérêt.

Reply

Marsh Posté le 30-06-2011 à 09:29:36   1  

Dites, l'A8-3850 est-il débloqué niveau coeff ou ne l'est-il pas ? :??:

 

Parce que c'est pas très clair dans le test, on dit qu'on peut monter librement le coeff à x36, mais que ce n'est pas réel ( :??: ) :pt1cable:

 

edit : Marc, erreur à corriger :jap: (cf post au-dessus du tien)


Message édité par Zack38 le 30-06-2011 à 09:30:38

---------------
Méta-Topic Hardware
Reply

Marsh Posté le 30-06-2011 à 09:54:03   1  

Marc a écrit :

Sur toutes les applis du protocole, même :whistle: (ce serait sérieusement l'idéal). Assez galère, par contre déjà réintroduire la conso en fonction du nombre d'instance serait une bonne chose :jap:


Ca ne serait pas forcément si dur, il faudrait peut-être juste combiner un "energy" logger et son pendant logiciel pour faire concorder l'échelle temporelle aux lancements logiciels. Windows ne log pas les programmes exécutés? Il n'y a pas un petit scriptounet pour lancer la série de benchmarks?
 

Marc a écrit :

Tu veux vraiment la mort de notre Guillaume national ? :D
On est pas vraiment CPU limited dans les jeux utilisés pour les perfs GPU vu les perfs graphiques donc je ne vois pas trop l'intérêt.


Oui, j'ai une aversion pour les Guillaume :/
 
Et en fait c'est presque la GTX480 qui est de trop, même si pour être vraiment complet il faudrait aussi intégrer du GPU nVidia vu le comportement différent des pilotes vis-à-vis du CPU :whistle:

Reply

Marsh Posté le 30-06-2011 à 09:54:03   

Reply

Marsh Posté le 30-06-2011 à 10:07:14   0  

Gigathlon a écrit :

Ca ne serait pas forcément si dur, il faudrait peut-être juste combiner un "energy" logger et son pendant logiciel pour faire concorder l'échelle temporelle aux lancements logiciels. Windows ne log pas les programmes exécutés? Il n'y a pas un petit scriptounet pour lancer la série de benchmarks?

Non c'est à l'huile de coude :D En loggant la consommation de manière temporelle il y aurait moyen de synchroniser tout, mais en manuel et sur chaque appli c'est vraiment trop en charge de boulot. Donc perso j'opte plutôt pour Prime sur multiple thread, voir Cinebench (ou autre qui chargerait correctement le CPU tout en tirant partie d'un octo core) avec conso et perfs en //.

 

Reste qu'avec Bulldo la donne devrait être un peu plus compliqué en fonction de l'utilisation INT/FP et du nombre de thread donc ce sera mieux de ce décider à ce moment probablement :D

Message cité 1 fois
Message édité par Marc le 30-06-2011 à 10:20:41
Reply

Marsh Posté le 30-06-2011 à 10:08:18   1  

Salut, qu'en est-il de la qualité d'image (notamment en 3D) des solutions intégrées AMD et Intel? Est-ce que l'un ou l'autre "tricherait" pour avoir de meilleures performances?


---------------
graaah !
Reply

Marsh Posté le 30-06-2011 à 10:10:06   1  

Bon bon... Niveau conso, c'est bien. On voit que pour cette année, L'APU est pour un portable 1366x768/720p où là, ce sera jouable, mais avec quelle consommation par rapport aux Intel/Optimus Nvidia ?

Reply

Marsh Posté le 30-06-2011 à 10:19:16   0  

Bon, pas trop de surprise, l'A8 est un poil dvant l'Athlon X4, meme si on aurait prefere le voir plus proche des Phenom X4.
Cote conso, chapeau a AMD quand on se rappel les premiers chiffres des Phenom. Le clock gating marche bien et le 32nm semble tenir ses promesses dans ce domaine.
La question qui me vient en tete, c'est sur ce fameux Dual Graphics.
Peut on s'attendre a des progres net dans un avenir proche grace a l'optimisation de pilotes ou pas ?

Reply

Marsh Posté le 30-06-2011 à 10:31:53   0  

C'est vrai qu'on est loin du scaling idéal : En 1920*1080 entre 62-66% (Fear 3, DNF, Crysis 2) et 83-85% (Dirt3, Far Cry 2) des perfs cumulées du 6550D+6670.
 
Les pilotes sont très important pour le CrossFire Hybrid (Dual Graphics) ou standard, donc ça ne peut que s'améliorer, surtout dans les cas ou ça ne scale pas. Mais les performances seront toujours dépendantes de la promptitude d'AMD a sortir un pilote AMD à chaque sortie de jeu... c'est tout le défaut du CrossFire (idem pour le SLI d'ailleurs).

Reply

Marsh Posté le 30-06-2011 à 10:35:24   0  

Je pense (boule de cristal inside) que pendant quelques mois, on va avoir droit à des release de drivers apportant des gains substantiels en crossfire hybrid. AMD nous ont habitué à cela en tous cas.


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
Reply

Marsh Posté le 30-06-2011 à 10:58:48   0  

Non, car le processeur est hors de prix. Pour moi en fait, l'unique intérêt de ce processeur, c'est la version mobile qui permettra de faire du gamer occasionnel sur les écrans ne dépassant pas 1366*768, alors que le sandy bridge ne le permet pas vraiment.
 
D'ailleurs, nvidia avait tenté un peu le meme truc avec leur chipset pour faire de l'hybrid crossfire. Ca n'a pas pris.


Message édité par [Toine] le 30-06-2011 à 11:00:43

---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
Reply

Marsh Posté le 30-06-2011 à 11:25:32   0  

Marc a écrit :

Non c'est à l'huile de coude :D
 
Reste qu'avec Bulldo la donne devrait être un peu plus compliqué en fonction de l'utilisation INT/FP et du nombre de thread donc ce sera mieux de ce décider à ce moment probablement :D


Ah bah voilà... c'est sûr que si tu lui donnes une petite cuillère pour creuser ta piscine il va pas aller bien vite le pauvre! :o  
 
Et oui, avec BD ça risque de devenir critique, à voir si d'ici là des outils de profiling CPU réellement utilisables seront dispo.

Reply

Marsh Posté le 30-06-2011 à 12:08:01   1  

Bonjours.
La fréquence de l'IGP est-elle modifiable?
Ce qui serait particulièrement intéressant pour les A6 et les modèles 3x00 en 65W...
La différence de consommation en idle avec Intel est-elle due aux CPU ou aux cartes mères (gestion de phases, mode eco,...)?

Reply

Marsh Posté le 30-06-2011 à 12:10:27   1  

Les perfs GPU sont finalement très correctes, largement suffisantes pour jouer.  
Par contre l'augmentation de la charge CPU entre full et idle reste le double de celle d'Intel pour des perfs comparables.


Message édité par regis183 le 30-06-2011 à 12:13:49
Reply

Marsh Posté le 30-06-2011 à 12:19:19   0  

Les fréquences de l'IGP sont modifiables dans le bios ASRock par ex. mais sans gain de perfs pour l'instant, à voir si ça changera (mais il n'y a pas que la freq qui différencie les GPU des A6 et A8).
 
Pour la différence de conso difficile à dire, il y a probablement un peu qui vient du CPU, un peu du chipset, un peu de la carte mère.


Message édité par Marc le 30-06-2011 à 12:20:23
Reply

Marsh Posté le 30-06-2011 à 15:27:09   0  

Au  final, pour le consommateur, les versions mobiles peuvent être intéressante. Par contre les version PC bureau n'ont l'air intéressante que pour les assembleurs, mais pour le consommateur, c'est moins sur....

Reply

Marsh Posté le 30-06-2011 à 15:50:29   0  

La consommation idle des i3 est assez élevée dans ce test non? C'est le VR qui cause ça?

Reply

Marsh Posté le 30-06-2011 à 16:58:20   1  

La page "Consommation, overclocking" a été mise à jour par Guillaume avec plus de détails (conso avec 1 et 2 thread, détails sur l'oc) :jap:


Message édité par Marc le 30-06-2011 à 16:58:36
Reply

Marsh Posté le 30-06-2011 à 18:05:08   1  

le gpgpu 5ans qu'on en parle avec la sortie de la 8800gtx, 5ans qu'on nous vend du vent dessus (quasi que des "encodeur à qualité de merde" )
 
donc espérer qu'on utilise tout plein de opencl en 2012... c'est même plus un espoir là, c'est une arlésienne, il a mit combien de temps duke nukem forever pour sortir déjà
 
sinon le llano A8 (le seul valable niveau perf) se trouve déjà en mauvaise situation tarifaire pour être valorisé face à du i3
donc de par son prix ça va être dur de valorisé du llano

Message cité 1 fois
Message édité par Activation le 30-06-2011 à 18:07:10
Reply

Marsh Posté le 30-06-2011 à 19:01:27   2  

Intéressante la série de mesures de conso.

 

On peut voir que chaque core de Llano tire ~20w, ce qui est immonde face aux ~15w de l'i3.

 

Concernant l'overclocking, je crois qu'il faudra attendre des bios moins "beta".


Message édité par Gigathlon le 30-06-2011 à 19:05:57
Reply

Marsh Posté le 30-06-2011 à 19:08:17   1  

La Next-Gen APU AMD va déchirer  :o
 

Activation a écrit :

le gpgpu 5ans qu'on en parle avec la sortie de la 8800gtx, 5ans qu'on nous vend du vent dessus (quasi que des "encodeur à qualité de merde" )
 
donc espérer qu'on utilise tout plein de opencl en 2012... c'est même plus un espoir là, c'est une arlésienne, il a mit combien de temps duke nukem forever pour sortir déjà
 
sinon le llano A8 (le seul valable niveau perf) se trouve déjà en mauvaise situation tarifaire pour être valorisé face à du i3
donc de par son prix ça va être dur de valorisé du llano


 
Le souci avec AMD c'est qu'ils ont des bonnes idées mais ils ne valorisent pas leurs produits par manque de dev.
Surtout qu'avoir un GPU Inside qui peut calculer et offrir des performances vraiment intéressantes est une aubaine.
Problème, j'ai l'impression que le service développement est la dernière roue du carrosse.
Résultat, OpenCl chez AMD, c'est bon pour faire bien sur les .ppt, c'est couillon ...

Message cité 1 fois
Message édité par Invite_Surprise le 30-06-2011 à 19:14:40
Reply

Marsh Posté le 30-06-2011 à 19:17:51   0  

Gigathlon a écrit :

On peut voir que chaque core de Llano tire ~20w, ce qui est immonde face aux ~15w de l'i3.


Il y a des "trucs" pour tirer l'idle vers le bas (comme le clock gating) mais plein pot, y'a pas de miracles à espérer.

Reply

Marsh Posté le 30-06-2011 à 19:32:55   0  

faut voir le seul intéret évident de cette solution vis à vis de l'i3 2100 est l'overclocking. mais un i3 "K" doit sortir bientot je crois, donc sur Z68 ça va etre aussi intéressant si les deux puces sont à des prix similaires

Reply

Marsh Posté le 30-06-2011 à 19:37:20   0  

gliterr a écrit :

Il y a des "trucs" pour tirer l'idle vers le bas (comme le clock gating) mais plein pot, y'a pas de miracles à espérer.


C'est pas trop normal non plus quand on voit qu'il y a des Athlon II X4 @45W pour des fréquences pas si éloignées en 45nm (2.4-2.5GHz déjà vu en stock, 2.6 théoriquement dispo).


Message édité par Gigathlon le 30-06-2011 à 19:40:28
Reply

Marsh Posté le 30-06-2011 à 19:46:24   0  

Gigathlon a écrit :

Concernant l'overclocking, je crois qu'il faudra attendre des bios moins "beta".

Oui clairement, déjà que l'USB n'est pas très stable sans OC, c'est chercher. On a recu un mail d'AMD qui recommande 133 (en baissant le multiplier) pour maximiser la stabilité. Mais les BIOS sont pénibles, l'Asus par exemple ne se redémarre une fois planté qu'a coup de clear cmos ;)

Reply

Marsh Posté le 01-07-2011 à 17:36:15   0  

C'est possible d'avoir la configuration de RightMark Multi-Threaded Memory Test ?
Pour les test de bande passante mémoire  :jap:

Reply

Marsh Posté le 02-07-2011 à 13:15:24   0  

Page 8 / Dirt 3 : "Les Radeon HD 2000, 3000" devrait être "Les Intel HD 2000, 3000" non ?

Reply

Marsh Posté le 02-07-2011 à 13:45:02   0  

Invite_Surprise a écrit :

Le souci avec AMD c'est qu'ils ont des bonnes idées mais ils ne valorisent pas leurs produits par manque de dev.
Surtout qu'avoir un GPU Inside qui peut calculer et offrir des performances vraiment intéressantes est une aubaine.
Problème, j'ai l'impression que le service développement est la dernière roue du carrosse.
Résultat, OpenCl chez AMD, c'est bon pour faire bien sur les .ppt, c'est couillon ...


 
Je crois que c'est en train de changer justement. Y-a-qu'à voir ce qui c'est passé à l'AFDS ou AMD à "sponsorisé" pas mal de boites pour sortir de nouveaux outils de dev OpenCL gratos pour les développeurs. Exemple : gDEBugger, mais y-en-a d'autres ...


Message édité par cybug le 02-07-2011 à 13:45:53
Reply

Marsh Posté le 03-07-2011 à 11:17:50   0  

Honnetement, si c'est pour rajouter une carte graphique, autant prendre un i3 ou un phenom, voire un athlon + une carte. Le CPU du Llano est .... moyen... (pour etre gentil), le pseudo crossfire est .... moyen aussi.... (pour etre gentil aussi). Llano est deux fois mieux dans les jeux que HD3000, soit, mais deux fois mieux que nul, c'est pas bien bon non plus. Et rajouter une carte graphique a un Llano, ca ne fait aucun sens par rapport a CPU classique + carte.
 
Ceci dit c'est pas forcément très grave: quand je regarde les PC persos (par opposition a pro) autour de moi, sur une 15aine, y'en a deux qui jouent sérieusement. Les casus comme moi, LLano leur suffit, et les 2/3 ne jouent meme pas a du casu (je compte par scrabble, sudoku, reussite... comme du casu ^^).

Reply

Marsh Posté le 03-07-2011 à 15:30:01   0  

RightMark Memory Tester est trouvable quelque part? Google ne renvoie que vers un site plus à jour depuis quelques années...

Reply

Marsh Posté le 03-07-2011 à 15:48:32   0  

ici
 
Il faut lancer RMMT.exe

Reply

Marsh Posté le 03-07-2011 à 16:03:04   0  

RightMark Memory Tester est trouvable quelque part? Google ne renvoie que vers un site plus à jour depuis quelques années...

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed