[HFR] Focus : Nvidia Tegra K1 et son GPU Kepler : les details

Focus : Nvidia Tegra K1 et son GPU Kepler : les details [HFR] - HFR - Hardware

Marsh Posté le 06-01-2014 à 15:35:02   1  

Enfin, après plusieurs générations de SoC basés sur un GPU à l'architecture vieillissante, Nvidia intègre un GPU digne de ce nom. Exit le GeForce ULP et place à Kepler pour le
Lire la suite ...

Reply

Marsh Posté le 06-01-2014 à 15:35:02   

Reply

Marsh Posté le 06-01-2014 à 16:45:29   0  

Intéressant :) Merci pour ce focus. Vivement des tests sur la consommation et l'autonomie notamment.


Message édité par Park_it le 06-01-2014 à 16:54:21
Reply

Marsh Posté le 06-01-2014 à 16:54:14   0  

Personnellement si la consommation est maitrisée je serais très impressionné par le travail réalisé par Nvidia. :jap: En tout cas super le focus, comme d'habitude !
 
Du coup je m'interroge, à votre avis AMD finira par se lancer sur le marché des SoC ARM mobiles ?


Message édité par fire du 57 le 06-01-2014 à 16:54:32
Reply

Marsh Posté le 06-01-2014 à 16:57:30   3  

"Il ajoute cependant que la 3D temps réel a toujours été une histoire de compromis et que la plupart des décisions faites en faveur d'une meilleure efficacité énergétique profitent également au final aux plus gros GPU qui sont limités par leur consommation."

 

Cette phrase est une vérité fondamentale des 10 prochaines années en terme de développement GPU, tout constructeurs confondus.
Très bon article, et très bon produit. Merci.


Message édité par Singman le 06-01-2014 à 16:58:12
Reply

Marsh Posté le 06-01-2014 à 17:03:01   0  

fire du 57 a écrit :

Du coup je m'interroge, à votre avis AMD finira par se lancer sur le marché des SoC ARM mobiles ?


AMD est partit sur des objectifs différent vis à vis des SoC ARM, plus dans un but d'intégration a leur architecture x86 que l'inverse, mais rien n'est impossible. A noter qu'il a fallu 3 à 4 ans d'investissements pour arriver au Tegra K1 de la part de NVidia avec leur bonne santé financière, je ne suis pas certain que la priorité d'AMD soit à la diversification en ce moment.

Reply

Marsh Posté le 06-01-2014 à 18:33:18   4  

le problème de Nvidia c'est les Dates de Disponibilité des SOC, ils sortent trop tardivement et du coup ne sont pas sélectionner par les constructeurs.

Reply

Marsh Posté le 06-01-2014 à 21:52:03   1  

big.LITTLE est dans la place :)
 
Merci pour le dossier, super !

Reply

Marsh Posté le 06-01-2014 à 22:58:49   1  

alex38350 a écrit :

big.LITTLE est dans la place :)
 
Merci pour le dossier, super !


 
Ben non justement, toujours pas de big.LITTLE.

Reply

Marsh Posté le 07-01-2014 à 01:21:44   1  

lapin a écrit :

le problème de Nvidia c'est les Dates de Disponibilité des SOC, ils sortent trop tardivement et du coup ne sont pas sélectionner par les constructeurs.


Ne pas oublier aussi que le marché des SoC est hyper compétitif. Un A15 avec un GPU lambda (mais quand même suffisant pour faire tourner Android) chez Mediatek vaut sévèrement moins de $10.  
 
En 2014 se différencier avec seulement un GPU (qui sera exploité par quel nombre immense de jeux ?) auprès des OEM ne sera pas aisé.

Reply

Marsh Posté le 07-01-2014 à 08:35:48   0  

C_Wiz a écrit :

En 2014 se différencier avec seulement un GPU (qui sera exploité par quel nombre immense de jeux ?) auprès des OEM ne sera pas aisé.


Mais c'est aussi la marque de fabrique de NVidia, son avantage pour se différencier des autres. La partie CPU n'est pas non plus à la ramasse. La aussi, la strat de NVidia passera par les devs (on ne change pas une méthode qui a fait ses preuves en desktop).

Reply

Marsh Posté le 07-01-2014 à 08:35:48   

Reply

Marsh Posté le 07-01-2014 à 12:19:51   0  

A quand une carte graphique au format mini-PCIe !?
On y est presque

Reply

Marsh Posté le 07-01-2014 à 18:00:36   0  

Une PS3 qui tient dans une poche... Je n'aurais pas cru ça en 2014 et pourtant...
Je salue le travail de Nvidia et j'ai hâte de voir le prochain produit équipé de ce SoC.

Reply

Marsh Posté le 08-01-2014 à 19:02:53   0  

Très intéressant. Presque 400 GFlop/s pour une consommation aussi faible, ça ouvre la voie à tout un tas d'applications GPGPU embarquées. Reste à savoir ce que vaut ce le GPU en calcul scientifique.

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed