Actu : GTC: Deep-learning : +70% pour Pascal [HFR] - HFR - Hardware
Marsh Posté le 05-04-2016 à 09:51:54 1
C'est pas plutot l'optimisation FP16 joue un role important dans ces +70%?
Marsh Posté le 05-04-2016 à 11:41:16 0
mmm
C'est Kepler = x2 / Fermi
Maxwell = x6,25 / Fermi
et Pascal = x10,5 /Fermi (+70% / Maxwell)
Marsh Posté le 05-04-2016 à 12:00:23 0
Des nouvelles de Pascal à 9am Pacific Time? Sinon je crains que ça s'en aille au Computex du 31 mai.
Marsh Posté le 05-04-2016 à 13:37:02 0
Ils ont triplé entre Kepler et Maxwell, entre Maxwell et Pascal ça monte de 70%, c'est pas un poil décevant?
Marsh Posté le 05-04-2016 à 13:37:44 0
K_Soze a écrit : Des nouvelles de Pascal à 9am Pacific Time? Sinon je crains que ça s'en aille au Computex du 31 mai. |
9AM PDT: +9h pour nous donc 18h... sois patient
Marsh Posté le 07-04-2016 à 21:11:02 0
C'est probablement ce qui sert à faire tourner « Dreamscapes » ?
Par exemple, voici des images dessinées (ou plutôt « imaginées ») par l'ordinateur, après qu'on lui ait fait ingéré une grande quantité d images et qu'on lui ait demander de dessiner un paysage sur un thème précis :
(source)
(source)
(source)
Cf. cette conférence.
Marsh Posté le 07-04-2016 à 22:42:49 0
Pour info ce +70% est obtenu avec des bibliothèques qui n'exploitent pas encore le FP16.
Marsh Posté le 05-04-2016 à 08:02:23 0
Au détour d'une présentation consacrée à ses outils spécifiques au deep learning, soit à l'apprentissage progressif par un réseau de neurones artificiels, ...
Lire la suite ...