Analyse d'image : position et orientation d'un objet en 3D

Analyse d'image : position et orientation d'un objet en 3D - Sciences - Discussions

Marsh Posté le 28-09-2008 à 15:54:17    

Bonjour,
 
Je ne sais pas si c'est le meilleur endroit pour poster ça, mais je n'ai pas trouvé mieux... Si quelqu'un connait un forum mieux indiqué merci de me donner des liens.
 
Je cherche à déterminer s'il est faisable de détecter la position et l'orientation en 3D d'un objet (le terme anglais serait "pose estimation", je ne sais pas s'il y a un équivalent français) pour l'appliquer aux jeux vidéo. L'idée serait d'utiliser une camera (web cam ou wiimote, car pour ceux qui l'ignore la manette de la console wii peut suivre jusqu'à 4 points infrarouges) pour détecter par exemple 4 LEDs infrarouges fixées sur un objet. Le système serait utilisable par exemple pour un jeu où on manie une épée (que ce soit dans un univers heroic-fantasy ou star wars, etc.), le joueur pourrait parer des coups, en donner etc.
 
Actuellement je voudrais essayer de fabriquer un prototype pour faire des essais, mais je ne sais pas trop comment choisir les LEDs : il faudrait qu'elles soient visibles depuis un maximum d'angles, ce qui n'est pas du tout le cas d'une LED standard, qui émet plutot dans un cone de 17° en général pour ce que j'en ai vu. Quelqu'un saurait m'aiguiller dans ce domaine ? Peut-être qu'il existe des types de LEDs particulières ? Ou alors mettre une sorte de capuchon dessus qui diffuserait la lumière dans toutes les directions ? Le problème suivant est le placement des LEDs sur l'objet (je pense qu'il en faut au moins 4, non coplanaires, le problème étant de les rendre visibles quels que soient les mouvements du joueur...).
 
Et si vous avez des suggestions pour tous les autres problèmes, je suis preneur aussi... Ceux que je prévois sont les suivants :
 

  • Détection des LEDs sur l'image (le problème est déjà résolu dans le cas de la wiimote qui fait tout le travail)
  • Détection de quelle LED est laquelle (je pense par exemple à un système qui éteindrait les LEDs pendant un court instant, les une après les autres, selon un rythme prédéfini qui permettrait de les reconnaitre, mais encore une fois je n'ai rien lu sur le sujet, c'est donc peut-être une mauvaise idée ?)
  • Interprétation de la position des LEDs pour retrouver la position et l'orientation de l'objet (je pense utiliser openCV, une bibliothèque d'analyse d'image, qui apparemment propose une fonction dédiée à cette tâche)
  • Occlusion (les LEDs peuvent se retrouver alignées, ou cachées par l'objet à détecter ou la main de l'utilisateur). Le problème peut-être abordé du point de vue logiciel (estimer la position de la ou des LEDs cachée(s) en fonction du mouvement de celles qui restent visibles), ou matériel (placer les LEDs de façon à ce qu'il y ai aussi peu de problème que possible dans toute la gamme de mouvements que devra faire l'utilisateur)
  • Utilisation dans un jeu : mon idée serait soit de voir son personnage de derrière, afin de voir les mouvements de l'épée, et avec de la cinématique inverse le personnage devrait bouger ses bras pour faire des mouvements réalistes (pas forcément les même que le joueur donc évidemment). Le gameplay apporté par le système de tracking serait de pouvoir attaquer son adversaire et parer ses coups. Le problème c'est qu'on peut reproduire les mouvements de l'épée du joueur sur son avatar, mais on ne peut pas restituer les forces subies par l'avatar sur l'épée du joueur, donc si par exemple le joueur tape sur un arbre, rien ne l'empêcherait de passer carrément au travers. Mon idée serait du coup d'arrêter l'épée virtuelle lors d'un collision, et il faudrait que le joueur revienne en arrière pour reprendre le controle de l'épée (pareil quand une de ses attaques se fait parer par un adversaire virtuel, etc.). Le déplacement de l'avatar du joueur serait quand a lui effectué classiquement avec des boutons placés sur le manche de l'épée que le joueur tiens dans la main, faute de meilleur idée...
  • IA des adversaires : un sujet auquel je n'ai pas encore du tout réfléchi étant donné que la faisabilité de tout ce qui précède est très incertaine. Je pense que la réaction d'un personnage virtuel dans un combat à l'épée face à un joueur humain qui manipule sa propre épée comme il veut est un sujet inexploré de l'intelligence artificielle, mais peut-être que je me trompe...


EDIT : question subsidiaire : seriez vous intéressé par un jeu du genre décrit ci-dessus ?

Message cité 2 fois
Message édité par youen le 28-09-2008 à 16:02:48
Reply

Marsh Posté le 28-09-2008 à 15:54:17   

Reply

Marsh Posté le 28-09-2008 à 16:08:38    

Un exemple de ce qui se fait dans les labos en matiere de tracking de solide.
 
http://cvlab.epfl.ch/research/comp [...] _tracking/
 
Bon courage

Reply

Marsh Posté le 28-09-2008 à 16:17:07    

chewif a écrit :

Un exemple de ce qui se fait dans les labos en matiere de tracking de solide.
 
http://cvlab.epfl.ch/research/comp [...] _tracking/
 
Bon courage


 
Je ne suis pas sûr que ce genre de technologie (très impressionnante au passage) soit à ma portée ni adaptée à mon cas (un jeu vidéo en temps réel qui tourne sur la machine de monsieur-tout-le-monde avec une web cam de qualité moyenne). Enfin si quelqu'un connait une bibliothèque libre qui fait ce genre de chose, c'est une idée à explorer...
 
EDIT : j'ai parlé un peu vite apparemment on peut télécharger du code sur ton lien ^^
EDIT-2 : en fait on peut rien télécharger sur le projet "rigid object 3D tracking", et le programme "BazAR" fonctionne plutôt mal avec ma web cam (résolution trop faible peut-être)


Message édité par youen le 28-09-2008 à 17:27:29
Reply

Marsh Posté le 28-09-2008 à 17:56:53    

Bonjour,

youen a écrit :

Je cherche à déterminer s'il est faisable de détecter la position et l'orientation en 3D d'un objet (le terme anglais serait "pose estimation", je ne sais pas s'il y a un équivalent français) pour l'appliquer aux jeux vidéo. L'idée serait d'utiliser une camera (web cam ou wiimote, car pour ceux qui l'ignore la manette de la console wii peut suivre jusqu'à 4 points infrarouges) pour détecter par exemple 4 LEDs infrarouges fixées sur un objet. Le système serait utilisable par exemple pour un jeu où on manie une épée (que ce soit dans un univers heroic-fantasy ou star wars, etc.), le joueur pourrait parer des coups, en donner etc.


Voici une page de recherche de Johnny Chung Lee sur du tracking avec la Wiimote. Il y a d'abord du tracking 2D. Tu poses la difficulté du tracking 3D. La page l'évoque en fin et peut-être trouveras-tu des liens (voir sur son blog, par exemple l'utilisation simultanée de plusieurs Wiimotes).

Message cité 1 fois
Message édité par Ache le 28-09-2008 à 18:01:13

---------------
Parcours étrange
Reply

Marsh Posté le 28-09-2008 à 18:25:43    

Ache a écrit :

Bonjour,
Voici une page de recherche de Johnny Chung Lee sur du tracking avec la Wiimote. Il y a d'abord du tracking 2D. Tu poses la difficulté du tracking 3D. La page l'évoque en fin et peut-être trouveras-tu des liens (voir sur son blog, par exemple l'utilisation simultanée de plusieurs Wiimotes).


 
Difficile de ne pas tomber sur un article parlant de lui quand on cherche quoi que ce soit sur les wiimotes ^^ Pour le tracking 2D, c'est assez enfantin avec une wiimote : on télécharge la lib WiiYourself, on écrit 4 lignes de code, et on récupère les coordonnées X,Y d'un spot infrarouge. C'est bien le passage à la 3D qui devient un peu plus compliqué... Je voudrais éviter d'avoir à utiliser plusieurs cameras, car ce serait compliqué à installer pour un joueur, sans parler du coût, et je pense éventuellement me servir d'une wiimote dans la main du joueur avec des LEDs accrochées dessus (ce qui donne accès aux boutons de la wiimote) + une wiimote qui "regarde" le joueur (pour tracker la position de la première wiimote), donc s'il faut encore rajouter une 3ème wiimote pour avoir une vue stéréoscopique, ça commence à faire beaucoup... En tout cas je sais que c'est tout a fait possible dans le cas idéal de tracker position/orientation en 3D avec 4 points non coplanaires et une seule caméra, je l'ai d'ailleurs déjà fait avec une web cam et 4 lumières colorées venant d'une guirlande électrique, le problème c'est quand les points sont cachés, que ce soit à cause d'un objet qui passe devant, ou simplement parce que la LED n'émet pas dans la bonne direction, ce qui rejoint mon problème actuel : comment choisir les LEDs ? Je pense que je vais acheter 4 LEDs IR classiques (ça coûte pas très cher ^^) et voir ce que ça donne...
 
Pour info, le coup des lumières colorées de la guirlande électrique, ça fonctionne très mal (pour détecter la position des points lumineux et identifier leur couleur), mais je suis loin d'être spécialiste en reconnaissance d'image. Par contre, quand les points lumineux sont correctement détectés, la fonction que j'utilise d'openCV a l'air de bien fonctionner pour donner la position et l'orientation de l'objet.

Reply

Marsh Posté le 29-09-2008 à 18:02:20    

youen a écrit :


 
Difficile de ne pas tomber sur un article parlant de lui quand on cherche quoi que ce soit sur les wiimotes ^^ Pour le tracking 2D, c'est assez enfantin avec une wiimote : on télécharge la lib WiiYourself, on écrit 4 lignes de code, et on récupère les coordonnées X,Y d'un spot infrarouge. C'est bien le passage à la 3D qui devient un peu plus compliqué... Je voudrais éviter d'avoir à utiliser plusieurs cameras, car ce serait compliqué à installer pour un joueur, sans parler du coût, et je pense éventuellement me servir d'une wiimote dans la main du joueur avec des LEDs accrochées dessus (ce qui donne accès aux boutons de la wiimote) + une wiimote qui "regarde" le joueur (pour tracker la position de la première wiimote), donc s'il faut encore rajouter une 3ème wiimote pour avoir une vue stéréoscopique, ça commence à faire beaucoup... En tout cas je sais que c'est tout a fait possible dans le cas idéal de tracker position/orientation en 3D avec 4 points non coplanaires et une seule caméra, je l'ai d'ailleurs déjà fait avec une web cam et 4 lumières colorées venant d'une guirlande électrique, le problème c'est quand les points sont cachés, que ce soit à cause d'un objet qui passe devant, ou simplement parce que la LED n'émet pas dans la bonne direction, ce qui rejoint mon problème actuel : comment choisir les LEDs ? Je pense que je vais acheter 4 LEDs IR classiques (ça coûte pas très cher ^^) et voir ce que ça donne...
 
Pour info, le coup des lumières colorées de la guirlande électrique, ça fonctionne très mal (pour détecter la position des points lumineux et identifier leur couleur), mais je suis loin d'être spécialiste en reconnaissance d'image. Par contre, quand les points lumineux sont correctement détectés, la fonction que j'utilise d'openCV a l'air de bien fonctionner pour donner la position et l'orientation de l'objet.


Ça se chiffre à combien cette technologie, enfin les LEDs et la caméra, je suppose que les softs sont gratuits?


---------------
Tester le 1er multisondage HFR ---> MULTISONDAGE.
Reply

Marsh Posté le 30-09-2008 à 00:17:33    

Bah c'est du tracking 6D par caméra, ya un bail que ça existe et que c'est fonctionnel, donc bien sûr que c'est faisable.

 

Par contre, si tu veux pouvoir utiliser plusieurs trackers différents, il faut utiliser pour chaque tracker 4 points coplanaires (oublie la reconnaissance de couleur, c'est trop bruité comme info), et un positionnement spécial des leds qui fait que le tracker ne doit avoir aucune symétrie d'aucune sorte. Aucun tracker ne doit être superposable d'aucune façon à un autre. Enfin, un système monocaméra c'est très ambitieux et à mon avis irréaliste, tu auras dans la pratique toujours des occultations.

 

J'ai pas mal travaillé sur ces sytèmes de tracking 6D, bossé sur plusieurs types de devices différents (Les trackers Dtrack entre autres, qui ressemblent pas mal à ce que tu veux faire), et utilisé plusieurs libs dédiées à cela pour des applications de réalité virtuelle, si tu as des questions n'hésite pas :jap:

Message cité 1 fois
Message édité par Herbert de Vaucanson le 30-09-2008 à 00:18:10

---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 01-10-2008 à 21:50:04    

Herbert de Vaucanson a écrit :

Bah c'est du tracking 6D par caméra, ya un bail que ça existe et que c'est fonctionnel, donc bien sûr que c'est faisable.  
 
Par contre, si tu veux pouvoir utiliser plusieurs trackers différents, il faut utiliser pour chaque tracker 4 points coplanaires (oublie la reconnaissance de couleur, c'est trop bruité comme info), et un positionnement spécial des leds qui fait que le tracker ne doit avoir aucune symétrie d'aucune sorte. Aucun tracker ne doit être superposable d'aucune façon à un autre. Enfin, un système monocaméra c'est très ambitieux et à mon avis irréaliste, tu auras dans la pratique toujours des occultations.
 
J'ai pas mal travaillé sur ces sytèmes de tracking 6D, bossé sur plusieurs types de devices différents (Les trackers Dtrack entre autres, qui ressemblent pas mal à ce que tu veux faire), et utilisé plusieurs libs dédiées à cela pour des applications de réalité virtuelle, si tu as des questions n'hésite pas :jap:


 
Hmm, l'avantage indéniable du mono camera c'est quand même la simplicité de mise en place par l'utilisateur... Et gérer 2 web cam c'est pas un peu lourd pour un seul PC ? (récupérer les images + les analyser, le tout à une fréquence aussi élevée que possible pour réduire la latence, genre 60fps si la camera le supporte). Pour ce qui est de l'occlusion, si les LEDs sont bien placées, il n'y a pas moyen de se débrouiller pour qu'au pire une seule LED soit cachée ? Et du coup essayer de suivre au mieux le mouvement des 3 autres LEDs... Enfin déjà je vais essayer de faire un truc qui fonctionne quand il n'y a pas d'occlusion :D  
 
Je ne compte tracker le mouvement que d'un seul objet, pour la simple raison que je ne vois pas actuellement quoi faire d'un deuxième objet.
 
Par contre tu m'étonnes en parlant de 4 points coplanaires, il me semblait justement qu'il fallait qu'ils soient non coplanaires, car sinon la détection de l'orientation était imprécise, en particulier quand le plan est presque orthogonal à l'axe de vision de la camera.
 
Si tu peux me donner le nom de libs (libres ou gratuites de préférence) qui m'aiderait à faire tout ça, n'hésite pas :)
 

cappa a écrit :


Ça se chiffre à combien cette technologie, enfin les LEDs et la caméra, je suppose que les softs sont gratuits?


 
pour la camera, normalement n'importe quelle web cam pas trop pourrie doit faire l'affaire (j'en ai vu une qui monte en 1280x1024 à 60fps pour 40 euros), en la bidouillant au niveau du filtrage infrarouge (enlever le filtre anti infrarouge et le remplacer par un filtre qui ne laisse passer que les infra rouges, mais je n'ai jamais tenté ce genre de manip personnellement), quand aux LEDs en les achetant en petite quantité je dirais a peu près 2 euros les 4. Plus quelques fils et des piles... Donc ça coute pas grand chose (un peu plus cher s'il faut une deuxième camera, cf message de Herbert de Vaucanson). Je ne sais pas si ça a déjà été tenté, mais ce genre de matériel pourrait être très bon marché s'il était spécialisé pour ça et commercialisé a grande échelle. Les web cam "normales" font à la fois trop et pas assez : on a la couleur dont on a pas besoin, mais une résolution d'image et fréquence de capture trop faible. Au niveau du software, ça dépend de ce que tu veux... je connais rien de tout fait (capture, analyse et exploitation des images, qui donne donc en sortie la position et l'orientation de l'objet), ni payant ni gratuit, mais comme dit Herbert de Vaucanson, ça existe et ça fonctionne. Un peu comme l'affichage en relief (stéréoscopique), ça existe, ça fonctionne, mais ça n'a pas encore atteint le grand public (je me demande pourquoi d'ailleurs).

Message cité 2 fois
Message édité par youen le 01-10-2008 à 22:05:44
Reply

Marsh Posté le 01-10-2008 à 22:20:29    

youen a écrit :


 
Hmm, l'avantage indéniable du mono camera c'est quand même la simplicité de mise en place par l'utilisateur... Et gérer 2 web cam c'est pas un peu lourd pour un seul PC ? (récupérer les images + les analyser, le tout à une fréquence aussi élevée que possible pour réduire la latence, genre 60fps si la camera le supporte). Pour ce qui est de l'occlusion, si les LEDs sont bien placées, il n'y a pas moyen de se débrouiller pour qu'au pire une seule LED soit cachée ? Et du coup essayer de suivre au mieux le mouvement des 3 autres LEDs... Enfin déjà je vais essayer de faire un truc qui fonctionne quand il n'y a pas d'occlusion :D  
 
Je ne compte tracker le mouvement que d'un seul objet, pour la simple raison que je ne vois pas actuellement quoi faire d'un deuxième objet.
 
Par contre tu m'étonnes en parlant de 4 points coplanaires, il me semblait justement qu'il fallait qu'ils soient non coplanaires, car sinon la détection de l'orientation était imprécise, en particulier quand le plan est presque orthogonal à l'axe de vision de la camera.
 
Si tu peux me donner le nom de libs (libres ou gratuites de préférence) qui m'aiderait à faire tout ça, n'hésite pas :)
 


Avec deux caméra ce qui risque d'être difficile, c'est la synchro. J'utilisais 6 caméra ayant des leds puissantes qui flashaient en permanence en infrarouge, les trackers étant constitués de boules réfléchissantes, cela permet de simplifier la synchro, et de multiplier les trackers à peu de frais.
 
Avec des points coplanaires, tu es plus précis, car tu supprimes un degré de liberté. Avec des points non coplanaires, et pour des leds indifférenciées, quelle que soit la configuration de tes leds, il y a plusieurs orientations qui vont donner la même projection sur la caméra, c'est tout un bordel pour s'y retrouver dans la projection. Avec 4 points coplanaires, quand tu as détecté 3 points, tu sais que le 4ème doit être dans le même plan, tu as un degré de liberté de moins, sa position sur l'axe normal au plan défini par les 3 autres est imposée, c'est 0. Bref, tu trouves plus rapidement le plan dans lequel se trouve ton tracker, ce qui permet de fixer 3 paramètres avec pas mal de redondance (deux orientations et une position), trouver les paramètres manquant à une seule cam peut être difficile non pas quand l'axe optique et le plan du tracker sont orthogonaux (au contraire), mais quand la plan focal de la caméra et le plan de ton tracker sont orthogonaux. A plusieurs caméras cela permet de passer outre ce pb. A une seule, je ne sais pas à quel point le cas dégénéré est génant et n'est pas patchable... A voir.
 
Une autre raison pourlaquelle j'utilise des points coplanaires, c'est que l'encombrement est plus simple à gérer pour les trackers, surtout quand on en est bardé (bon, là c'est pas ton cas) :D  
 
Dans les libs open qui gèrent du tracking que j'ai utilisées (toutes libres), je peux te conseiller VRPN, Opentracker, Artoolkit, mais elles sont tout de même plus orientées "application de réalité virtuelle/réalité augmentée" via la gestion de tout un tas de trackers différents (Gyroscopes, accéléromètres, à ultrasons, magnétiques, par caméra, GPS...), pour ces applications (gestion de l'interfaçage, abstraction de tracker, interpolation, filtres (Kalman, lissage...), et moins "développement du tracker à partir d'image d'une caméra", mais ces libs de trackers sont assez complètes et ça ne m'étonnerait pas qu'elles puissent aussi gérer ça. Pour des trucs plus orientés "vision par ordinateur", il y a OpenCV.


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 01-10-2008 à 22:24:36    

youen a écrit :


Un peu comme l'affichage en relief (stéréoscopique), ça existe, ça fonctionne, mais ça n'a pas encore atteint le grand public (je me demande pourquoi d'ailleurs).


 
Ah si, ça fait plus de 10 ans que tu peux jouer chez toi à tous les jeux 3D s'appuyant sur directX ou openGL avec des lunettes de vision stéréoscopiques (Quake1 c'était déjà possible). Et ces lunettes ne coûtent pas cher en plus. Pourquoi ça ne marche pas ? Personnellement je ne trouve pas ça confortable, même en étant très habitué à tout ça, ça fout toujours la gerbe au bout de 5 mn, et au final, on préfère jouer en 3D projeté sur un écran 3D qu'en relief.
 
Recherche "Shutter Glasses" sur google, tu vas voir comme c'est accessible au grand public :jap:


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 01-10-2008 à 22:24:36   

Reply

Marsh Posté le 01-10-2008 à 23:52:26    

Herbert de Vaucanson a écrit :


Recherche "Shutter Glasses" sur google, tu vas voir comme c'est accessible au grand public :jap:


 
C'est accessible au grand public mais ça ne l'a pas atteint. Je ne connais personne qui s'est équipé de ce genre de truc, du coup j'ai jamais testé, du coup je me suis jamais lancé à acheter un truc, et je pense que c'est le cas de beaucoup de gens. Pour le mal de tête, il y a peut-être les technologies à base de polarisation de la lumière qui sont plus faciles à supporter que les systèmes clignotants (jamais eu de problème au futuroscope avec les lunettes polarisées en tout cas :) mais ça dépend peut-être des gens). Je sais pas ce que ça vaut, mais y'a des écrans plats qui polarisent une colonne de pixels sur deux. Enfin ça ne résoudra jamais le problème de l'oeil qui fait la mise au point sur l'écran à 1 mètre alors que le cerveau croit que les yeux convergent sur un point beaucoup plus loin (j'imagine que c'est une des causes principales du mal de tête). Pour la gerbe par contre, je sais pas trop... le décalage entre l'image et les sensations de mouvement ?

Reply

Marsh Posté le 02-10-2008 à 00:07:43    

Herbert de Vaucanson a écrit :


Avec deux caméra ce qui risque d'être difficile, c'est la synchro. J'utilisais 6 caméra ayant des leds puissantes qui flashaient en permanence en infrarouge, les trackers étant constitués de boules réfléchissantes, cela permet de simplifier la synchro, et de multiplier les trackers à peu de frais.


Je comprend pas trop en quoi la synchro est simplifiée par un système réfléchissant plutot que des camera qui regardent directement les leds ? Et puis si c'est le même PC qui récupère les données de deux cameras identiques, la latence devrait être a peu près la même sur chaque camera non ? Je veux bien croire qu'il y aura un décalage pour les mouvements très rapides...
 

Herbert de Vaucanson a écrit :


Avec des points coplanaires, tu es plus précis, car tu supprimes un degré de liberté. Avec des points non coplanaires, et pour des leds indifférenciées, quelle que soit la configuration de tes leds, il y a plusieurs orientations qui vont donner la même projection sur la caméra, c'est tout un bordel pour s'y retrouver dans la projection. Avec 4 points coplanaires, quand tu as détecté 3 points, tu sais que le 4ème doit être dans le même plan, tu as un degré de liberté de moins, sa position sur l'axe normal au plan défini par les 3 autres est imposée, c'est 0. Bref, tu trouves plus rapidement le plan dans lequel se trouve ton tracker, ce qui permet de fixer 3 paramètres avec pas mal de redondance (deux orientations et une position), trouver les paramètres manquant à une seule cam peut être difficile non pas quand l'axe optique et le plan du tracker sont orthogonaux (au contraire), mais quand la plan focal de la caméra et le plan de ton tracker sont orthogonaux. A plusieurs caméras cela permet de passer outre ce pb. A une seule, je ne sais pas à quel point le cas dégénéré est génant et n'est pas patchable... A voir.


Effectivement, dans le cas que tu décris, c'est très clairement problématique. Mais je crois que le problème de précision dans le cas que je décrivais existe aussi. Quand tu fais tourner légèrement l'objet, les points ne bougent quasiment pas. Comme un cosinus qui ne varie presque pas aux alentours d'un angle de 0° ; la courbe est plate. Mais de toute façon dans mon cas je pense que la vitesse de réaction est plus importante que la précision. Et pour ce qui est de l'identification des points, je pensais comme je disais dans mon post initial à un système qui éteindrais les LEDs de temps en temps dans un ordre déterminé, et le reste du temps, le système track les points en prévoyant la position sur la prochaine frame en fonction de la vitesse actuelle, et le point le plus proche de la position prévue est identifié comme étant le même point. Du coup ça ferait perdre chaque point genre pendant 2 frames toutes les 1/2 seconde mettons, mais au moins on pourrait pas perdre la correspondance et obliger l'utilisateur à revenir dans une position particulière pour recalibrer les points. Enfin c'est juste une idée, ça marcherait pas forcément en pratique (je compte le tester en branchant les LEDs sur le port parallèle de mon PC, je viens de commander les LEDs et ce qu'il faut pour l'interface (enfin j'espère, parce que j'ai quelques notions en électronique mais pas des masses non plus ^^)).
 

Herbert de Vaucanson a écrit :


Dans les libs open qui gèrent du tracking que j'ai utilisées (toutes libres), je peux te conseiller VRPN, Opentracker, Artoolkit, mais elles sont tout de même plus orientées "application de réalité virtuelle/réalité augmentée" via la gestion de tout un tas de trackers différents (Gyroscopes, accéléromètres, à ultrasons, magnétiques, par caméra, GPS...), pour ces applications (gestion de l'interfaçage, abstraction de tracker, interpolation, filtres (Kalman, lissage...), et moins "développement du tracker à partir d'image d'une caméra", mais ces libs de trackers sont assez complètes et ça ne m'étonnerait pas qu'elles puissent aussi gérer ça. Pour des trucs plus orientés "vision par ordinateur", il y a OpenCV.


Merci pour les infos, je regarderais tout ça (quand j'aurais le temps, car je vais pas avoir le temps d'avancer sur ce projet avant un moment malheureusement).

Message cité 1 fois
Message édité par youen le 02-10-2008 à 00:13:19
Reply

Marsh Posté le 02-10-2008 à 00:33:47    

youen a écrit :


 
C'est accessible au grand public mais ça ne l'a pas atteint. Je ne connais personne qui s'est équipé de ce genre de truc, du coup j'ai jamais testé, du coup je me suis jamais lancé à acheter un truc, et je pense que c'est le cas de beaucoup de gens. Pour le mal de tête, il y a peut-être les technologies à base de polarisation de la lumière qui sont plus faciles à supporter que les systèmes clignotants (jamais eu de problème au futuroscope avec les lunettes polarisées en tout cas :) mais ça dépend peut-être des gens). Je sais pas ce que ça vaut, mais y'a des écrans plats qui polarisent une colonne de pixels sur deux. Enfin ça ne résoudra jamais le problème de l'oeil qui fait la mise au point sur l'écran à 1 mètre alors que le cerveau croit que les yeux convergent sur un point beaucoup plus loin (j'imagine que c'est une des causes principales du mal de tête). Pour la gerbe par contre, je sais pas trop... le décalage entre l'image et les sensations de mouvement ?


 
Le problème de pas supporter le truc n'a rien à voir avec la techno utilisée, que ce soit les shutter glasses, les verres polarisés, les écrans alioscopiques (ce dont tu parles, mais ce n'est pas une question de polarisation d'une ligne sur deux, mais de direction d'émission de l'image, différente d'une colonne sur l'autre, qui permet une vision relief sans lunettes du tout), c'est exactement comme le mal de mer, c'est à cause d'incohérence entre les accélérations visuellement perçues, et celles perçues par ton oreille interne et tes différents muscles qui te retournent une info sur ton assiette.


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 02-10-2008 à 00:38:04    

youen a écrit :


Je comprend pas trop en quoi la synchro est simplifiée par un système réfléchissant plutot que des camera qui regardent directement les leds ? Et puis si c'est le même PC qui récupère les données de deux cameras identiques, la latence devrait être a peu près la même sur chaque camera non ? Je veux bien croire qu'il y aura un décalage pour les mouvements très rapides...
 


 
Tout simplement parce qu'on est sur que les 6 caméras ont chopé l'image au même moment : à l'instant du flash IR, qu'importe si leur framerate est déphasé ou non.
 

youen a écrit :


Effectivement, dans le cas que tu décris, c'est très clairement problématique. Mais je crois que le problème de précision dans le cas que je décrivais existe aussi. Quand tu fais tourner légèrement l'objet, les points ne bougent quasiment pas. Comme un cosinus qui ne varie presque pas aux alentours d'un angle de 0° ; la courbe est plate. Mais de toute façon dans mon cas je pense que la vitesse de réaction est plus importante que la précision. Et pour ce qui est de l'identification des points, je pensais comme je disais dans mon post initial à un système qui éteindrais les LEDs de temps en temps dans un ordre déterminé, et le reste du temps, le système track les points en prévoyant la position sur la prochaine frame en fonction de la vitesse actuelle, et le point le plus proche de la position prévue est identifié comme étant le même point. Du coup ça ferait perdre chaque point genre pendant 2 frames toutes les 1/2 seconde mettons, mais au moins on pourrait pas perdre la correspondance et obliger l'utilisateur à revenir dans une position particulière pour recalibrer les points. Enfin c'est juste une idée, ça marcherait pas forcément en pratique (je compte le tester en branchant les LEDs sur le port parallèle de mon PC, je viens de commander les LEDs et ce qu'il faut pour l'interface (enfin j'espère, parce que j'ai quelques notions en électronique mais pas des masses non plus ^^)).
 


 
Ton idée des leds clignotantes est très bonne, c'est d'ailleurs ce qui était utilisé avec le système pro dont je te parle pour faire des gants qui trackent ta main ainsi que tous tes doigts et offrent un retour tactile : les doigts étaient trackés par des leds clignotantes différenciées par un déphasage d'une frame chacune. :jap:


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 02-10-2008 à 19:53:14    

Herbert de Vaucanson a écrit :


Le problème de pas supporter le truc n'a rien à voir avec la techno utilisée, que ce soit les shutter glasses, les verres polarisés, les écrans alioscopiques (ce dont tu parles, mais ce n'est pas une question de polarisation d'une ligne sur deux, mais de direction d'émission de l'image, différente d'une colonne sur l'autre, qui permet une vision relief sans lunettes du tout), c'est exactement comme le mal de mer, c'est à cause d'incohérence entre les accélérations visuellement perçues, et celles perçues par ton oreille interne et tes différents muscles qui te retournent une info sur ton assiette.


 
Hmm, contre le mal de mer (ou de voiture ou des jeux video) je ne connais aucune solution, si ce n'est que j'ai la chance de ne pas être concerné. Mais ce n'est pas spécialement lié à l'effet 3d si ? je connais des gens qui ne supportent pas de jouer à quake plus de 2 minutes, sans écran 3D... Peut-être que c'est aussi une question d'habitude.
 
Quand aux technologies d'images polarisées sur écran plat, il y a ça : http://www.iz3d.com/t-3dproductex.aspx (en fait l'équivalent de deux écrans l'un derrière l'autre, le premier module l'intensité des pixels, qui sont polarisés par un filtre entre les deux, et le deuxième écran "fait tourner" la polarisation dans un sens ou dans l'autre pour dispatcher sur un oeil ou sur l'autre, ou sur les deux), et je suis certain d'avoir bien lu un article sur un écran plat standard sur lequel avait été monté un filtre qui polarise une ligne (ou colonne je sais plus) de pixels sur deux (un coup dans un sens, un coup dans l'autre). J'ai aussi déjà vu (pour de vrai) un écran 3D sans lunettes, et c'était pas terrible ; si la technologie n'est pas améliorée, elle me parait assez inutilisable (images fantomes, et quand on se déplace on perd ou on récupère l'effet 3D, enfin bizarre). Mais c'était peut-être une sorte de prototype, j'ai vu ça dans un salon (CeBit en allemagne).

Reply

Marsh Posté le 02-10-2008 à 19:56:20    

Herbert de Vaucanson a écrit :


Tout simplement parce qu'on est sur que les 6 caméras ont chopé l'image au même moment : à l'instant du flash IR, qu'importe si leur framerate est déphasé ou non.


OK, au début je croyais que du coup tu n'avais une image que sur certaines frames, mais en fait il y a un flash par frame, c'est juste qu'il n'est pas forcément au même instant dans la frame de chaque camera, c'est ça ?
 

Herbert de Vaucanson a écrit :


Ton idée des leds clignotantes est très bonne, c'est d'ailleurs ce qui était utilisé avec le système pro dont je te parle pour faire des gants qui trackent ta main ainsi que tous tes doigts et offrent un retour tactile : les doigts étaient trackés par des leds clignotantes différenciées par un déphasage d'une frame chacune. :jap:


Ben je te tiendrais au courant si j'arrive à faire marcher ça :)

Reply

Marsh Posté le 02-10-2008 à 20:01:48    

youen a écrit :


 
Hmm, contre le mal de mer (ou de voiture ou des jeux video) je ne connais aucune solution, si ce n'est que j'ai la chance de ne pas être concerné. Mais ce n'est pas spécialement lié à l'effet 3d si ? je connais des gens qui ne supportent pas de jouer à quake plus de 2 minutes, sans écran 3D... Peut-être que c'est aussi une question d'habitude.


 
Nope, c'est pas une question d'habitude, c'est mon boulot de bosser avec ces machins là depuis plusieurs années, et tout ce qui est à vision relief grand champ, les casques d'immersion ou les CAVE, ça me fout toujours la gerbe au bout de qq minutes :D
 

youen a écrit :


Quand aux technologies d'images polarisées sur écran plat, il y a ça : http://www.iz3d.com/t-3dproductex.aspx (en fait l'équivalent de deux écrans l'un derrière l'autre, le premier module l'intensité des pixels, qui sont polarisés par un filtre entre les deux, et le deuxième écran "fait tourner" la polarisation dans un sens ou dans l'autre pour dispatcher sur un oeil ou sur l'autre, ou sur les deux), et je suis certain d'avoir bien lu un article sur un écran plat standard sur lequel avait été monté un filtre qui polarise une ligne (ou colonne je sais plus) de pixels sur deux (un coup dans un sens, un coup dans l'autre). J'ai aussi déjà vu (pour de vrai) un écran 3D sans lunettes, et c'était pas terrible ; si la technologie n'est pas améliorée, elle me parait assez inutilisable (images fantomes, et quand on se déplace on perd ou on récupère l'effet 3D, enfin bizarre). Mais c'était peut-être une sorte de prototype, j'ai vu ça dans un salon (CeBit en allemagne).


 
Oui, c'est ce dont je te parlais, l'Allioscopie : c'est un français, Pierre Allio qui a inventé ce concept, qui permet de faire du relief sans lunettes multipoint de vue (quand tu tournes autour de l'écran, tu changes de point de vue, tu as vraiment l'impression de tourner autour de l'objet, que tu vois en relief, sans lunettes, sur un écran plat 2D). En fait, ça date de ton grand-père : c'est le même principe que les tailles crayons ou cartes avec deux images qui se montre alternativement quand tu fais légèrement tourner la carte. L'idée c'est de rajouter des prismes... (enfin j'ai déjà expliqué ça plus haut je crois :o).
 
Dans la pratique, pour en avoir vu qq uns, la techno n'est pas encore super mature, car sa divise ta résolution horizontale par "2 fois le nombre de point de vue relief" que tu veux créer.


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 02-10-2008 à 20:04:27    

youen a écrit :

Bonjour,
 
Je ne sais pas si c'est le meilleur endroit pour poster ça, mais je n'ai pas trouvé mieux... Si quelqu'un connait un forum mieux indiqué merci de me donner des liens.

Va plutôt poser ta question sur la cat Graphisme : http://forum.hardware.fr/hfr/Graph [...] ujet-1.htm

Reply

Marsh Posté le 02-10-2008 à 20:05:13    

il faut aller voir ce que fait "total immersion", je crois que ça existe déjà, en mocap. Ils utilisent les boules réfélchissante car c'est plus simple à mettre en oeuvre sur un costume que de faire clignoter des led. Par contre, il y a souvent plusieurs caméras pour avoir des info redondantes et limiter les erreurs et si un capteur est masqué.
 
Les systèmes d'analyse d'image purs sans aucun capteur existe, à condition d'avoir une image suffisamment contrasté, en mono caméra, et de connaitre la géométrie réelle du solide.  
(voir total immersion aussi)
 
après il y a aussi le système polemus, par champs magnétique, ou des systèmes hybrides avec des mini centrales inertielles, emmeteur ultrason, etc.

Reply

Marsh Posté le 02-10-2008 à 20:24:54    

T'es un peu grilled barnabe :D

 

Après, ce que fait total immersion est très bien (pour avoir joué au sabrolaser dans un CAVE avec leur truc, je confirme que c'est fun :D), mais c'est aussi très payant [:tinostar]

Message cité 2 fois
Message édité par Herbert de Vaucanson le 02-10-2008 à 20:27:41

---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 02-10-2008 à 21:40:58    

Herbert de Vaucanson a écrit :

T'es un peu grilled barnabe :D

Pas compris  :??:  
 
Sinon, effectivement, des LEDs ça coûte rien, une web cam très bien, 2 webs cams à l'extrême limite, mais je compte pas investir plus...
 
 
Hum, maintenant que c'est parti ici...

Reply

Marsh Posté le 03-10-2008 à 02:33:57    

dommage que wiiyourself soit en cpp [:joce]


---------------
« The enemy is the gramophone mind, whether or not one agrees with the record that is being played at the moment. » — George Orwell
Reply

Marsh Posté le 03-10-2008 à 13:00:40    

Dommage ? :??:

 

La très grande majorité des libs dans le domaine est en cpp :spamafote:

Message cité 1 fois
Message édité par Herbert de Vaucanson le 03-10-2008 à 13:01:38

---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 03-10-2008 à 13:04:19    

Herbert de Vaucanson a écrit :

T'es un peu grilled barnabe :D
 
Après, ce que fait total immersion est très bien (pour avoir joué au sabrolaser dans un CAVE avec leur truc, je confirme que c'est fun :D), mais c'est aussi très payant [:tinostar]


ils vendent bien leurs trucs, c'est bien présenté et tout, mais ne développent en réalité pas grand chose, sinon une interface jolie. Ils rachètent surtout des brevets mais n'inventent rien par eux-mêmes, et ont quelques commerciaux aux dents longues, qui vendent bien leurs trucs, et c'est tout.

Reply

Marsh Posté le 03-10-2008 à 13:07:28    


c'est pas vraiment du graphisme. A la limite dans la catégorie développement, si il y en a une...

Reply

Marsh Posté le 03-10-2008 à 13:14:26    

barnabe a écrit :


ils vendent bien leurs trucs, c'est bien présenté et tout, mais ne développent en réalité pas grand chose, sinon une interface jolie. Ils rachètent surtout des brevets mais n'inventent rien par eux-mêmes, et ont quelques commerciaux aux dents longues, qui vendent bien leurs trucs, et c'est tout.

 

:??:

 

Tu lui dis d'utiliser les trucs de total immersion, je réponds que c'est payant donc pas trop possible pour lui, et tu me réponds qu'ils ne développent rien eux-mêmes mais rachètent des brevets (je ne comprends pas le rapport et la logique de l'enchainement) [:transparency]

Message cité 1 fois
Message édité par Herbert de Vaucanson le 03-10-2008 à 13:16:25

---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 03-10-2008 à 13:16:36    

Herbert de Vaucanson a écrit :


 
Euh... oui, mais je ne vois pas trop le rapport [:transparency]


le rapport avec quoi ? Je parlais juste de total immersion. Le truc avec le sabro Laser, ça utilisait un Polémus non ? un truc à fil qui fonctionne par champ magnétique.

Reply

Marsh Posté le 03-10-2008 à 13:25:27    

barnabe a écrit :


le rapport avec quoi ? Je parlais juste de total immersion. Le truc avec le sabro Laser, ça utilisait un Polémus non ? un truc à fil qui fonctionne par champ magnétique.


 
J'ai édité, je ne comprends pas pourquoi tu me réponds en me parlant du mode de fonctionnement du dev chez total immersion à mon post dans lequel je disais que comme c'était payant, il ne pouvait pas l'utiliser.
 
Sinon nope, j'suis pas très fan du Polhemus et de l'aspect "fil à la patte", surtout dans un CAVE. C'était du Dtrack (tracking avec 6 cam + boules réfléchissantes comme expliqué plus haut) ou du Intersense 6D. A ma connaissance, c'est plus trop utilisé.


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 03-10-2008 à 13:43:58    

OpenCV supporte le multi-caméra, et c'est assez simple d'utilisation.
De plus il y a déjà des routines toutes faites qui permettent de les calibrer (avec l'utilisation d'un damier si mes souvenirs sont bons).
 
De là à reconstruire l'espace 3D avec les nuages de points détectés, c'est une autre histoire.
 
Si t'as des questions sur OpenCV, je l'utilise presque tous les jours, donc hésite pas.


---------------
All your Bayes are belong to us !
Reply

Marsh Posté le 03-10-2008 à 14:09:16    

Herbert de Vaucanson a écrit :


 
J'ai édité, je ne comprends pas pourquoi tu me réponds en me parlant du mode de fonctionnement du dev chez total immersion à mon post dans lequel je disais que comme c'était payant, il ne pouvait pas l'utiliser.
 
Sinon nope, j'suis pas très fan du Polhemus et de l'aspect "fil à la patte", surtout dans un CAVE. C'était du Dtrack (tracking avec 6 cam + boules réfléchissantes comme expliqué plus haut) ou du Intersense 6D. A ma connaissance, c'est plus trop utilisé.


intersense, je crois qu'ils ont fermé boutique. J'avais déjà utiliser un système intersense ; il s'agissait d'une mini centrale inertielle, avec des emetteurs à ultra son, et un système de micro à ultra son qu'on disposait sur un mur ou sur un plafond. Et après calibration du bouzin (situer exactement le système de captation dans l'espace), le tout fonctionnait pas trop mal, mais manquait cruellement de précision quand-même...

Reply

Marsh Posté le 03-10-2008 à 14:13:17    

barnabe a écrit :


intersense, je crois qu'ils ont fermé boutique.


 
Pas à ma connaissance, je pense que j'en aurai entendu parler [:transparency]
 

barnabe a écrit :


 J'avais déjà utiliser un système intersense ; il s'agissait d'une mini centrale inertielle, avec des emetteurs à ultra son, et un système de micro à ultra son qu'on disposait sur un mur ou sur un plafond. Et après calibration du bouzin (situer exactement le système de captation dans l'espace), le tout fonctionnait pas trop mal, mais manquait cruellement de précision quand-même...


 
Oui voilà, c'est ça :jap:
 
Enfin pour la précision, tout dépend de ce que tu voulais faire avec, mais pour des applications de tracking pour la RA ou la RV, c'était largement suffisant pour nous :o


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 03-10-2008 à 14:48:35    

Herbert de Vaucanson a écrit :


 
Pas à ma connaissance, je pense que j'en aurai entendu parler [:transparency]
 


 

Herbert de Vaucanson a écrit :


 
Oui voilà, c'est ça :jap:
 
Enfin pour la précision, tout dépend de ce que tu voulais faire avec, mais pour des applications de tracking pour la RA ou la RV, c'était largement suffisant pour nous :o


ou alors il ont arrêté le secteur broadcast (comme total immersion d'ailleurs ; trop de contraintes techniques, trop peu de temps...)
Ou ils ont été racheté. Intersense appartenait à l'époque à Vinten.
RA, RV..késako ?
 
Le manque de précision du truc venait surtout de la techno utilisée : les ultrasons, dont la longueur d'onde était trop longue par rapport à un système infrarouge, par contre l'avantage c'est que les signaux ultrason sont assez robustes aux perturbations, peu de chose peut venir brouiller les signaux...contrairement aux infrarouges.

Reply

Marsh Posté le 03-10-2008 à 14:54:03    

barnabe a écrit :


ou alors il ont arrêté le secteur broadcast (comme total immersion d'ailleurs ; trop de contraintes techniques, trop peu de temps...)
Ou ils ont été racheté. Intersense appartenait à l'époque à Vinten.
RA, RV..késako ?
 
Le manque de précision du truc venait surtout de la techno utilisée : les ultrasons, dont la longueur d'onde était trop longue par rapport à un système infrarouge, par contre l'avantage c'est que les signaux ultrason sont assez robustes aux perturbations, peu de chose peut venir brouiller les signaux...contrairement aux infrarouges.


 
Oui nan mais je ne te demandais pas pourquoi c'était imprécis (ça je sais bien tout ça, merci :D), mais je te demandais quelle était ton application pour que la précision de ces trackers soit insuffisante, quelles étaient tes contraintes quoi, pourquoi tu avais besoin de plus de précision.
 
Sinon RA, c'est pour Réalité Augmentée, et RV, Réalité Virtuelle. Je suis curieux de voir dans quel autre cadre tu as pu utiliser différents trackers comme ça.


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 03-10-2008 à 15:03:10    

Herbert de Vaucanson a écrit :


 
Oui nan mais je ne te demandais pas pourquoi c'était imprécis (ça je sais bien tout ça, merci :D), mais je te demandais quelle était ton application pour que la précision de ces trackers soit insuffisante, quelles étaient tes contraintes quoi, pourquoi tu avais besoin de plus de précision.
 
Sinon RA, c'est pour Réalité Augmentée, et RV, Réalité Virtuelle. Je suis curieux de voir dans quel autre cadre tu as pu utiliser différents trackers comme ça.


dans mon ancienne boîte, pour une utilisation broadcast.  
Pour des incrustes sur fond vert ou bleu, pour faire bouger des caméras et tracker les mouvements en temps réel, afin de faire bouger les incrustations (le décor). On s'est fait prêté un système intersense (on était même devenu plus ou moins mandataire pour installer les sytèmes intersense)
 
tant que tu mets des capteurs et que tu trackes des objets, et que tu filmes en caméra fixe, la précision des systèmes comme polhémus et intersense est suffisante, mais dès que tu trackes les déplacements de la caméra elle-même, la précision devient insuffisante, car elle dépend de la focale de la caméra, et de la distance entre la caméra et l'objet, la moindre erreur angulaire se traduit à l'image par des erreurs trop importantes (nous fabriquions des têtes de caméra trackées par des codeurs, très précises.) plus la focale est longue, plus l'objet est loin, moins l'erreur est acceptable.
 
Je sais pas si j'ai été très clair dans mes explications...:/


Message édité par barnabe le 03-10-2008 à 15:05:01
Reply

Marsh Posté le 03-10-2008 à 16:02:02    

Ah ok, sisi c'est clair, marrant comme application :jap:


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 03-10-2008 à 16:07:51    

juste pour dire en passant que le temp de calcul n'est plus *trop* une limite non plus avec un quad-core (et ça l'était déjà plus quand j'ai fini mon doctorat en 2006).

 

Pour la reconstruction 3D, si c'est pas dense, c'est assez facile à faire.


Message édité par Joel F le 03-10-2008 à 16:10:13
Reply

Marsh Posté le 03-10-2008 à 16:10:12    

Euh... On parle de tracking là, pas de reconstruction de scène 3D à partir de stéréoscopie :D
 
Les systèmes de tracking dont on parle viennent très souvent avec leur propre controller et fournissent directement (ou presque) des positions 6D, ça n'occupe pas de temps de calcul :o


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
Reply

Marsh Posté le 03-10-2008 à 16:12:25    

Herbert de Vaucanson a écrit :

Euh... On parle de tracking là, pas de reconstruction de scène 3D à partir de stéréoscopie :D
 
Les systèmes de tracking dont on parle viennent très souvent avec leur propre controller et fournissent directement (ou presque) des positions 6D, ça n'occupe pas de temps de calcul :o


 
Lag inter-topics v_v  
J'etait restait sur une optique fait main du PO :o
Ofc si le capteur envoie la purée direct :E splufacile :o

Reply

Marsh Posté le 03-10-2008 à 16:22:11    

Joel F a écrit :


 
Lag inter-topics v_v  
J'etait restait sur une optique fait main du PO :o
Ofc si le capteur envoie la purée direct :E splufacile :o


rien pigé...:/

Reply

Marsh Posté le 03-10-2008 à 16:23:04    

PO : posteur originel
ofc = of course

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed