### [Matos] - Les assoiffés de technique [now: Light Fields / Lytro] - Appareil - Photo numérique
Marsh Posté le 31-05-2011 à 18:25:50
Tiens, un premier sujet, déjà
Proute2000 a écrit : 200 mégapixels chez Hasselblad
|
Bonjour Proute2000,
J'ai trouvé sur le web que ce principe (de prise de vue multiples en décalant légèrement le capteur entre chaque prise pour augmenter la résolution de l'image finale) existait déjà au moins en militaire. Voici le post instructif d'un gars qui a déposé des brevets sur ce principe appelé microscan ou microscanning, un certain Kennedy McEwen* (en anglais):
http://www.photography-forums.com/ [...] 86869.html
Références :
- Wikipedia (english) :
http://en.wikipedia.org/wiki/Microscanning
- Animation très parlante (tiré d'un lien sur l' "AxioCam HR" pour applications biomédicales) :
Source : http://www.zeiss.de/C12567BE0045AC [...] 6A004A137B
cdlt,
GBo
(*) cf. ce papier de 1997 dont il est l'auteur (je n'ai hélas pas pu l'ouvrir gratuitement mais il parait que ça parle microscan) :
http://spie.org/x648.html?product_id=280337
Marsh Posté le 31-05-2011 à 20:46:37
Des brevets sur le sujet (ou procédé proche) :
http://www.freepatentsonline.com/4652928.pdf (1984)
http://www.freepatentsonline.com/4633317.pdf (1986)
http://www.freepatentsonline.com/5180912.pdf (1993)
http://www.freepatentsonline.com/5291327.pdf (1994)
http://www.freepatentsonline.com/5774179.pdf (1998)
http://www.freepatentsonline.com/5798875.pdf (1998)
http://www.freepatentsonline.com/7486438.pdf (2009)
cdlt,
GBo
Marsh Posté le 14-06-2011 à 23:55:34
drapal
Marsh Posté le 15-06-2011 à 10:57:26
GBo a écrit : De rien |
Désolé
On a pas toujours le temps ou les infos pour remplir ce magnifique topic
Marsh Posté le 15-06-2011 à 11:05:44
Zut j'ai effacé au même moment
Pour le reste ça dépend juste de nous, si c'est sur un truc que je connais je peux passer un peu de temps à expliquer (car c'est souvent en expliquant aux autres qu'on s'aperçoit qu'on avait pas bien compris soi-même ).
Il y a de l'intérêt pour la technique dans ce forum, manifesté par exemple dans la filière "### [Matos] - News - Spéculations et même des vertes et des pas mûres" , mais les imprudents voulant développer se font systématiquement renvoyer au fameux "topic des experts", dont ce n'est pas la vocation (d'appronfondir la compréhension du fonctionnement des technologies existantes) comme je l'ai rappelé. Donc il y a largement matière à ce que ce thread vive, et j'espère que les connoisseurs le fréquenteront.
Marsh Posté le 20-06-2011 à 10:56:01
Un nouveau sujet abordé sur le fil des vertes et des pas mures :
DIFFERENCES ENTRE UN CAPTEUR FOVEON (ex: SIGMA SD1) et UN CAPTEUR CLASSIQUE :
Pourquoi Sigma multiplie-t’il son nombre de pixels par trois ?
cd5 a écrit : |
+1 !
Voici un dessin pour faire mieux comprendre, à gauche Foveon, à droite matrice de Bayer classique :
Source : http://www.foveon.com/article.php?a=68
=> Le truc à piger c’est qu’un capteur dit à N Megapixel à matrice de Bayer (mosaïque de filtres RGB dont sont équipés quasi tous les appareils) contient en fait N millions de photosites, dont chacun réagit à une seule couleur primaire, soit Vert, soit Rouge, soit Bleu.
Donc l’image de N Mpx issue du dématriçage de nos appareils classiques ne sont pas des vrais pixels à mon sens: aucun de ces points n’a vu les 3 couleurs à cet endroit précis de l’image. Par exemple en face d'un photosite équipé d’un filtre vert, pour l'image finale il aura fallu interpoler quelle valeur aurait pu avoir le rouge et le bleu à cet endroit, en fonction des photosites voisins (ceux équipés des filtres rouge et ceux équipé des filtres bleus). Interpolation ne vaut pas vraie information.
A partir du moment où cette définition de pixel - criticable - a été largement adoptée pour les appareils classiques, il me semble assez légitime que Sigma cherche à annoncer un facteur multiplicatif par rapport au nombre de ses photoéléments.
Marsh Posté le 20-06-2011 à 11:07:26
Sauf que au final ta photo elle une résolution qui ne correspond pas a un capteur 12 ou 45mpx, donc c est un peu un leurre pour un marketing ou la taille du sensor est encore un argument. Tu peux superposer 10 couches si tu veux, la resolution correspondra toujours a celle de la premiere soit du 2640 x 1760 pour le foveon 2
Marsh Posté le 20-06-2011 à 11:29:38
grotius a écrit : Sauf que au final ta photo elle une résolution qui ne correspond pas a un capteur 12 ou 45mpx, donc c est un peu un leurre pour un marketing ou la taille du sensor est encore un argument. Tu peux superposer 10 couches si tu veux, la resolution correspondra toujours a celle de la premiere soit du 2640 x 1760 pour le foveon 2 |
Bonjour, je ne vois pas pourquoi on imaginerait superposer 10 couches, puisqu’il en suffit de trois pour avoir la valeur de la couleur à cet endroit précis de l’espace de l’image projetée sur la surface du capteur. Et il en faut trois, sinon on est obligé de composer avec les photosites voisins (ce que font nos appareils classiques) qui ne sont pas exactement au même endroit.
Du coup sur une cible colorée, on va avoir une meilleure résolution spatiale avec un foveon de 4800 x 3200 photosites (celui- du SD-1) qu’avec un capteur de même taille de 4800 x 3200 photosites à matrice de bayer.
Est-on d’accord avec cette assertion, déjà ?
Marsh Posté le 20-06-2011 à 11:57:43
grotius a écrit : Sauf que au final ta photo elle une résolution qui ne correspond pas a un capteur 12 ou 45mpx, donc c est un peu un leurre pour un marketing ou la taille du sensor est encore un argument. Tu peux superposer 10 couches si tu veux, la resolution correspondra toujours a celle de la premiere soit du 2640 x 1760 pour le foveon 2 |
T'as pas compris le principe alors.
Une image issue d'un foveon fait XXMpixels. Mais le capteur dispose de XX x 3 Mpixels. La résolution en sortie directe ne souffre d'aucune interpolation, et ça se voit, les images d'un dp1 sont vraiment "nettes" comparativement à celles issues d'un capteur classique à matrice de bayer, et je parle là de mon expérience.
Le mensonge est autant du côté des capteurs à matrice de bayer, qui interpolent allègrement pour avoir une image plus grande, mais avec la moitié (ou les 2/3 ? Ou juste 1/3 ?) des infos qui sont inventées par logiciel.
Marsh Posté le 20-06-2011 à 12:42:46
c'est la soupe que vend sigma depuis des années sauf que la résolution finale de la photo n est que celle de la première couche soit 2640 x 1760.
Marsh Posté le 20-06-2011 à 12:44:12
grotius a écrit : c'est la soupe que vend sigma depuis des années sauf que la résolution finale de la photo n est que celle de la première couche soit 2640 x 1760. |
Tu devrais relire nos deux posts, du coup.
Marsh Posté le 20-06-2011 à 12:50:03
Je connais très bien le foveon et sigma aussi, la multiplication que fait sigma ne tient pas la route, c est du marketing. L avantage du foveon c est surtout les couleurs. Et si les images du DP1 sont nettes c est essentiellement grâce a l excellente optique et aussi a un réglage de sharpness par défaut un peu élevé.
Marsh Posté le 20-06-2011 à 12:58:31
grotius a écrit : Je connais très bien le foveon et sigma aussi, la multiplication que fait sigma ne tient pas la route, c est du marketing. L avantage du foveon c est surtout les couleurs. Et si les images du DP1 sont nettes c est essentiellement grâce a l excellente optique et aussi a un réglage de sharpness par défaut un peu élevé. |
Et un CMOS 12 Mpixels c'est pas marketing alors, si on tient compte de l'interpolage à outrance, qui invente des infos inexistantes ?
Marsh Posté le 20-06-2011 à 13:08:19
@grotius, ce n'est pas en disant que l'on connait très bien que l'on arrive à convaincre, il faut argumenter techniquement et c'est justement la bonne filière pour ça.
Je répète donc ma question qui doit permettre d'avancer pas à pas, merci de jouer le jeu :
- sur une cible à motifs colorés, es-tu d'accord que l'on devrait théoriquement obtenir une meilleure résolution spatiale avec un foveon de 4800 x 3200 triple-photosites (capteur du SD-1) qu’avec un capteur de même taille de 4800 x 3200 photosites à matrice de Bayer ? A optique égale, supposée non limitante dans le cas de figure posé.
Oui ou non ?
Pour nous c'est oui, on a expliqué rapidement pourquoi. Ensuite on pourra discuter de combien meilleure, le facteur 3 annoncé étant en effet débattable.
Mais si c'est non (= pas du tout de gain en résolution dans le cas de figure énoncé, contre toute attente), à toi d'argumenter please.
Marsh Posté le 20-06-2011 à 18:47:15
Pour moi c'est oui aussi. Au final c'est plutôt les capteurs à matrice de Bayer qui sont marketing avec leur 12Mp (10^6.Photosite ?) et du coup Sigma avec leur Fovéon sont obligé d'annoncer x3 pour ne pas avoir l'air con.
Pour être plus proche du vrai les capteurs à matrice de Bayer 12Mp devraient s'apeller 3 MPixels (4 photosites pour une info) et dans ce cas les Foveon seraient de vrai 12MPixels.
Voilou, qui avec moi pour faire un procès pour publicité mensongère à Sony, Canon, Nikon, Pentax ET Sigma ?
Marsh Posté le 20-06-2011 à 19:00:22
Comme certains, je pense que l'arnaque vient à la base des capteurs standard à matrice.
D'ailleurs je crois que Sigma annonçait une définition au niveau d'un 8MPx pour son capteur 4,7 MPx à l'époque. Le truc c'est qu'entre temps, les capteur ASP-C sont monté à 18MPx.
Par contre au prix annoncé du SD1, je vais pas passé chez sigma tout de suite.
Marsh Posté le 20-06-2011 à 19:29:27
C'est sans doute très simplifié (par exemple on néglige l'influence du filtre AA, et à contrario les performances de l'algo d'interpolation) et ça ne vaut pas certainement pas une mesure avec diverses cibles, mais voici une petite méthode géométrique qui a le mérite de faire comprendre le gain théorique en résolution, j'ai trouvé ça sur dpreview :
A gauche Foveon, à droite capteur à Bayer qui aurait le même nombre de photoélements (par exemple on compare ici le capteur du SD1 avec un capteur classique de même taille de 15.4 Mpx)
http://www.dpreview.com/news/1010/ [...] erview.asp
Pour le Vert :
Sur les diagonales : pas de gain (car on a autant de photosites verts dans un cas que dans l'autre)
Sur l'axe des x : gain d'un facteur 2 en faveur de Fovéon (qui a deux fois plus de photosites captant le vert sur cet axe)
Sur l'axe des y : gain d'un facteur 2 en faveur de Fovéon (" )
Pour le Rouge :
Gain d'un facteur 2 en faveur de Fovéon sur toutes les directions
Pour le Bleu :
Gain d'un facteur 2 en faveur de Fovéon sur toutes les directions
cdlt,
GBo
Marsh Posté le 22-06-2011 à 16:58:45
Voici des mesures :
Resolution for Color photography
http://www.foveon.com/files/Resolu [...] graphy.pdf
Marsh Posté le 16-08-2011 à 22:03:22
Les light fields ? mais c'est très simple !
Voici un sujet à mettre dans le gosier des assoiffés de technique, les LIGHT FIELDs, et plus particulièrement leur application dans le domaine de la "synthetic aperture photography", comme les anglophones l'appellent poliment.
Je me propose ici de montrer un exemple concret de la constitution d'images synthétiques à faible PdC (profondeur de champ) et à mise au point ajustable après coup (comme pour le futur appareil plénoptique Lytro LIGHT FIELD CAMERA [1] qui a fait une grosse pub dans le monde entier en Juin 2011), images synthétiques obtenues à partir des échantillons de light fields mises gracieusement en ligne par l'université de Stanford aux US, laquelle est en pointe dans le domaine (le PDG de Lytro, Ren Ng, sort d'ailleurs de cette université).
Vous verrez, c'est vraiment pas compliqué à piger dans le principe.
Les images qui vont nous servir de base sont à télécharger depuis ce lien :
http://lightfield.stanford.edu/lfs.html
Cf. "Light Fields from the Lego Gantry", Credits : Stanford Graphics Laboratory, Andrew Adams.
Le système de capture utilisé est différent du système de Lytro (j'y reviendrai plus tard sûrement) et plus accessible au bricoleur puisqu'ici les photos sont prises par un reflex numérique ordinaire, monté sur un chariot motorisé Lego Mindstorms [2] comme ceci :
http://lightfield.stanford.edu/acq.html
Ce chariot effectue des déplacements controlés de gauche à droite et de bas en haut, de façon à obtenir une multitude de points de vue de l'objet. Cela constitue un échantillonnage des light fields en bonne et due forme, c'est à dire du champ de lumière que reflête l'objet vus sous plusieurs angles. L'inconvénient majeur de la méthode est que les sujets doivent être statiques (ce qui n'est pas le cas de Lytro).
Foin de théorie, prenons l'exemple des Jelly Beans :
http://lightfield.stanford.edu/dat [...] tified.zip
Le zip à télécharger contient 289 photos différentes de ces délicieux beans, prises selon une grille 2D (horizontal x vertical) de 17 x 17 points de vue :
Les 289 photos en miniatures, version animée :
=> vous vérifiez bien que les points de vue sont à chaque fois légèrement différents, puisqu'entre deux prises le chariot motorisé a déplacé l'appareil dans une translation gauche->droite en s'arrêtant 17 fois pour photographier, puis un cran plus haut, etc... jusqu'à la 17ième hauteur.
Vous constatez aussi que ces images sont nettes (à peu près hein), la profondeur de champ est vaste.
--
Passons aux choses sérieuses : la formation des images à ouverture synthétique.
Il s'agit tout simplement de SUPERPOSER ces diverses images entre elles (comme le font les astronomes avec Registax ou Iris), c'est une opération mathématiquement très simple puisqu'elle consiste à additionner les valeurs de pixels (ceux de la 1ere image avec la 2ième, ceux de la 3 ième avec les deux premières, etc...). Bien sûr on veillera à faire les additions sur 16 bits pour ne pas écréter, ensuite on divisera par le nombre d'images (= moyenne) et on repassera sur 8 bits pour former le jpeg composite final.
On va déjà essayer de partir des 9 images (3 x 3) présentées plus haut.
Animation :
Voici ce que donne l'addition (superposition) de ces 9 images :
C'est vraiment pas terrible, mais ça a le mérite de bien visualiser en quoi consiste la superposition dont je parle. Vous noterez que les beans de devant sont nets car les images du zip sont ainsi réalignées par le labo de Stanford que les beans de devant (ces fayots !) sont exactement au même endroit dans toutes les prises de vue. Et le "flou" de derrière est causé par les différences de parallaxe entre les vues.
That's it, l'essentiel est dit.
Maintenant l'addition des 289 images (17 x 17), ta ta taaaaaan :
C'est nettement mieux, car il y a cette fois suffisamment d'images intermédiaires pour créer un flou d'arrière-plan correct.
C'est comme si l'objectif utilisé était passé tout à coup à une ouverture fantastique, avec sa PdC très fine associée. De fait, la grande ouverture est en quelque sorte émulée par l'étendue des déplacements de l'appareil, qui échantillonne une surface plus importante que la petite ouverture géométrique de l'objectif réel.
On peut même artificiellement agrandir l'ouverture d'un capteur d'iphone 4 si l'on veut, pour preuve cette appli gratuite faite par Marc Levoy (encore un cador de Stanford), SynthCam [3].
--
Les plus intuitifs ont déjà compris la suite : si on veut que la mise au point synthétique se fasse sur les Jelly Beans du fond, il suffira de décaler les 289 images de départ de façon à ce que ces beans se superposent exactement !
Heureusement c'est très simple en fait, il suffit de décaler chaque image d'un nombre de pixels (fixe) par rapport à sa voisine, dans le sens horizontal et dans le sens vertical. Puis l'addition de pixels comme précédemment.
Voyons déjà ce que ça donne sur la version dégradée de 9 images (3x3) :
Et avec toutes les images :
On peut en fait faire le point où on veut, il suffit de bien choisir le nombre de pixels de décalage entre chaque vue avant de passer à l'addition (et un café).
Il s'agit vraiment d'une émulation de l'ouverture d'un objectif, car on peut "fermer le diaph" comme un vrai : par exemple, au lieu de superposer les 17x17 images, je vais superposer maintenant seulement les 5x5 images du centre de la grille de prise de vue. Les 25 photos du centre, version animée :
Les écarts de point de vue sont moins extrêmes, le flou sera donc plus réduit, la PdC plus grande. voici le résultat qui confirme, toujours en "mettant au point" (= décalage des images avant superposition) sur les haricots du fond :
On peut aussi changer le "bokeh" en pondérant l'addition des images, par exemple en diminuant progressivement l'influence des points de vue les plus extrêmes (à essayer ultérieurement, là j'ai un coup de barre).
Des heures d'amusement !
cdlt,
GBo
--
[1] http://www.lytro.com/picture_gallery (cliquer dans la photo pour faire le point après coup)
[2] http://mindstorms.lego.com/en-us/Default.aspx
[3] http://www.youtube.com/user/marcle [...] 0zLgCF42Vk
Marsh Posté le 16-08-2011 à 22:42:44
drapal, pour le principe.
Marsh Posté le 16-08-2011 à 22:43:38
GBo a écrit : Voici ce que donne l'addition des 9 images (3 x 3) présentées plus haut : |
Enfin quelqu'un qui a autant d'imagination que moi qui est capable de comprendre que ceci est l'avenir de la photo
Cependant là tu manques aussi un peu d'imagination Car ces 9 images sont bien suffisant pour réaliser un joli bocket.
Car on arrive déjà avec uniquement deux vues différentes à restituer la profonde d'une scène... alors avec 9 vues...
Marsh Posté le 16-08-2011 à 22:53:44
Proute2000 a écrit : [...] |
Salut Proute, tu as les samples dans le zip (pas de contrepétrie j'espère), montre nous ce que tu sais faire avec 9 images.
En rar si tu préfères :
http://gbotet.perso.sfr.fr/LF/C2Dscarce.rar
A toi de jouer !
Marsh Posté le 16-08-2011 à 23:01:30
GBo a écrit : |
Oh non ! Je ne sais pas si j'aurai le temps de coder ça !
Mais je sais que c'est possible.... puisqu'il existe déjà des logiciels pour ralentir un film en rajoutant des images intermédiaires. Ici c'est la même chose (en même plus simple)
Marsh Posté le 16-08-2011 à 23:08:21
Pas le temps, pas le temps... Proute a que de la gueule oui !
Pour ceux qui veulent creuser, je signale qu'il y a des pistes intéressantes là :
"Synthesis of smooth defocus from limited number of input images"
http://www.cv.info.hiroshima-cu.ac [...] index.html
http://www.cv.info.hiroshima-cu.ac [...] a/1913.pdf
Si vous passez aux travaux pratiques tenez nous au courant ici please
Marsh Posté le 17-08-2011 à 08:11:41
ReplyMarsh Posté le 17-08-2011 à 12:49:45
Merci pour votre intérêt
Marsh Posté le 18-08-2011 à 02:04:03
Rappelons encore les avantages d'un multi-capteurs-objectifs :
- Mise-au-point instantanée.
Oui sur un appareil de 9 capteurs-objectifs (environ) la mise au point est encore nécessaire cependant elle pourra être déduite quasi-instantanément via la différence des vues et donc le calcul de la profondeur d'un point particulier.
Notez bien que ce genre d'appareil ne serait pas fait pour changer la mise-au-point en post production.
- Réduction de la taille de l'objectif.
Un unique objectif 24-200 mm prend plus de place que la même surface de capteur coupé N fois avec chacun un objectif "équivalant".
Marsh Posté le 18-08-2011 à 08:33:09
Oui il y a plusieurs familles d'appareils qui capturent les light fields, sans être exhaustif :
1) appareil photo mono-capteur mono-objectif classique mais qui prend plusieurs vues (des centaines et +) au cours d'une promenade sur plusieurs axes autour du sujet (forcément immobile, le sujet).
Ce que j'ai présenté plus haut n'est en fait qu'une version jouet de modèles plus ambitieux comme celui-ci par exemple :
http://graphics.stanford.edu/projects/gantry/
2) de multiples appareils identiques, organisés en matrice. Là encore Stanford est passé à la pratique depuis longtemps :
http://graphics.stanford.edu/projects/array/
En plus petit (!), un produit commercial (pour téléphone portable) est aussi en préparation depuis 2 ou 3 ans dans la start-up Pelican Imaging.
Source : http://www.pelicanimaging.com/pelican-unveils.htm
Je compte 25 lentilles au fait
3) un appareil photo mono-capteur et mono-objectif d'apparence classique mais modifié par l'insertion d'une matrice comprenant jusqu'à quelques centaines de micro-lentilles entre l'objectif et le capteur. Et d'un soft spécifique associé. On y reviendra plus en détail puisque c'est ce qu'utilise Lytro qui devrait sortir cette année (?). La R&D d'Adobe travaille aussi dessus (Todor Georgiev), et une boite allemande du nom de Raytrix GmbH a déjà sorti des appareils d'un type voisin mais à vocation industrielle :
Raytrix-R11 4D lightfield-camera
Source : http://raytrix.de/index.php/R11_en.html
http://raytrix.de/tl_files/downloa [...] 24_web.pdf
=> Cette voie est prometteuse pour la photographie pourvu que la résolution des capteurs continue à augmenter : il faudrait des capteurs de 100 voire 250 Megapixels pour bien faire, car une bonne partie de la résolution native est amputée par l'échantillonnage de la dimension angulaire requise pour les light fields.
--
Mais revenons déjà sur le Pelican et assimilés.
As-tu des liens vers des articles techniques là dessus Proute2000 ? des samples d'images issus d'appareil ou prototypes ?
Je te rappelle que le but de la "filière des assoiffés" est de parler avec précision de technos existantes ou sur le point de sortir, et de citer ses références.
Marsh Posté le 18-08-2011 à 09:32:40
Pas mal tous ça ! Ainsi la future évolution de la photo est vraiment proche !
Ah désolé moi je n'ai aucun lien. Je te rappelle que je viens du topic "on n'a pas de pétrole"
J'aime bien le coup du téléphone bien que j'aurai trouvé plus judicieux un plus grand écart entre chaque objectif pour que le relief soit plus facile à capturer.
Pour ce qui est du coté de Nvidia, c'est p'être bien mais ils ont surtout réussi à réunir sur un seul produit tout ce qui est cher, lourd et compliqué
Marsh Posté le 18-08-2011 à 13:47:09
Proute2000 a écrit : Pas mal tous ça ! Ainsi la future évolution de la photo est vraiment proche ! |
Justement j'aimerais bien pouvoir l'oublier
Proute2000 a écrit :
|
Je comprends ce que tu veux dire. Si on prend la course du reflex sur son chariot en Lego dont on a vu le résultat ci-dessus, il s'agissait de plusieurs centimètres en X et en Y pour avoir une belle ouverture virtuelle. Cependant, si pour le Pelican on reste à 5x5 vues mais en beaucoup plus écartées les unes des autres que ce qu'on devine sur la photo, l'ouverture virtuelle sera plus grande mais la dimension angulaire alors sera dramatiquement sous-échantillonnée, causant des artefacts dans le rendu final, si le but était de construire une belle image à PdC réduite et refocusing a posteriori (car l'"interpolation" logicielle éventuelle dont tu parlais n'a jamais fait de miracles pour inventer les informations qui manquent, mais je ne demande qu'à être convaincu... sur pièces).
Proute2000 a écrit :
|
Oui mais c'est pour de l'industriel, c'est toujours cher dans ce cas, ça ne préjuge pas du coût d'une techno proche pour une application à plus grande diffusion. Au niveau hard, par rapport à un mirrorless c'est juste une vitre de microlentilles à rajouter, et le capteur à reculer (le tout de façon très très précise, certes)...
Marsh Posté le 18-08-2011 à 14:02:51
Merci pour ce topic très intéressant GBo.
Tiens, pourquoi la technologie "backlit" qui permet à certains compacts d'avoir des qualités d'images très optimisées, n'est ou ne serait-elle pas utilisable sur un capteur APS-C (voire plus grand) ?
Par principe, ce qui est technologiquement réalisable à une échelle minuscule doit être facile à transposer à plus grande échelle ?
Marsh Posté le 18-08-2011 à 14:10:14
Je n'ai jamais su précisément, mais de ce que j'ai retenu d'une interview d'un fabricant, c'est appliqué sur les petits capteurs surpixellisés car là les pixels sont tellement petits que ça s'imposait (fill factor très médiocre, surface sensible "au fond d'un puit" ), alors que pour les capteurs de reflex (gros pixels) c'est déjà bien géré (bon fill factor, microlentilles...), et la techno backlit inutile (ou inapplicable je ne sais plus).
Est-ce qu'un meilleur connaisseur du CMOS aurait plus d'explications ?
Marsh Posté le 18-08-2011 à 14:29:19
GBo a écrit : (...) Au niveau hard, par rapport à un reflex c'est juste une vitre de microlentilles à rajouter, et le capteur à reculer (le tout de façon très très précise, certes)... |
C'est exactement ce que je veux dire et c'est donc cher
Un unique gros capteur fiable est largement plus cher à produire que plusieurs petits. Ainsi qu'un gros objectif unique.
Marsh Posté le 18-08-2011 à 14:38:49
Zygonyx a écrit : Tiens, pourquoi la technologie "backlit" qui permet à certains compacts d'avoir des qualités d'images très optimisées, n'est ou ne serait-elle pas utilisable sur un capteur APS-C (voire plus grand) ? |
Je ne sais plus où j'ai lu ça mais ça n'apporte rien avec de plus gros photosites
Marsh Posté le 18-08-2011 à 17:41:32
C'est intéressant mais encore lourd à mettre en place. Ya encore un petit moment avant de voir ça dans l'APN à 2 sous de Mme Michu.
Marsh Posté le 18-08-2011 à 18:12:58
Bonsoir trajouf, je n'ai sans doute pas assez insisté sur le fait que l'équipement Stanford du reflex sur chariot mobile motorisé (dont j'ai utilisé les images juste pour expliquer le principe de base), et l'appareil de Lytro qui sortira pour le grand public si l'on en croit Ren Ng, utilisent des systèmes de capture des light fields radicalement différents (même si mathématiquement l'un se ramène à l'autre): le Lytro s'utilisera exactement comme un appareil classique, tu cadres et tu appuies sur le bouton, le light field est capturé instantanément. Si ce n'est qu'on n'aura pas à faire la mise au point au moment de la prise de vue (et ça marche même pour un objo à grande ouverture, donc avec une assez faible PdC à la prise de vue, ce qui est assez fascinant quand on y pense puisque ce que l'on voit flou au viseur pourra sortir net ensuite !).
Encore plus instantané que sur un compact donc, puisque le temps de MAP n'est pas négligeable sur ces appareils.
On fait donc le point ensuite, vraisemblablement sur l'ordi d'un coup de souris sur une appli interactive où s'affichera une image reconstituée de faible PdC, on pourra d'ailleurs augmenter la PdC si on veut, auquel cas on pourra aussi changer légèrement l'angle de prise de vue, etc...
Donc très simple, surtout pour ceux qui sont nés avec une souris entre les mimines (pour mme Michu je la vois pas trop comme ça en effet, tant pis).
Seuls inconvénients à court/moyen terme, non signalés sur le site de Lytro : la résolution sera décevante (impression A4 pas envisageable à mon avis) et les artefacts dans le flou sans doute trop visibles pour le photographe un peu pointilleux. Ah, et un effet notable surtout vis à vis des sujets proches de l'objectif d'après ce que l'on voit dans les exemples du proto sur lytro.com.
cdlt,
GBo
Marsh Posté le 18-08-2011 à 18:19:20
... et lors de soirée diapo, de légers travellings automatiques sur les photos
Marsh Posté le 31-05-2011 à 18:07:08
Bonjour,
Ce fil est dédié aux discussions techniques sur les technologies existantes ou annoncées en photographie (appareils, optique, ...). Ceci pour éviter de polluer les fils dont ce n'est pas la vocation, et pour permettre d'approfondir chaque sujet abordé, avec des liens, des schémas, des tests etc...
A noter qu'il n'est pas redondant avec "On a pas de pétrole mais on a des idées : le topic des experts", car il ne s'agit pas ici d'exposer de nouvelles idées personnelles, mais de discuter des techniques et technologies utilisées dans les appareils photos existants ou qui vont sortir. Il ne sera pas non plus redondant avec "Technique : pose tes questions débutant !" puisqu'on va dire qu'on réserve ce fil aux questions de non-débutants.
Bienvenus aux questionneurs et à ceux qui se sentent de répondre, ainsi qu'à tout exposé technique spontané sur un thème de votre choix.
A nous de jouer !
cdlt,
GBo
Message édité par GBo le 17-08-2011 à 10:06:44