La photo, comment ça marche ?

On en fait des dizaines par jour : pour immortaliser les bons moments, pour se souvenir de détails que l’on risque d’oublier, pour comparer ses tenues, ou choisir la couleur de son nouveau canapé. Prendre une photo est un geste banal s’il en est. 

C’est vrai, on ne réfléchit pas beaucoup avant de brandir l’objectif de son smartphone. En deux siècles d’existence, la photographie s’est imposée comme un moyen fiable et simple de rendre compte de la réalité. Son avantage principal : montrer les choses telles qu’elles sont. Seulement voilà, avec les grands progrès des algorithmes de retouche photographique… difficile de croire que les choses soient aussi simples que cela. 

Cela fait bien deux décennies que l’on s’inquiète des photos retouchées, mais depuis quelques années les choses semblent s’accélérer. Des applis très performantes peuvent transformer vos selfies en quelques secondes. Mais ce n’est pas tout : des photos réalistes sont carrément générées artificiellement. En termes de photo, il y aurait un avant et un après. Avant, il y avait des photos fiables, créées par des photographes soucieux d’y insuffler un peu de leur humanité. Après, des photos mensongères, trafiquées par les machines… 

La conclusion est tentante mais… Si l'on sait comment fonctionne un appareil photo, on se rend vite compte que les choses sont loin d'être aussi simples. Et si les appareils photos, même les plus basiques, étaient toujours un peu mensongers ? 

Le fabuleux voyage des particules de lumières

Attardons-nous un instant sur ce processus familier qui vous a permis de garder des souvenirs de tous vos anniversaires, ou d’immortaliser les frasques de votre chat. Lorsqu’on y pense, il est impressionnant : comment peut-on retranscrire à l’identique une scène donnée ? En fait, on ne le peut pas, pas tout à fait. Ce que fait le capteur de votre appareil photo digital, c’est transformer la lumière en signal électronique. 

On s’explique : un objectif d’appareil photo est un  assemblage de lentilles convergentes et divergentes qui ont chacune un rôle particulier. Dans un appareil photo Reflex (ou DSLR), la lumière pénètre l’objectif, traverse l’assemblage de lentilles et se reflète sur un miroir durant l’étape de la visée. Lorsque l’on appuie sur le déclencheur, le miroir se relève très vite et la lumière va directement vers le capteur, sans passer par le miroir (c’est pour cette raison que l’on ne voit rien dans le viseur à ce moment-là). Cette mécanique permet à l’image de se former sur la surface photosensible du capteur. Le capteur est dit photosensible car il transforme les particules de lumière (appelés photons) en particules électriques (les électrons). Il le peut grâce à une composante électronique qui s’appelle photosite : chaque photosite indique la quantité de lumière qui le frappe. Concrètement, chaque photosite correspond à un pixel de la photo. Quand on assemble les informations recueillies par tous les photosites, il devient possible de reconstituer l’image. Ce qui était d’abord une information optique devient une information numérique. C’est simple, non ?

Une vision incomplète de la réalité 

Voilà pour le principe général. En pratique, c’est plus compliqué. Le but de l’appareil photo n’est pas de capter absolument tous les photons qui pénètrent l’objectif. Le but, c’est de recréer une image qui ressemble à celles que nos yeux perçoivent. Il convient donc d’exclure les rayons imperceptibles aux humains : ultraviolets ou infrarouges. 

Mais ce n’est pas tout… Ces fameux photosites, ceux qui recueillent la lumière, ne sont pas sensibles à la longueur d’onde des photons qu’ils reçoivent. C’est-à-dire qu’ils sont insensibles à la couleur : ils voient le monde en noir et blanc. 

Comment la photo couleur est-elle possible ? On dispose devant chaque photosite un filtre qui laisse passer les photons d’une couleur particulière : rouge, vert ou bleu. Comme on connaît l’emplacement de chaque filtre, on sait à quelle couleur chaque photosite correspond. L’ensemble de ces petits filtres est appelé une Matrice de Bayer, sauf pour les appareils Fuji qui ont une autre matrice et pour les Sigma qui ont les trois couleurs directement sur un photosite. Vous ne le savez peut-être pas, mais l'œil humain est plus sensible au vert qu’aux autres couleurs. Il y a donc, dans une matrice de Bayer, deux fois plus de filtres verts que de filtres rouges ou bleus. Encore un exemple de “manipulation d’image” qui vise à faire ressembler les images produites par l’appareil photo aux images que nous percevons avec nos yeux. Les photos que produit notre appareil sont déjà “filtrées”...

Le réel réinventé 

À ce stade, nos photons ont déjà beaucoup voyagé. Mais l’image que l’on obtient est loin de correspondre à celle qui finira sur nos écrans. C’est un patchwork de pixels aux différents degrés de bleu, rouge ou vert. Pour lisser tout ça, l’appareil applique un processus qui s’appelle le dématriçage. Ce processus, qui est la première étape du passage du format RAW à une image de type JPEG, peut être réalisé par différents types d’algorithmes : à chaque fabricant d’appareil photo son préféré. 

Cela veut dire que même aux étapes les plus basiques de la création d’une image, il faut faire certains choix éditoriaux qui optimisent le rendu. Différents algorithmes de dématriçage nous donnent des résultats différents. 

Après le dématriçage, un autre procédé éditorial intervient : la balance des blancs. Un algorithme détecte les régions d’une photo qui semblent blanches et leur applique une certaine luminosité qui sera déduite des autres couleurs. 

Ces deux processus sont les plus basiques. L’appareil, plus ou moins avancé, peut en faire d'autres : corriger l’exposition ou supprimer le bruit. Il corrige aussi quelquefois des déformations spatiales dues à la courbe des lentilles de l’objectif.  

La photo que nous rend l’appareil est donc déjà manipulée. L’édition n’est pas une étape qui commence à la post-production : la post-production corrige, manuellement, les imperfections que les retouches automatiques n’ont pas pu intercepter. 

Les photos neutres n’existent pas 

En septembre 2020, de grands feux de forêt changèrent la couleur du ciel californien. Les panaches de fumée, masquant le soleil, donnèrent au ciel une teinte orangeâtre. De nombreux résidents voulurent, comme on le fait souvent, immortaliser cette vision apocalyptique avec leur caméra de smartphone. Seulement voilà, impossible de retranscrire sur l’écran la couleur de ce ciel : il apparaît gris sur les photos. 

Ce curieux phénomène nous rappelle ce qu’est vraiment la photographie. Les appareils photos ne sont pas de simples fenêtres ouvertes sur le monde. Ce sont des machines qui captent des informations pour reconstruire artificiellement une représentation plausible de la réalité. Dans ce cas précis, les algorithmes des smartphones attribuent au ciel une couleur normale. Lorsque l’on prend une photo, on déclenche une dizaine de processus rapides qui visent à manipuler la lumière. Il serait donc illusoire d’opposer trop nettement les photos éditées et les photos “neutres”...

Les progrès récents de la computer vision et de l’intelligence artificielle s’inscrivent dans cette continuité. Comme les appareils photos, ce sont des outils qui nous permettent de rendre compte de la réalité en la manipulant pour qu’elle corresponde à tel ou tel critère que nous aurions fixé. Notre démarche éditoriale est d’autant plus cruciale que ces outils sont puissants. Rendre un ciel plus bleu, une surface plus lisse ou un blanc plus éclatant, tout cela devient automatisable, comme le sont aujourd’hui les processus de dématriçage ou de balance des blancs. 

Nous pouvons à présent rendre nos choix éditoriaux plus forts et plus immédiats : pour cela, il faut décider de la vision que l’on veut exécuter. Ça, c’est quelque chose que les algorithmes ne pourront pas faire pour nous. 

Restez informé

Recevez les dernières tendances photographiques et inspiration