Sélectionner une page
Les concepts de réalité augmentée

Les concepts de réalité augmentée

Les concepts de réalité augmentée

Le terme de Réalité Augmentée — ou son diminutif RA ou AR à l’anglaise — est fréquemment utilisé pour désigner une application permettant de visualiser un objet virtuel, ce dernier étant positionné sur la surface que l’on est entrain de regarder, au travers de son smartphone.

QR Code réalité augmentée
Mais limiter la réalité augmentée à ce type d’application est réducteur au regard des nombreuses possibilités qu’elle offre. Il est pertinent de bien en comprendre le concept pour en saisir ses nombreuses possibilités en tant qu’outil de travail, de communication ou de marketing.

Je préfère en effet le terme « concept » à « technologie », car la réalité augmentée n’est pas UNE technologie, mais plutôt la convergence de multiples technologies logicielles et matérielles associées pour enrichir notre vision du réel.

Risquons-­nous à une définition :

« La réalité augmentée désigne des méthodes numériques permettant d’ajouter à notre perception du réel, une surcouche d’information contextuelle, en temps réel. »

Avec cette définition, on constate combien les limites sont floues.
Est-­ce qu’un affichage de la vitesse d’une voiture sur le pare-brise est de la réalité augmentée ?
J’aurai tendance à dire non, car si en s’affichant sur le pare-brise, elle se superpose bien au réel, elle n’est pas issue de ce que voit le conducteur. Mais on pourrait dire que oui. C’est de la RA au stade embryonnaire, dans la mesure où on diffuse bien une information issue du réel : la vitesse de la voiture.
Cela dépend de l’interprétation.

En revanche, dès que le système va mesurer et afficher la distance du véhicule devant vous, il n’y a plus de doutes, nous sommes en présence de réalité augmentée. #RA-automobile

Hud automobile
Attention, la réalité augmentée est souvent assimilée ou confondue avec la réalité virtuelle (RV).
Il faut bien noter la différence : avec la réalité augmentée, les utilisateurs restent en contact avec le monde réel, alors que la réalité virtuelle a pour objectif de les transporter ailleurs, dans un autre lieu.
Cet amalgame vient certainement du fait que l’on peut diffuser des objets virtuels via la réalité augmentée.

Sa force : enrichir par de l’information !

Nous, êtres humains, sommes dotés de 5 sens pour percevoir notre environnement. Si nous voulons « l’augmenter », il faut parvenir à enrichir cette perception par de l’information complémentaire. Voire la rendre interactive.

5 sens

Pour  l’odorat,  le  goût  et  le  toucher,  il  est  difficile  de  les  agrémenter,  faute  de technologies  et  d’idées.  Certains  projets  entrouvrent  quelques  portes  pour  des applications aux possibilités enivrantes : un groupe de recherche de l’UEC Tokyo (The University  of  Electro­communications)  a  élaboré  une  surface  interactive,  baptisé « ClaytricSurface »,  dont  la  souplesse  peut  être  ajustée  à  la  demande.  Mais  pour  le grand public, il faudra encore patienter un petit peu.

Pour l’ouïe, on note l’utilisation d’audioguides. Un outil très efficace pour compléter la visite d’un musée. Ils permettent d’enrichir l’information textuelle par une description orale, à la demande, qui peut être dans la langue du visiteur.
C’est là une des premières formes de réalité augmentée : simple et efficace.

Mais les évolutions de la réalité augmentée sont poussées par toutes les nouvelles technologies. Au travers de la vision numérique de l’utilisateur, il devient possible de lui diffuser de l’information.

Ces informations visuelles peuvent avoir différentes formes :

  • textuelles pour de la description ou de la légende
  • en image 2D comme de la photographie, du schéma, de l’image de synthèse
  • un objet ou une scène virtuelle 3D, qui vient s’intégrer dans l’espace réel.
Légendes en réalité augmentée
Toutes ces informations peuvent être contenues dans l’application, mais également distantes si le périphérique est connecté. Elles peuvent être statiques, nous donnant des informations immuables comme la position d’une montagne, ou dynamiques, issues de l’information de capteurs divers, distants ou embarqués.

Mais le plus important et le plus intéressant : ces informations « s’accrochent » à la réalité, en se fixant et en suivant les mouvements des objets que l’on observe au travers de notre regard numérique.

Une technologie futuriste ?

Catégoriquement non.
Les technologies utilisées pour mettre en œuvre une application en RA ne datent pas d’hier. Elles sont élaborées et affinées depuis deux bonnes décennies.

HUD Rafale
Les exemples d’exploitations sont nombreux et s’appliquent à divers domaines. On peut citer par exemple, les HUD (Head Up Display), destinés à l’aviation militaire, avec toutes une gamme d’informations affichées comme les trajectoires, distances, etc.
Pour le grand public, utiliser sa webcam sur son PC afin d’afficher un objet sur son bureau est réalisable depuis longtemps. Mais l’intérêt du fouillis de son bureau — surtout du mien — et la commodité relative de mise en place brident les scénarios imaginables.

Le seul facteur qui la rend clairement accessible et exploitable maintenant, c’est la démocratisation des smartphones et des tablettes, petits bijoux de technologie à la puissance somme toute considérable.
Ils sont connectés. Ils intègrent de nombreux capteurs nous renseignant sur l’environnement réel de l’utilisateur : caméra haute définition, GPS, gyromètre, magnétomètre, gravitomètre, etc. ; et enfin, ils sont en mesure de diffuser l’information.

De ce seul appareil, nous pouvons obtenir le nécessaire pour bâtir les 3 piliers de la RA.

Appareils numériques

Les 3 piliers de la RA.

Je ne reviendrai pas sur le premier : l’information. Votre information : technique, didactique, divertissante, publicitaire, votre produit, votre scène, l’ensemble de vos médias à diffuser.

Le deuxième est le moyen de diffusion. Aujourd’hui, c’est majoritairement — pour les raisons que je viens d’évoquer — l’écran du smartphone.
Mais cela peut être également par projection, ou alors par diffusion sur une plaque de verre.

Enfin, le dernier pilier, le sujet de nos préoccupations, l’utilisateur. On veut connaître son contexte, sa situation, éventuellement son profil dans le cas d’une application commerciale. C’est le contexte qui va permettre de proposer et d’afficher l’information de manière optimale, filtrée. Filtrée en fonction de ce que regarde l’utilisateur si on considère le point de vue.

Pour tout nouveau projet de création d’une application RA, une analyse basée sur ces 3 piliers permet d’en définir les contours précis et de mettre en place un cahier des charges.

les 3 piliers de la RA

Les utilisations courantes de la réalité augmentée.

Le fait que presque tout le monde possède un smartphone dans sa poche et l’émergence d’outils de développement accessibles, orientés réalité augmentée, ont privilégié l’approche visuelle de la réalité augmentée.

L’utilisation la plus courante de la réalité augmentée, et celle qui l’a fait connaître au plus grand nombre, est sans aucun doute la réalité augmentée centrée. Elle consiste à ajouter à un marqueur réel, filmé par votre webcam, votre smartphone ou votre tablette, une scène en 3D temps réel. En général, cette scène est un simple objet 3D autour duquel on peut tourner. Mais on peut imaginer toute sorte de scène 3D plus ou moins complexe, statique ou animée, indépendante ou interactive. En fait, tout ce que vous avez déjà vu en 3D peut s’appliquer à ce scénario, à quelques contraintes d’échelles près.
Réalité augmentée utilisation centrique
Mais si cette utilisation convient parfaitement à de la présentation de produit ou autre maquette, son centre d’intérêt imposé par le marqueur ne permet pas d’augmenter notre environnement. C’est ici qu’intervient la réalité augmentée panoramique.
Pour les applications de réalité augmentée panoramique, nous avons besoin de connaître où le spectateur se situe, et dans quelle direction pointe son observation. À l’aide du GPS — ou autres systèmes nous permettant de trianguler sa position —, on le géolocalise, et avec les capteurs d’orientations, nous avons suffisamment d’informations pour enrichir le panorama qui est devant lui : RA panoramique.
Réalité augmentée utilisation panorama
L’impact fort de ces utilisations n’a pas échappé aux scénographes qui ont vite compris l’intérêt pédagogique et ludique de la réalité augmentée. Celle-ci a donc été intégrée à des installations interactives plus ou moins complexes. Une utilisation fréquente en scénographie, qui dérive directement de la réalité augmentée centrée, consiste à augmenter le flux vidéo d’une caméra fixe afin de transformer les passants en acteurs ou figurants d’une scène 3D plus ou moins interactive.
Réalité augmentée utilisation scénographie

La plus-value de la réalité augmentée.

À l’heure actuelle, la majorité des applications en réalité augmentée ont une approche ludique. Parce qu’elles attisent la curiosité et qu’elles sont simples à pratiquer, elles sont beaucoup utilisées lors d’opération événementielle — salon ou street­marketing — et elles profitent d’une seconde vie au­delà de l’événement.

Ceci est profitable d’un point de vue marketing et optimise l’investissement, car le shopper reste plus longtemps en contact avec le produit ou la marque, et partage facilement l’expérience avec son entourage.
Dans ce contexte, il est préférable d’assumer son côté divertissant sans prétendre à une application « pratique ». C’est par ce biais qu’Ikea, en mon sens, a bien abordé en vidéo sa communication autour de son application :

Par l’exploitation de la réalité augmentée, une entreprise se positionne, au moins dans sa communication, dans l’innovation numérique, auprès d’un large public : la fameuse génération Y qui a largement dépassé la vingtaine — … soupir…

Si la réalité augmentée permet encore aujourd’hui de se différencier, cela ne durera pas, du moins pas dans cette approche ludique.
De même que le web, les choses évoluent rapidement avec la RA. La société d’étude et de consulting Jupiner Research évalue son marché actuel à $247 millions en 2014, pour un marché en 2019 estimé à environ $2,4 milliards.

#EvolutionmarchéRA

Le proche avenir est sûrement dans les applications qui s’appliquent à reprendre les fondamentaux de la réalité augmentée, c’est ­à­dire quand l’information, l’objet, le produit viennent s’inscrire de manière intéressante dans la réalité de l’utilisateur — et non plus quand l’objet apparaît simplement sur un marqueur, en plein écran, sans considération autre du contexte.
On l’aide ainsi à se projeter avec le produit et on l’incite par cette démarche à s’impliquer dans cette intégration — et j’ose souffler : acquisition.
Alors, l’interaction avec l’objet devient plus naturelle, car on tourne réellement autour. Plus besoin de souris, de clavier et de poste fixe. Il ne reste plus que l’écran du smartphone ou de la tablette.
Réalité augmentée acquisition naturelle
Et cette dernière barrière de l’écran tend à disparaître. Les constructeurs ont bien compris que maintenir son smartphone reste l’ultime contrainte et qu’il faut se libérer les mains. On voit naître des projets de casques de réalité augmentée, grâce à des Google Glass ou autres HoloLens (Microsoft), qui permettent de projeter l’information directement sur le verre de lunettes. Et là, on ne parle plus de projets de recherche, mais de kits disponibles pour les développeurs, pour anticiper la commercialisation auprès du grand public.
Je réitère mon avertissement, ces casques ne sont pas à confondre avec des casques de réalité virtuelle comme le Samsung Gear ou l’Oculus, qui, même s’ils sont technologiquement proches, nous coupent de la réalité et nous projettent dans un monde virtuel.

Reste enfin la plus­value « service » dans des applications utiles, qui ne se limitent pas à de la présentation, mais qui sont une aide pour l’utilisateur. De l’application « légère » pour la découpe d’un gâteau en X parts, au choix de la bonne taille du carton d’emballage en fonction du volume de son envoi, en passant sur des informations temps réel de son environnement proche. À l’instar des applications smartphones, les applications offrant un réel service ont les plus grands succès.

Cette réflexion plus « pratique » de la RA, associée aux possibilités « mains libres » des casques de RA, ouvre un vaste champ d’applications dans de nombreux domaines : l’éducation, la formation ou tout simplement le travail de tous les jours :

Imaginer un tutoriel pour changer une roue de voiture, où la procédure s’affiche directement sur et autour de la roue. OK, trop simple, alors pour le corps humain ?
#ChirurgieVirtuelle
La réalité augmentée en est à ses balbutiements et tout reste à inventer, comme l’était internet dans les années 90.

Imagination — prêt — partez !

#ChirurgieVirtuelle

Réalité augmentée à taille humaine

Réalité augmentée à taille humaine

Réalité augmentée à taille humaine

La réalité augmentée à taille humaine

La réalité augmentée est à l’honneur. De plus en plus d’applications sur smartphones ou tablettes permettent aujourd’hui d’immerger un objet virtuel dans la réalité de l’utilisateur, au travers d’une fenêtre, qui est l’écran. Dans ce cas, l’expérience devient “solitaire”…

Difficile de placer plusieurs personnes devant un smartphone ou une tablette.

Mais pour un événement indoor ou pour la scénographie d’une exposition, on peut passer à la dimension supérieure, et proposer une animation ludique et fascinante de réalité augmentée … à taille humaine.

Ce que j’entends par « taille humaine » ?
C’est lorsque le spectateur est filmé de plein pied, et qu’on intègre par vidéo-projection d’autres acteurs et éléments … virtuels. Comme exemple, voici les réalisations d’une agence londonienne – AppShake INDI – pour  National Geographics :

ou encore :

Vidéos à retrouver respectivement sur la chaîne INDE et WWF International.

L’expérience utilisateur

Alors que le spectateur se balade dans une galerie commerciale ou une exposition, il se découvre sur un écran géant. On l’invite à se positionner par un marquage au sol à un endroit précis. Ce marquage peut être un simple encart textuel ou un élément de décor réel de notre univers virtuel. Oui je sais, ce n’est pas simple, on ne sait plus trop ce qui est réel ou virtuel. Mais c’est de ça que naît la magie de la réalité augmentée. On détecte alors sa présence dans cette zone, et on déclenche une séquence animée virtuelle par dessus.

Le virtuel est diffusé sur l’écran, par-dessus la retransmission caméra et donc par-dessus les spectateurs. Ainsi, on ajoute des personnages imaginaires par-dessus les spectateurs, ou de terribles dinosaures qui frôlent le public, bref tout ce que l’on veut en fait. Le public joue de cette présence, cherche à interagir indirectement, et en un mot : s’amuse.

Le principe général de la réalité augmentée à taille humaine

On doit réaliser dans un premier temps une série de séquences en image de synthèse pré-calculées, de 30 à 45 secondes qui seront jouées de manière aléatoire ou scénarisée avec une progression narrative.

Le point de vue de ces séquences respecte le point de vue de la caméra qui filme les spectateurs. Dans la majorité du temps, la caméra est positionnée au-dessus de l’écran, au centre, pour une vue plongeante.

Ce point de vue permet au public de s’observer de face, comme dans un miroir géant. En levant la tête vers l’écran, il lève la tête vers la caméra. Ce positionnement est important, car les spectateurs ont toujours une tendance naturelle à chercher la caméra, il est donc intéressant que le parcours du regard écran-caméra soit le plus court possible.

Positionnement caméra
Cet effet miroir (le spectateur se voit bouger en direct) vient renforcer la sensation d’immersion en live. En positionnant la caméra virtuelle dans la même configuration que la caméra réelle, on obtient les images permettant de réaliser une composition en live. On intègre ainsi des acteurs virtuels dans la réalité du public, dans la même perspective. On comprend alors que l’incrustation est réalisée par-dessus la capture de la réalité, donc que nous ne pouvons pas faire passer les acteurs virtuels derrière les spectateurs. Il est judicieux de prévoir un cadrage et un positionnement du marqueur offrant un espace libre (surtout au premier plan) suffisamment important pour laisser évoluer notre mise en scène.
installation vue de dessus
Cette même mise en scène doit être imaginée en adéquation avec le contexte. Les personnages ou animaux doivent venir par les côtés, ou à la rigueur par le devant de la scène, en face des spectateurs. Ils ne peuvent pas, par contre, arriver par derrière, au risque de passer au travers des spectateurs sur leurs trajectoires, ce qui visuellement risque de casser le côté immersif — sauf si l’on souhaite jouer avec cet effet et mettre en scène un univers fantomatique.
En revanche, nous avons de la liberté dans cet espace (au premier plan) pour habiller la mise en scène. Nous pouvons matérialiser le sol avec une surface de terre ou enneigée ou une surface d’eau. L’univers virtuel en devient plus riche et on peut en profiter pour que le jeu des acteurs virtuels soit plus complet en interagissant avec le décor.

L’installation matérielle

Pour mettre en œuvre cette animation, nous distinguons plusieurs composants distincts, qui sont la captation vidéo, son traitement et sa diffusion.

La captation :

Pour la captation vidéo, la caméra doit répondre à certaines contraintes liées à ce genre d’événement. Les caméras professionnelles, traditionnellement utilisées pour le tournage, ne supportent pas une longue durée d’utilisation de 8 à 12 h par jour. Elles surchauffent et les capteurs CCD peuvent (vont) en pâtir. On peut s’orienter vers un type de caméra particulier, initialement développé par les constructeurs pour des tournages de longue durée, comme les émissions de télé-réalité. Leurs composants sont prévus pour tourner 24/24H et diffuser un flux broadcast HD. Elle dispose d’une tête rotative pilotable à distance, ce qui permet d’affiner le positionnement du point de vue après l’installation et la fixation de la caméra. Bien entendu, une fois le point de vue ajusté, il ne devra plus bouger pendant toute la durée de l’événement. La qualité de la juxtaposition entre le point de vue réel et le point de vue virtuel est important pour une intégration cohérente et esthétique.

Le traitement :

La station graphique

Pour l’intégration, la composition et la diffusion d’un flux broadcast HD, il est nécessaire de prévoir une station graphique (PC) assez robuste pour réaliser l’ensemble de ces traitements relativement lourds lorsqu’on travaille sur du Live. En fonction du contexte du déploiement — lieu, structure du stand, durée d’utilisation, etc. — une bonne aération est à prévoir pour le refroidissement de la station, car elle va bien travailler. De même, l’informatique est sensible à l’empoussiérèrent qui étouffe les composants et amplifie la surchauffe électronique. Mais cela est vrai pour tout matériel dans un contexte hors bureau et domicile.

La station est composée :

  • D’une carte pour la capture du flux vidéo broadcast provenant de la caméra. Il faut sélectionner du matériel « ouvert », offrant un SDK (un kit de développement) pour pouvoir interagir directement sur le flux vidéo sans passer par un logiciel propriétaire.

 

  • Pour garantir une diffusion et une composition de qualité, il est préférable de générer des séquences non compressées et avec une information de transparence. Elles sont donc relativement lourdes en comparaison à un fichier vidéo numérique traditionnel. Pour remédier à cela, il faut prendre des disques durs avec suffisamment de capacité pour contenir l’ensemble de ces séquences imaginées, et rapides en lecture afin de pouvoir les lire en temps réel.

 

  • Un dernier composant essentiel est la carte graphique. Elle est responsable de la diffusion du flux final vers l’écran, mais elle est exploitée aussi pour la détection des spectateurs et la composition live des différents flux vidéos. En effet, au-delà du processeur traditionnel, on utilise les processeurs de la carte graphique, qui sont par définition, bien adaptés au traitement des images.

L’application de compositing live

L’application de compositing live est la pierre angulaire de l’animation de réalité augmentée à taille humaine.

Elle a de nombreuses responsabilités :

  • capturer le flux vidéo broadcast provenant de la caméra qui filme le public ;
  • détecter la présence ou non d’un ou plusieurs spectateurs dans la zone de marquage ;
  • précharger la séquence d’animation désirée — le choix de la séquence est effectué en fonction d’un scénario préétabli ;
  • composer le flux vidéo en incrustant la bonne séquence virtuelle sur la captation vidéo ;
  • diffuser le résultat à l’écran.

Comme vous l’aurez remarqué, j’utilise le terme de live et non temps réel, car il subsiste quelques millisecondes de décalage entre la captation et la diffusion. Elle est due aux différents traitements de détection et de composition réalisé par la station graphique. Néanmoins, ce retard est faible et ne sera perceptible que par les personnes les plus averties et attentives à ce phénomène.

superposition du flux

La diffusion

La diffusion doit être large pour être vue avec du recul par un maximum de personnes. On peut exploiter un écran géant LED exploitable pour de la diffusion plein-jour, ou alors un mur d’écrans composés de 6 ou 9 écrans bien jointés. Le système de diffusion doit être en mesure de diffuser un flux vidéo broadcast HD.

Le point le plus délicat de l’installation pour effet bluffant, est d’avoir le même positionnement de la caméra réelle et virtuelle. On doit pouvoir connaître en amont de l’installation la position exacte de la caméra. Des tests sur la structure préalablement montée sont donc nécessaires pour affiner le calibrage, avant de générer la version finale des séquences. Il faut un minimum d’anticipation avant l’installation définitive, surtout si votre animation marque un événement à une date précise.

La mise en oeuvre artistique

Sur cette base de configuration matérielle et logicielle, on peut laisser libre cours à son imagination pour plonger les spectateurs dans un nouveau monde. Voici quelques pistes, mais je suis sûr que vous avez déjà quelques idées.

Choisir son univers

Il est possible de mettre en scène de nombreux univers dans cette animation. Ils peuvent être basés sur des personnages et des décors imaginaires ou réalistes.

On peut créer des personnages ludiques évoluant au milieu du public. Ils jouent entre eux, viennent saluer les spectateurs, font des cabrioles. Cette approche permet de s’adapter au contexte d’une animation, pour un événement donné.

Ainsi, on peut imaginer développer un thème “Halloween”, un thème de fêtes de fin d’année, ou autour d’un autre événement marketing – non, je ne sous-entend pas que Halloween est un événement marketing,….

On peut aussi jouer la carte de l’extraordinaire : Une rencontre avec des dinosaures ! D’abord, les dinosaures, c’est cool ! Ils fascinent autant les plus jeunes que les grands. Et en plus, leur succès permet de profiter de modèles 3D de qualité issus de bibliothèques existantes, ce qui fait du bien au budget.

Pensez à scénariser

Scénario est peut-être un grand mot, nous parlerons plus de progression dans l’animation. Il est intéressant de réaliser une série de séquences, qui se déclencheront dans un ordre précis, proposant une progression et un intérêt grandissant dans l’interaction et l’immersion du spectateur. Ceci permet de conserver la curiosité de la personne qui a pris le temps de s’arrêter et par effet boule de neige, d’ attiser la curiosité des autres passants.

Mettre en scène des séquences en réalité augmentée

La mise en scène concerne essentiellement l’animation des personnages ou des grosses bébêtes. On a moins de marge pour faire évoluer le décor qui doit garder une certaine rigidité, mais on peut tout de même jouer avec des éléments climatiques (la neige, l’orage, le vent,…) ou modifier la surface du sol (effondrement, vagues, lave,…).

Les personnages s’adaptent bien à de la captures de mouvement, pour leur donner vie rapidement.

Le jeu de l’acteur doit tenir compte de la mise en scène réelle et virtuelle. Mais le plus intéressant reste encore de jouer avec le positionnement potentiel des spectateurs, pour les interpeller et interagir avec eux. Des séquences de 30 à 45 secondes permettent un bon roulement des spectateurs sur le marquage.

Et l’arrivée de nouvelles personnes déclenche la séquence suivante, et la suite de l’histoire.

La génération des séquences

Une fois que tout est en place, on finit par générer/calculer les séquences pour alimenter l’application interactive. Cette génération se fait en fonction du point de vue de la caméra. Et si pour une raison ou une autre, la configuration physique de l’animation vient à évoluer, lors d’un déménagement de l’animation par exemple, il est toujours possible de régénérer rapidement les séquences pour s’adapter au nouveau contexte.

Et la réalité prend une nouvelle dimension.

Voilà, tout est prêt pour plonger le spectateur dans un univers virtuel où beaucoup de choses peuvent se passer. Les limites ne sont que celles de l’imagination. De l’interaction à la contemplation, de la surprise à l’étonnement, la réalité augmentée à taille humaine permet de voir les choses en grand, d’ajouter une dimension supplémentaire a votre événement.

La Stéréoscopie, principe et technologie

La Stéréoscopie, principe et technologie

La Stéréoscopie

Depuis plusieurs années maintenant, pour les productions dites « en relief », on exploite la technique de la stéréoscopie pour donner un espace, une dimension à la profondeur. La Stéréoscopie est l’un des tout premiers hackings du cerveau. Mais est-ce seulement 2 images côte à côte ?

Le relief, kézako ?

Notre cerveau reçoit une image au travers de nos deux yeux. Il reconstitue alors les deux informations qu’il reçoit pour en faire une seule image. Mais nos yeux sont décalés, l’image reçue par chacun de ces récepteurs est donc légèrement différente. Le cerveau traite alors ces deux informations différentes et nous leurre. Il est capable d’analyser cette légère différence (qu’on appelle parallaxe) et d’en déduire une profondeur dans “l’image” du monde qu’il perçoit. Résultat : nous voyons le monde en relief. Tout l’enjeu de la stéréoscopie est de reproduire ce processus sur l’image d’un écran. On envoie  deux images afin de “simuler les capteurs” humains.

Depuis longtemps, les hommes ont mis en oeuvre des techniques pour rendre compte du relief. La stéréoscopie remonte à longtemps. Le premier stéréoscope date de 1838. Il permettait à l’aide d’un jeux de miroir de visualiser des dessins en relief. Depuis les techniques et les technologies ont évolué pour donner accès à la vision relief au plus grand nombre.

Stereo photographs of Wilkie Collins (1824-1889) in 1874, aged 50, by Napoleon Sarony (1821-1896).
Stereo photographs of Wilkie Collins (1824-1889) in 1874, aged 50, by Napoleon Sarony (1821-1896).

La stéréoscopie, une question de distance.

Mais depuis toujours, on joue d’astuces pour donner la notion de profondeur : premier plan, plan d’action, arrière-plan, horizon, voire même le surgissant. Cela suffit à notre cerveau pour reconstruire une profondeur de ces quelques plans. Du moins, votre imagination le fera, alors que le film reste diffusé sur un écran totalement plat.
Illusion relief en jouant sur le cadre et la profondeur
Mais aujourd’hui, l’évolution matérielle des technologies de diffusion permet désormais de proposer au grand public des productions « en relief », grâce à la technique de la stéréoscopie. En proposant une image différente à chaque œil, on incite le cerveau à reconstruire la profondeur d’une scène ou d’un objet  (comment proposer une image différente pour chaque œil) Ces images sont générées avec un point de vue différent :
  • les points de vue sont décalés afin de reproduire l’écart des yeux. (Comment gérer l’écart des yeux)
  • les points de vue convergent, pour reproduire la focalisation du regard  (comment gérer la focalisation/convergence)

La convergence du regard

Lorsque nous regardons un objet, nos yeux le placent chacun au centre de l’image. En fait, chacun de nos yeux regarde cet objet. On dit qu’ils convergent vers l’objet. Lorsque l’objet est très éloigné, comme une étoile, nos yeux regardent dans la même direction. L’angle de convergence est nul. Si cet objet est très proche, comme notre nez, ceux-ci se mettent à loucher. L’angle de convergence devient important. Lorsqu’une image seule est projetée sur un écran, nos yeux convergent sur le plan de l’écran. La seule distance perçue est celle de l’écran. Pour venir perturber cette impression de profondeur, il va falloir faire converger les yeux du spectateur vers un autre point.
Projetons deux images d’une balle de ping-pong, une pour chaque oeil. Si les deux balles sont superposées, les deux images sont identiques et la balle apparaît à la distance de l’écran.
la balle a la distance de l'écran
la balle apparait devant l'ecran
Pour que la balle apparaisse plus près, nous avons vu qu’il fallait que nos yeux louchent. On va donc croiser les images des balles : l’image de la balle de droite est décalée sur la gauche, celle de la balle de gauche est décalée sur la droite. La balle donnera l’impression de flotter devant l’écran.
Essayons maintenant d’enfoncer la balle dans l’écran et de la faire apparaître derrière. Cette fois ci, nous allons écarter les images de la balle. Nos yeux se redressent. La balle apparaît derrière l’écran, qui devient une fenêtre. Lorsque l’écart entre les deux images sur l’écran atteint l’écart entre nos yeux, nos yeux sont parallèles. La balle apparaît à l’infini, ou du moins très loin. La logique voudrait qu’en continuant d’écarter les images, la balle dépasse l’infini. Malheureusement, regarder au delà de l’infini est une capacité qui échappe à la plupart des mortels.
la balle apparait derriere l'ecran

Les conditions de projection

Nous avons vu que les techniques de relief viennent modifier la distance perçue de l’image d’un objet. Ces modifications se font par rapport à l’écran, qui est la distance réelle de l’image. L’écart maximum entre deux images (sans les croiser) est celui des yeux du spectateur.

En fait, tous les paramètres du relief, ou plutôt de la sensation de relief, sont des paramètres physiques qui dépendent directement des conditions d’observation.

On ne fera pas une image en relief de la même façon pour un écran de cinéma et pour un écran de smartphone. La sensation de relief ne sera pas la même proche d’un écran et loin d’un écran. Pour cela, nous devons prendre en compte l’écart des yeux (en général 6,5 cm pour le confort des plus jeunes), ainsi que la taille et la distance de l’écran pour régler la convergence. Selon le contexte de diffusion, la distance à l’écran est fortement variable :

 

  • dans une salle de cinéma, nous sommes à environs à 25 m de l’écran
  • dans un planétarium de 20 m de diamètre, à 10 m
  • Dans une petite salle de projection, pour une exposition dans un salon ou en muséologie, de 3 à 4 m.
  • Et pour les écrans dans un système immersif type Oculus Rift, à quelques centimètres seulement.
salle de projection hémisphérique
La prise en compte de la distance du spectateur à l’écran est primordiale pour régler un relief qui sera confortable pour le spectateur.  Car ce paramètre influe beaucoup sur la « force » du relief. Un relief trop important fatiguera rapidement le spectateur, un relief divergent rendra illisible l’image.

Une marge de confort doit être donc prise en compte. Cela est d’autant plus crucial quand le public est composé d’enfants, qui ont un écart d’yeux plus petit.

zone de confort et d'inconfort

Comment proposer deux images différentes à chaque œil ?

Hors réalisation, car cela n’a d’importance que lors de la conformation finale du projet, il reste à choisir la méthode de diffusion en relief, sujet principalement matériel. Les options matérielles proposent des méthodes différentes pour séparer à partir d’un même écran  les images respectives de l’œil gauche (G) et de l’œil droit (D).

Oculus rift

Les technologies dites actives

Les technologies actives proposent une obturation synchronisée sur la diffusion d’images successives GDGDGD.On obstrue ainsi l’œil gauche quand on affiche l’image droite et vice-versa. La persistance rétinienne fait le reste et le cerveau ne perçoit pas l’obturation. Tout de même, si l’on reste attentif, on constate une légère perte de luminosité due à l’obturation.

Masque VR style Oculus

Pour un système de masque de réalité virtuelle, ce sont les optiques de chaque œil qui délimitent leurs visions. La vidéo présente les deux images côte à côte.
lunette polarisation active
lunette polarisée passive

Les technologies dites passives

On peut utiliser également des lunettes polarisées. Cette technique se base sur le fait que la lumière peut être assimilée à une onde qui vibre sur un axe. Lors de la projection, l’image (donc la lumière) d’un œil est projetée selon l’axe vertical, l’autre sur l’axe horizontal (dans le cas de la polarisation linéaire).

Les lunettes filtrent la lumière en réagissant comme des stores vénitiens respectivement horizontaux et verticaux. Un des verres laissera passer la lumière d’un axe (donc une image)  en bloquant la lumière de l’autre axe (l’autre image). Un autre moyen est d’utiliser des lunettes de couleurs (traditionnellement rouge et vert) pour filtrer les images, en projetant des images superposées sur les mêmes canaux. Cette méthode, anaglyphe, à l’avantage d’être très peu coûteuse pour les lunettes.

Et la stéréoscopie sans lunette ?

Dérivés de la technique de la stéréoscopie, une société française, Halioscopie, propose des écrans permettant une diffusion en relief sans que le spectateur ait besoin de lunettes. Dans les grandes lignes, les écrans sont composés de prismes à huit facettes qui filtrent la lumière de l’écran et proposent huit images différentes en fonction de l’angle de vue.

En pratique, deux spectateurs à deux endroits différents voient deux images différentes. Idéalement, les yeux ont un écart suffisant pour recevoir chacun une image, et donc permettre une impression de relief, sans lunettes. C’est un dérivé de ce procédé qui équipe les écran de la console portable 3DS.

ecran autostéreoscopique