Pratiquer la technique du time-lapse

Le time-lapse est une technique cinématographique consistant à diffuser une série d’images plus vite que son rythme d’acquisition.

Exemple : je prends des photos toutes les 10 secondes puis je les monte en video pour les faire défiler à un rythme de 25 images/seconde. On visualise donc un phénomène 250 fois plus vite que son rythme réel.

C’est une technique idéale pour visualiser un phénomène trop lent, imperceptible à l’oeil nu. Par exemple, l’évolution de la marée, la construction d’un bâtiment, ou même … la rotation de la Terre ! Ou des étoiles plutôt. Enfin, ça revient au même finalement 😉

C’est justement d’étoiles dont il va s’agir.

En voici un exemple ici : Time-lapse sur le trio Vénus-Jupiter-Lune

Comment fait-on ?

Il faut un minimum de matériel et de connaissances en photo :

  • un appareil photo numérique (réflex de préférence)
  • un intervalomètre (s’il n’est pas intégré dans l’appareil)
  • un trépied ou un dispositif pour que l’appareil ne bouge pas
  • un objectif grand champ de préférence
  • une carte mémoire avec une bonne capacité
On va choisir un réglage manuel : il faut que l’exposition, le temps d’obturation, l’ouverture et la balance des blancs restent constants. (Nous verrons pourquoi.) Typiquement pour la nuit, 1000 ISO, 10 secondes, F5. On prend du jpeg plutôt que du RAW pour gagner de la place et une résolution moyenne, sachant que la video produite n’a pas besoin de dépasser le full HD (1080×1920).
On prend une image toutes les 15 secondes. Ce qui donne 240 images par heure. Donc en une heure d’acquisitions, on produit environ 10 secondes de film. Ouais, j’ai fait maths sup et maths spé :p
Le problème, c’est que ce réglage fixe est optimal pour la nuit noire, mais ne permet pas de prendre d’images au crépuscule, car avec 10 secondes de pose, les images seront surexposées. Et si l’on modifie les réglages durant l’acquisition, on risque de faire bouger l’appareil et de manquer des clichés.
Ok, j’ai mes photos, j’en fait quoi ?
Il faut les assembler. J’ai utilisé time-lapse assembler sur Mac. Il suffit d’indiquer le répertoire où se trouvent les images
Sur Windows, on peut utiliser Movie Maker.

Un second time-lapse a été réalisé en intérieur dans une véranda (on élimine le vent mais on ajoute des reflets) et en choisissant le mode semi-automatique priorité vitesse. L’appareil va donc jouer sur l’ouverture. Cela permet de prendre des clichés dès le coucher du soleil jusqu’à la nuit et de faire autre chose que de poireauter derrière l’appareil. L’inconvénient, c’est les sauts d’exposition qui, même s’ils sont légers, font scintiller la video. Il faut alors traiter les photos par lot avec un programme d’anti-flickering. Ca ne résout pas tout, il faut que je perfectionne les images dès la prise de vue. (Mesure de lumière matricielle VS. spot VS. pondérée ?)

Time-lapse depuis le centre de Visker from Alexandre Cazaux on Vimeo.

 

Un nouveau concept de scanner-laser 3D dans le film Prometheus

Prometheus est un film de science-fiction réalisé par Ridley Scott, sorti en salles le 30 mai 2012. Pourquoi parler d’un film de science-fiction sur ce blog ? Et bien parce que ce film, dont l’intrigue est en 2093, montre un concept intéressant de scanner laser 3D pour réaliser la topographie souterraine des galeries d’une pyramide. Je vous laisse regarder la bande annonce.

Vous l’aurez sans doute remarqué : on voit la carte souterraine en 3D sous forme d’hologramme puis des sphères volantes qui balaient les parois d’un laser rouge, à environ 1’10 ». Ces sphères sont autonomes, elles explorent automatiquement toutes les galeries.

On voit que les sphères transmettent les données au vaisseau en direct et la carte se construit au fur et à mesure. J’ai vu le film au cinéma, en 3D, et le rendu est superbe 😉

Ci-dessous, on voit la carte des galeries. L’exploration ne fait que débuter et la carte se complète et se dévoile tout au long du film.

Carte des galeries sous forme d'hologramme
Carte des galeries sous forme d'hologramme - Positionnement des membres de l'équipe d'exploration.

Les scanners laser 3D ont cet aspect :

Le scanner laser 3D de la compagnie Weyland Electronics
Le scanner laser 3D de la compagnie Weyland Electronics
Le scanner laser en action
Le scanner laser en action

Les puristes se poseront la question de savoir dans quel système le levé est réalisé, comment les scanner-laser 3D sont géoréférencés (surtout en galerie) et pourquoi avoir choisi un laser rouge et non vert …

Tout ceci semble n’être que science fiction. Sauf que …

Tout ceci semble être de la science-fiction. Certes, on sait faire voler de petits objets, tels des petits drones, qui pourraient embarquer un scanner. Les scanners laser que je connaissais jusqu’à présent font au moins 5 kg, charge difficilement supportable par un petit drone. Sauf que le fabricant japonais Hokuyo produit un scanner laser qui fait seulement … 160 g !

Le scanner laser de chez Hokuyo
Le scanner laser de chez Hokuyo

Vous pouvez retrouver les caractéristiques techniques de cet appareil ici, mais la précison annoncée est de ± 3 cm. Ce qui est suffisant pour lever une galerie souterraine sur une planète située aux confins de l’univers :p

Des chercheurs du GRASP (université de Pennsylvanie) ont adapté ce scanner laser sur un petit drone, ont probablement ajouté un système de localisation radio et ont abouti à ceci. (Ça commence à 12’30 ».) Personnellement, je suis bluffé !

Google fait le choix de la photogrammétrie

Suite à l’article présenté sur ce blog, regardons si mes pronostics se sont avérés justes …

Ce mercredi soir, Google a présenté les nouvelles caractéristiques de Google Maps / Google Earth. Outre les fonctionalités de mode hors ligne et leur nouvel appareil de prises de vues embarqué dans un sac à dos (Street View Trekker, près de 20 kg), la nouveauté est effectivement l’avènement de la 3D généralisée sur des villes entières.

Street View Trekker en action
Street View Trekker en action – Source : Google

La 3D dans Google Maps

La technique retenue est celle de la photogrammétrie. Cette technique est éprouvée depuis de nombreuses décénies, avant même l’arrivée du numérique. Elle nécessitait tout le savoir faire d’un photogrammètre sur cet appareil de torture permettant de voir en 3D à partir de deux clichés argentiques :

Restituteur analogique
Restituteur analogique à l’Ecole Supérieure des Géomètres et Topographes.

Aujourd’hui, le photogrammètre travaille sur un ordinateur muni d’un écran 3D et des clichés numériques.

Concrètement, la technique repose sur la prise de vues aériennes d’une même scène sur deux angles de vue (stéréoscopie). La caméra embarquée sur l’avion prend un cliché, il avance et prend un second cliché, ce second cliché couvrant au minimum 60% du cliché précédant. On parle de recouvrement logitudinal. Sur les 60% en commun aux deux clichés, l’angle de prise de vue a changé et la restitution stéréoscopique (la 3D) est possible. Lorsque l’avion a terminé une bande (un axe de vol), il fait demi-tour et recommence et couvrant 30% de la bande précédante. On parle de recouvrement latéral.

Le recouvrement de 60%/30%
Le recouvrement de 60%/30% – Source : ENSG

Les deux angles de vue permettent, via une calibration, de voir en 3D. Seules deux images suffisent pour produire un modèle 3D (on parle aussi de modèle numérique de surface). Avec plus de deux images, on parle d’aérotrianglulation. On obtient un produit encore plus précis. Plus de détails sur la technique ici (avec des maths !)

Alors pourquoi Google prend aussi des clichés à 45° ?

Prises de vues aériennes selon Google
Prises de vues aériennes selon Google (Source : CNET)

En raison du phénomène d’occlusion : une fois le modèle construit, certains pans des bâtiments ne pouront pas être « drapés » de la photo aérienne. Un dessin permet de bien comprendre :

Phénomène d'occusion
Phénomène d’occlusion – Illustration (brouillonne – je le reconnais) de l’auteur.

Pour éliminer ce problème (il faut texturer tous les pans d’un immeuble), Google a choisi de réaliser des prises de vue obliques en plus des simples clichés destinés à faire le modèle 3D. Ainsi, l’avion faisant plusieurs passages pour quadriller la ville, un bâtiment est vu sous toutes les coutures. Il s’agit donc de « quadri-stéréoscopie ».

Notez que le satellite français Pléiades 1A (lancé fin 2011, Pléiades 1B à suivre) permet – via un dépointage – de photographier un scène sous deux voire trois angles et de faire un modèle 3D texturé. Cependant, la résolution des images est de 70 cm au nadir, et atteint rapidement 2m en dépointant. Ce qui ne permet pas d’obtenir le même résultat qu’avec un avion.

La technologie de photorestitution 3D automatique

Là où Google innove, c’est avec un système qui (et ils insistent là dessus) permet de faire la photorestitution de façon totalement automatique.

Modèle numérique de surface avec texturage
Modèle numérique de surface avec texturage

Mon expérience récente sur les logiciels spécifiques tels que Photomodler ou DVP montrait que ce traitement automatique foirait lamentablement à chaque tentative. (Bâtiments qui ressemblent à des patates plutôt qu’autre chose). Et quand ça marchait sur quelques morceaux à modéliser, il fallait des configurations surpuissantes (4 Go DDR3 minimum, un processeur de gamer, etc.) Pour obtenir un bon résultat, chaque élément devait donc être dessiné à l’écran en ayant pris soin de chausser ses lunettes 3D. C’est long et coûteux.

Le point clé dans le processus est la reconnaissance automatique d’un maximum de points homologues sur deux prises de vue d’une même scène. Plus il y a de points homologues, plus le modèle 3D est fin. Il faut donc disposer d’algorithmes de reconnaissance de forme très pointus. Reste à voir si Google a développé son système ou s’il a fait appel à une boite spécialisée, comme Apple l’a fait avec le suédois C3 Technologies. (Présentation de leur système carto dans une semaine.)

Conclusion

Mes pronostics n’étaient pas si faux. Les données 3D des scanners laser des voitures street view n’ont visiblement pas (encore ?) été utilisées. La photogrammétrie a été préférée au lidar (laser aéroporté.) Et les premiers résultats sont bluffants. La finesse des détails sur les bâtiments est à peine croyable.

Rendu 3D dans Google Maps
Rendu 3D dans Google Maps (ancienne version ?)

On remarque toutefois que le phénomène d’occlusion ne peut pas toujours être éliminé, surtout lorsque les immeubles hauts sont proches les uns des autres. Même en réduisant la focale de l’appareil imageur et en augmentant l’altitude de l’avion, l’opération est impossible.

Pour visualiser ceci : maps.google.com, activez MapsGL et rendez-vous sur une ville couverte, telle que San Francisco en mode earth. #EDIT (7/06/12) : il semble pour l’instant que le rendu visible n’est pas celui évoqué dans l’annonce mais provient du dessin des bâtiments avec Sketchup.

Apple abandonne la solution Google Maps pour son application Plans sur iOS. Voyons ce qu’Apple nous réserve de son côté !

Google nous prépare la 3D dans Google Maps …

Que nous réserve Google pour le 6 juin ?
« The next dimension of Google Maps » Pour l’instant, on est en 2D. (Une vue polaire dans Street View : angles vertical et horizontal.)
La « prochaine dimension » serait la 3D donc ? J’ai ma petite idée là-dessus …

Depuis plusieurs années déjà, les Google Car sillonnent les rues et routes d’un grand nombre de pays.
Pour l’instant, ce que l’on peut voir sur Street View sont de simples photos panoramiques géoréférencées. Mais cette photo du mat d’une Google Car me dit que d’autres données ont été acquises …

Vue détaillée d'un mat de Google Car
Vue détaillée d'un mat de Google Car (photo : ekstreme.com)

Ces voitures enregistrent donc au moins 3 données :

  • des images panoramiques (8 caméras grand angle sur le mat)
  • les coordonnées de chaque prise de vue (au moins métriques, à l’aide d’une antenne GPS bi-fréquence vraissemblablement, positionnée sur le toit de la voiture)
  • un nuage de points 3D (à l’aide de deux scanners-laser 3D accrochés de part et d’autre du mat de la voiture)

On peut soupçonner la présence d’une centrale inertielle dans le mat, afin de disposer de son attitude et de recaler à la fois les images et le nuage de points 3D à l’horizontale. On sait aussi que des données WiFi étaient enregistrées. Lorsque la voiture passait dans une rue, elle captait les routeurs WiFi. Comme la voiture embarque un GPS, elle pouvait associer une localisation à chaque routeur. Ainsi, lorsqu’un utilisateur de smartphone ne capte pas de signaux GPS mais des signaux WiFi, il peut quand même se géolocaliser. Cette technique fait aussi appel à la localisation des antennes relais captées par le téléphone. Outre Google, SkyHook-wireless travaille dans ce domaine. Désormais, ce ne sont plus les voitures qui enregistrent les points WiFi mais directement vos smartphones. 

Mais au fait, c’est quoi ces scanners-laser 3D ?

Pour faire simple, il s’agit d’appareils qui émettent un rayon laser (vert ou infrarouge) et qui mesurent la durée aller-retour de l’implusion laser. On peut donc en déduire la distance du point d’impact du laser (la façade d’une maison par exemple) depuis le mat.

Cette opération de mesure de distance est faite des centaines, voire des milliers de fois par seconde. Un petit miroir dans l’appareil, actionné par un moteur, réfléchit le rayon laser avant qu’il ne soit émis. On créé alors un balayage du laser, de haut en bas. On réalise donc un profil vertical. La voiture avance, donc on modélise une surface en 3D. On rappelle qu’un scanner se trouve de chaque côté de la voiture. Les relevés se font des côtés gauche et droit de la voiture, ce qui permet de lever tout le corps de rue.

Principe de fonctionnement du LMS500 de chez Sick (video YouTube.)

On dispose maintenant de notre nuage de points en 3D.

Source : Christian Früh

Comme dans un jeu-video, il faut  habiller cette surface 3D. Et pour cela, on va utiliser les photos réalisées et les « plaquer » sur le nuage de points :

Source : Christian Früh

Allons plus loin …

Imaginons maintenant que le même principe soit mis en place sur un avion …

L’avion prend des photos et créé un modèle 3D du sol avec un laser (lidar) ou par photogrammétrie. Tous les ingrédients sont réunis pour faire une maquette 3D. En combinant les données créées au sol plus celles créées en vol, on est capable de composer ceci :

Maquette 3D. Source : Christian Früh

Voilà à peu près ce que Google devrait nous présenter le 6 juin. Du moins j’en fais le pari 😉 On notera que ceci existe déjà peu ou prou dans Google Earth pour le relief et les bâtiments qui ont été dessinés manuellement.

Sources :

http://www.sick.com/group/EN/home/products/product_news/laser_measurement_systems/Pages/lms5xx_laser_measurement_sensors.aspx
http://www.ubergizmo.com/2012/06/google-to-hold-google-maps-event-this-coming-june-6/
http://ekstreme.com/thingsofsorts/fun-web/chatting-with-a-google-street-view-driver
http://www-video.eecs.berkeley.edu/~frueh/3d/