Cet article est ma libre traduction d’un article de Iain Butler (@theuavguy ) à propos de l’utilisation du drone tout public Iris+. Le but est de démontrer que la production photogrammétrique est possible avec ce type de matériel. Dans les cas d’étude qui vont suivre, le flux de travail (établissement du plan de vol, vol, traitement des données) vont être supervisés et automatisées par la plateforme Drone Deploy. L’article original est consultable sur le blog de theUAVguy.
Introduction
J’ai récemment été contacté à propos d’un de mes précédents articles relatif aux études des vignobles par une start-up spécialisée en drones, basée à San Francisco. Dans mes précédents articles, je me suis prononcé sur la pertinence d’un écosystème global de gestion du flux de travail par drone. Il ne s’agit pas ici de démontrer l’aspect séduisant du drone, mais bien sa pertinence comme outil pour produire des données opérationnelles, qui peuvent être utilisées pour améliorer les rendements des cultures, réduire le temps de relevé ; dans un sens, vous faire travailler plus efficacement avec moins de charge de travail. Ce que Drone Deploy propose, c’est de s’occuper de la partie traitement du flux de travail et de l’automatiser. De par mon expérience, et de mes discussions avec d’autres opérateurs de drones, voler et acquérir des images exploitables représente 20% du temps de travail, les 80% restants étant du temps de traitement des données, d’analyse des données et de la prise de décisions.
Pourtant, Mike Winn, PDG et fondateurde Drone Deploy (avec Jono Millin et Nicholas Pilkington) m’a expliqué qu’ils ont conçu un produit qui peut rapatrier les données du drone en vol, oui, en plein vol, et commencer le traitement de données avant même l’atterrissage. 15 à 30 minutes après l’atterrissage, vous êtes censé avoir toutes vos données traitées et disponibles. Vraiment ? Ceci semblait trop beau pour être vrai, à tel point que j’ai décidé d’enquêter pour voir si le système Drone Deploy tient ses promesses.
Qu’est ce que Drone Deploy ?
J’ai connu Drone Deploy pour la première fois en mai 2014 à l’expo sUBS à San Francisco, où ils ont présenté leur système « Co-pilot » (partie matérielle) et leur logiciel de post-traitement. Le principe, c’est que Drone Deploy rassemble vos images au fur et à mesure qu’elles sont acquises et les envoie dans le cloud, où elles vont être traitées très rapidement sur des serveurs rapides et conçus pour cet usage. Les résultats sont présentés par le cloud à l’utilisateur par n’importe quel terminal avec un navigateur web. De cette manière, le traitement par les serveurs est réalisé dans des temps inatteignables avec un ordinateur standard.
Je vous entends déjà : comment les images sont-elles envoyées de l’aéronef jusqu’au cloud ? Et bien Drone Deploy a résolu ceci en utilisant un modem cellulaire, celui du système « Co-pilot » (d’où le titre de l’article) qui tourne à un débit type LTE (4G) pour permettre aux images d’être envoyées dans le cloud depuis l’appareil photo alors qu’il prend des photos. Vous commencez à comprendre quelle masse de travail Drone Deploy donne à son système « Co-pilot » et au traitement dans le cloud associé. Le « Co-pilot » lui-même intègre un modem LTE (4G) pour le transfert des images dans le cloud, un module Wifi pour communiquer avec l’appareil photo et une liaison pour la télémétrie afin de communiquer avec le contrôleur de vol. « That’s pretty cool. » Pourquoi ? Parce que le « Co-pilot » recueille les coordonnées GPS du contrôleur de vol lorsque le déclencheur de l’appareil photo est actionné, et les joint à l’image produite. […]
Ce qui est encore mieux, c’est que la liaison LTE (4G) est bi-directionnelle. Quel en est l’avantage ? C’est de vous permettre de communiquer avec l’aéronef depuis un terminal via un navigateur web. Mais ce que Drone Deploy a fait, c’est intégrer le logiciel qui établi le plan de vol dans leur propre interface web. Ceci vous permet de planifier une mission, voler, et avoir un oeil sur les données post-traitées sur le même appareil, juste en utilisant un navigateur web, sans liaison de télémétrie ou autre… Ainsi Drone Deploy s’est tourné vers de multiples marchés et plateformes avec son interface web de plan de vol et de visualisation de données. Premièrement, le système de Drone Deploy est compatible non seulement avec les systèmes à voilure fixe mais aussi ceux à voilure tournante (hélicoptères, multirotors). Deuxièmement, Drone Deploy a segmenté les types de missions : la topographie, l’agriculture, la construction et la modélisation 3D. Il ne reste plus qu’à choisir la catégorie qui correspond le mieux à la misson.
Mais alors, que se passe t-il s’il n’y a pas de couverture LTE (4G) sur le chantier ? Et bien Drone Deploy travaille sur le problème. Vous pouvez pré-planifier une mission et voler sans couverture LTE, et donc sans liaison descendante de télémétrie. Une fois que vous êtes de retour dans une zone couverte en LTE (4G), allumez votre drone et il va verser les données sur le cloud de Drone Deploy. Les données vont alors être traitées. Drone Deploy travaille également pour intégrer des liaisons Bluetooth/Wifi pour établir des liaisons avec le drone sur le chantier.
Ok, mais concernant les clients internationaux ? Drone Deploy a une vision d’ensemble de la communauté des opérateurs de drones, et prévoit de se déployer à l’étranger. Soyez prêts !
À quoi ressemble une mission Drone Deploy ?
Voici un cas pratique avec un multirotor :
1. Posez le multirotor à son point de décollage, allumez le transmetteur, allumez l’appareil photo du drone et connectez la batterie du drone. À ce moment là, le drone va se connecter au serveur cloud de Drone Deploy et rapatrier les mises à jour le cas échéant.
2. Sortez votre terminal, que ce soit un Android, un iPhone, un ordinateur portable ou une tablette et identifiez vous sur le site web de Drone Deploy. Vous alors redirigé vers le tableau de bord qui affiche les missions déjà planifiées (il est possible de planifier des missions au bureau ou à la maison, bien au chaud) ou les missions déjà effectuées avec les résultats associés.
3. Vous avez maintenant le choix de planifier une nouvelle mission, d’effectuer une mission pré-planifiée ou réeffectuer une mission déjà faite.
4. Commençons par planifier une nouvelle mission. Choisissez une catégorie, comme « Agriculture ».
5. On vous demande alors quel type de drone et quelle caméra vous allez utiliser, ainsi que votre position actuelle.
6. Dessinez une emprise de chantier et définissez quelle taille de pixel au sol vous souhaitez, ou bien l’altitude de vol.
7. Drone Deploy va alors générer un plan de vol et calculer les bons recouvrements d’images pour permettre un bon recalage interclichés. Ce qui est intéressant, c’est qu’il n’y aura pas d’images surabondantes prises pendant la mission. Trop d’images implique des temps de traitement plus longs. Les paramètres par défaut sont de voler le plus haut possible, aussi vite que possible et prendre juste assez d’images pour assurer l’assemblage des images. Drone Deploy calcule tout ceci pour vous. Ainsi, le système « Co-pilot » déclenche l’appareil photo au moment où les points de déclenchement déterminés sur le plan de vol sont atteints par le drone. Notez également que le générateur de plan de vol prend en compte l’autonomie du drone et la compare à la durée du plan de vol. Si la mission dépasse l’autonomie du drone, un drapeau rouge indique le problème.
8. À ce stade, les statuts du multirotor sont visibles sur la page web, avec affichage de l’état de la connexion, des mises à jour, du verrouillage GPS et un bouton « Voler maintenant ».
9. Vous cliquez sur le bouton « Voler maintenant » et le système « Co-pilot » va passer en revue une check-list. Il va connecter l’appareil photo, vérifier la batterie de l’appareil photo, vérifier la batterie du multirotor, s’assurer que le GPS est verrouillé, prendre une photo de test et l’envoyer dans votre navigateur. Si tous les tests sont validés, la check-list est elle aussi validée et le bouton « Prêt à voler » apparait. Si la vérification d’un des points de la check-list échoue, le drone ne va pas décoller. C’est une disposition de sécurité intrinsèque : il n’est pas possible de décoller avec des batteries déchargées, un GPS non verrouillé, etc.
10. Maintenant mettez votre transmetteur sur AUTO et cliquez sur « Décollage » dans votre navigateur web. Une alerte apparait : « Décollage dans 5 secondes ». Le compte à rebours démarre et à 0 le drone va décoller pour atteindre son altitude de travail. Il commence alors à suivre son plan de vol.
11. Pendant le vol, les images sont versées sur le serveur cloud et traitées durant le vol. Les images sont également affichées dans le navigateur web, avec les paramètres de vol (vitesse, altitude, niveau de charge de la batterie …) Le plan de vol lui aussi est affiché, avec la progression de l’aéronef, sa direction de vol et sa direction de pointage.
12. Ce qui vient est vraiment impressionnant. Pendant le vol – et alors que les images sont traitées sur le serveur – les résultats assemblés sont placés en temps réel, oui en temps réel, sur le plan de vol de votre navigateur web. Pour n’importe qui aurait déjà utilisé un logiciel d’assemblage de photos, tout ceci ressemble à de la magie. L’assemblage se fait en temps réel alors que le drone est toujours vol.
13. À la fin de la mission, le multirotor retourne à son point de décollage (ou sur le point défini par l’opérateur) et atterrit.
14. Après l’atterrissage, de grandes emprises du chantier vont être assemblées, ou même la totalité du chantier. Les résultat peuvent même être déjà disponibles. Dans tous les cas, l’orthomosaïque, les cartes ENDVI et les modèles numériques de terrain vont être visibles en environ 15 minutes, en fonction de la taille du chantier.
15. Vous pouvez alors éteindre le drone et le ranger. Prenez maintenant votre smartphone : vous pouvez visualiser les résultats alors que vous êtes encore sur le terrain. En utilisant la carte géoréférencée de la mission, il est possible de rendre sur un point précis et de vérifier la véracité des données.
16. Vous êtes prêt pour aller sur le chantier suivant.
La sécurité est primordiale : Drone Deploy utilise une barrière virtuelle en trois dimensions, qui permet de détecter les écarts du drone de son couloir de vol. Des écarts excessifs vont entraîner un retour au point de décollage et un atterrissage. Il est également possible de définir des zones interdites de survol avant le calcul du plan de vol.
C’est vraiment aussi simple et rapide que ça. Voici une video de l’intégralité du processus à partir d’un plan de vol pré-établi. Regardez comme c’est rapide :
http://youtu.be/c28uEXJvW6U
Et voici une video qui montre l’assemblage de 8 hectares en temps réel :
http://youtu.be/d4gqTXSollw
Banc d’essai
Pour le premier essai, c’est un drone Iris+ du fabricant 3D Robotics qui a été utilisé. L’idée derrière cette choix est de prouver qu’un petit drone tout public peut effectuer une mission professionnelle. Souvenez-vous de mon postulat : « le drone est simplement un outil. » Je vois un grand nombre de fabricants de drones produisant d’excellents produits, mais les prix sont dans une fourchette de $15k à $30k. Encore une fois, tout ce que le drone fait, c’est d’embarquer un appareil photo. Ce qui est important, ce sont les images produites par l’appareil photo. Si vous voulez des données qualitatives, focalisez vous sur la charge utile, et utilisez simplement le drone comme un vecteur, une plateforme.
Est-ce qu’un drone tout public à $750 peut effectuer une mission professionnelle en utilisant Drone Deploy ? La plupart des agriculteurs et agronomes veulent un retour sur investissement sur les nouvelles technologies. Pourquoi ne pas leur fournir un outil qui leur permette d’apprécier l’agriculture de précision par drone, mais sans vider leur compte en banque ? Il n’y a qu’une seule manière de savoir.

Il fallait ensuite choisir un appareil photo et une nacelle. Evidemment, il faut faire un compromis entre résolution, poids, durée de vol et couverture spectrale. Le drone Iris+ peut embarquer une GoPro Hero 3 ou 4, de manière fixe ou sur une nacelle Tarot. Pour obtenir de bonnes données, une nacelle est utilisée de manière à ce que la caméra soit toujours pointée vers le nadir. Ce pointage et la nacelle stabilisée (par moteur brushless) permettent à la caméra de produire des images nettes avec un bon recouvrement. […]
Parlons maintenant de la GoPro. Bien sur, nous voulons analyser la santé et le stress hydrique de la végétation, donc nous avons besoin d’une caméra sensible au proche infrarouge (760 – 850 nm) ou en bande rouge limite (690 – 730 nm). Ceci nécessite de récupérer une GoPro, l’ouvrir et retirer le filtre utilisé pour produire des images RVB : http://youtu.be/_tUl-BzZN70

(Si vous n’êtes pas sûr de pouvoir/vouloir réaliser ce bricolage, utilisez une camera du commerce de chez RageCams ou IR-Pro.)
Une fois le filtre retiré, utilisez un nouveau filtre proche infrarouge-vert-bleu à visser. Il y a de nombreux filtres/lentilles qui existent sur le marché (voir IR-Pro http://www.ir-pro.com/ et Peau http://www.peauproductions.com/main.html)

Alors, quels résultats attendre d’une GoPro NDVI ? La chose la plus importante à retenir est qu’il ne s’agit pas d’une camera NDVI calibrée. Pour aller sur cette voie, il faut se diriger vers des solutions plus couteuses. Ici nous parlons d’une solution bon marché : un drone de reconnaissance pour un agriculteur qui veut faire ses premiers pas dans le domaine des drones avec un retour sur investissement rapide sans vider son compte en banque, mais qui peut générer des données opérationnelles et puisse identifier des problèmes sur la végétation et les cultures, corrélées aux données terrain. Le Saint-Graal de la télédétection NDVI par drone est tel que, si vous parlez avec n’importe qui avec un tant soit peu d’expérience dans ce domaine, on vous dira que l’indice NDVI est le seul qui vaille. Ce n’est pas vrai, en réalité c’est l’utilisation de plusieurs combinaisons de cameras pour acquérir des images aériennes, avec la corrélation de données terrain, qui va permettre le générer des données opérationnelles. Des cultures mixtes seront mieux restituées avec des cameras différentes, du traitement, des combinaisons de bandes (PIR-V-B et FLIR par exemple). Il n’y a pas de combinaison camera/formule spectrale qui fonctionnera pour tous les cas. Bien sur, la résolution, la taille de l’image, l’effet de l’obturateur… vont jouer également, mais la question ici est de savoir si vous pouvez utiliser une GoPro pour l’indice NDVI qui permet une corrélation utile avec les données terrain.
Faisons quelques comparaisons. Ci-dessous, deux vues : une d’un paysage, l’autre d’une plante, prises avec :
– un Canon SX260HS non modifié,
– une GoPro modifiée (avec une lentille IR-Pro InfraBlue22 NDVI)
– un Canon SX260HS avec un ancien filtre Event 38
– un Canon SX260HS avec un filtre Event 38 récent.
Cela fait 8 photographies en tout. Evidemment, vous ne pouvez pas analyser la santé de la végétation à partir d’une image RVB, mais ce sera notre référence pour comprendre ce sur quoi porte notre étude.
Photos RGB :
Maintenant regardez les images de la GoPro NDVI. Vous pouvez voir que la végétation est rouge/marron/rose alors que les objets artificiels sont visibles comme sur l’image RGB. On voit tout de même des teintes rose sur les objets artificiels.
Photos GoPro NDVI :
Concernant l’ancien filtre Event 38, vous pouvez voir qu’il produit une séparation spectrale équivalente, avec quelques recouvrements entre la végétation et les objets artificiels. Ici les objets artificiels comme les bâtiments et les routes ont une légère teinte rose, mais moins qu’avec la GoPro. Ceci est du à la raie rouge dans la bande passante du filtre.
Photos avec l’ancien filtre Event 38
Sur les filtres Event 38 récents, vous pouvez maintenant voir une bonne séparation spectrales des objets, avec des objets artificiels peu ou pas teintés de rose, et une végétation bien représentée dans les teintes rose/marron. Ceci s’explique par la forme de la bande passante du filtre, en créneau, dont le décalage spectral a été décalé vers le haut.
Photos avec le nouveau filtre Event 38
Vous pouvez voir comment, avec 3 filtres PIR (proche infrarouge) et de bons imageurs, les résultats obtenus sont significativement différents. Dans cet article les vols seront seulement réalisés avec la GoPro et le filtre/lentille InfraBlue22 NDVI […] Avec une GoPro InfraBlue22, il est possible de réaliser des vidéos en PIR. En voici un exemple. Encore une fois, remarquez les couleurs du sol qui sont nuancées, en raison de la sècheresse en Californie, des accumulations d’eau issues des premières pluies depuis des mois, les couleurs chatoyantes des arbres, et les objets artificiels comme le chemin et les immeubles :
On me pose souvent une question : « Puis-je voler avec une GoPro NDVI et visionner les videos pour voir l’état de santé des cultures ? Ainsi, je n’aurais pas à faire ce travail d’assemblage et de traitement ? » J’ai bien peur que non, la GoPro InfraBlue22 n’est pas vraiment une camera NDVI. Ce qu’elle fait, c’est capturer les bandes spectrales du proche infrarouge, du vert et du bleu, qui ont alors besoin d’être traitées pixel par pixel pour générer une image NDVI, en utilisant une formule NDVI, ENDVI ou DVI. Il existe beaucoup de formules : chacune présente ses avantages en termes de résultats en fonction de la nature des cultures, l’ensoleillement, la présence de nuages, le type de filtre, etc. Pour obtenir l’image NDVI d’un grand territoire, vous devez capturer un lot d’images se superposant en PIR-V-B (ou d’autres combinaisons de bandes en fonction des filtres), les assembler et les traiter selon la formule. Si quelqu’un connait un logiciel de traitement de videos NDVI, faites le moi savoir. Sinon, prenez cette idée et faites en un projet Kickstarter ou une startup ! (Note du traducteur : il existe de nombreux logiciels de traitement d’images qui permettent ceci, notamment la bibliothèque libre ORFEO Toolbox.)
Cas pratiques
Trois cas pratiques ont été menés. Les vols ont été pré-planifiés en amont de la phase terrain, donc ils ont simplement été opérés avec un iPad connecté à internet. Deux missions ont permis de couvrir 8 hectares à une altitude de 80 m, ce qui a pris à peu près 9 minutes de vol, alors que la dernière mission couvrait 2 hectares à 50 m d’altitude pour un temps de vol de 5 minutes. Les vols ont été réalisés avec une GoPro 3 Black modifiée en utilisant le filtre/lentille NDVI IR-Pro InfraBlue22, pointée au nadir (c’est à dire vers le bas, contraire du zénith), une nacelle Tarot Gimbal, le tout embarqué sur un multirotor Iris+ de 3D Robotics. Les lieux de test ont été choisis en raison de la présence de milieux végétaux variés, de prairies en herbe ou fauchées, d’objets artificiels, ou de pelouses plantées et entretenues. Afin de travailler de manière irréprochable, les images de chaque mission ont également été traitées avec Pix4D Pro. En raison de la nature des lieux de test, l’assemblage des images n’était pas facile mais ceci était volontaire afin de tester la performance des algorithmes.
Cas pratique n°1
Description
Prairie sauvage en période de sécheresse sur des collines avec une dénivelée négative depuis le point de décollage. Mélange de prairie sauvage, prairie fauchée, broussailles, enclos et bétail. Le vol couvre 8 hectares à une altitude de 80 m et a pris 9 minutes. À l’issue du vol, il reste 37% de batterie.








Photos au sol





Vérification au sol
L’image 1 est une vue d’ensemble de la zone. Vous pouvez voir le terrain ondulant en pairie, constitué d’herbe, de végétation et de broussailles comme montré sur l’image 3. C’est une prairie en herbe banale. Il est intéressant de regarder au centre de la photo, vers la colline suivante, juste à gauche vous pouvez voir une piste qui suit cette colline. Maintenant regardez l’orthomosaïque et la carte NDVI, sur la partie à droite vous remarquez une zone bleue assez courbe. Il s’agit bien de la piste, mais pourquoi est-elle bleue ? Et bien regardez plus à droite vers la route et comparez avec l’image n°5. Vous verrez un talus, mais sur la carte NDVI, à l’endroit du talus, il y a également une zone bleue. Maintenant regardez l’orthomosaïque, la carte NDVI, le MNT et le modèle 3D et au milieu vous verrez encore une zone bleue. En regardant la photo n°3, ceci peut être interprété comme étant causé par un gros trou dans le sol. Alors qu’est-ce qui entraine cette coloration bleue ? Et bien le relevé a été effectué un après-midi de fin décembre, avec un soleil bas sur l’horizon : les zones bleues correspondent aux ombres. Maintenant regardez le côté gauche de la carte NDVI et vous verrez une zone bleue, c’est en réalité l’ombre des broussailles sèches visibles sur la photo n°2.
Le reste de la carte NDVI montre des dégradés de vert qui sont corrélés aux différentes densités d’herbe dans la praire. Sur la photo n°4, vous pouvez voir une forme à gauche du trou, qui l’on repère facilement sur l’orthomosaïque, la carte NDVI, le MNT et le modèle 3D. Et ce qui est intéressant, c’est la quantité de données récupérées, de la densité de végétation, à la détection des dénivelées, les dépressions et les bassins versants, les clôtures, les pistes, etc. Ce sont des données riches d’informations obtenues avec un vol de drone de 9 minutes seulement sur plus de 8 hectares.
Cas pratique n°2
Description
Prairies durant la sécheresse avec des zones sauvages ou tondues, bâtiments et zones bétonnées dans la zone d’étude, voir le modèle 3D. Le décollage a été effectué depuis le haut d’une colline vers le centre de la zone relevée, avec un terrain dénivelant en vallons. La pluie des jours précédents a mis en évidence des zones d’accumulation d’eau dans des bassins de faible profondeur. Vol de 9 minutes 10 secondes à 80 m de hauteur avec 41% de charge de la batterie restant à l’atterrissage.












Vérification au sol
[A suivre : suite de la traduction avec un 3ème cas pratique et les conclusions sur l’utilisation de Drone Deploy.]
Traduction assurée avec autorisation de l’auteur. Merci à lui !