Un observatoire astronomique contrôlé à distance

Pratiquer l’astronomie et l’astro-photographie n’est pas toujours facile : il faut s’éloigner des sources de pollution lumineuse, installer son matériel, tomber sur un bon créneau météo et donc, avoir du temps et pas mal de motivation. Mon ami Philippe Deverchère a trouvé la solution : construire un observatoire robotisé et contrôlable à distance. Il a également eu la bonne idée de partager son expérience sur ce blog.

Du contrôle électrique du toit roulant à la commande de focus en fonction de la température, tout y est !

Astronomie : la Galaxie du Triangle

Ce n’est une question de temps.

J’avais donc le temps, avec Gérard, un ami, de faire quelques photos de la Galaxie du Triangle (M33 pour les intimes) depuis l’Observatoire de Biscarmiau à Visker (Hautes-Pyrénées).

Nous avons profité du beau temps, d’un ciel magnifique, bien étoilé.

Et nous avons pris le temps de tout mettre en fonction pour réaliser cette image :

m33_alex

Il faut plus de 2 heures pour réaliser les images qui permettent d’arriver à ce résultat. Il faut ensuite prendre quelques heures de plus pour traiter ces images brutes et les additionner pour parvenir à l’image finale.

Certains sont plus talentueux dans le traitement, regardez les résultats obtenus par les autres membres de l’association Dinastro : http://www.dinastro.org/spip.php?article98

Miner du Litecoin : faut-il se lancer ?

Je ne vais pas vous faire l’affront de vous présenter le bitcoin, sa monnaie soeur le litecoin et toute l’histoire des crypto-devises (ou crypto-monnaies.)
Si vous êtes ici, c’est que vous êtes au point sur le sujet. Sinon, retournez faire un tour sur Google, les articles ne manquent pas !

Tout ce qu’il faut savoir pour la suite, c’est que ces crypto-monnaies reposent sur le cryptage de phrases, avec une difficulté de cryptage qui va crescendo.

Ouah, un litecoin !

Dans cet article, on va tenter de comprendre la logique qui se dessine pour les prochains mois dans le minage du litecoin.

Au début, comme pour le bitcoin, la difficulté du calcul était faible. Si faible qu’il était possible de miner quelques bitcoins par semaine avec un GPU pas bien performant.

Peu de mineurs s’intéressaient au litecoin. Jusqu’à ce que le bitcoin devienne populaire. Et les annonces dans les médias n’ont fait qu’accroitre le « buzz ». Si bien que la difficulté de calcul du bitcoin a explosé. Mais la médiatisation n’explique pas tout.

L’enjeu est devenu tel que du minage sur des CPU (processeurs), on est passé à du minage sur des GPU (processeurs graphiques) puis à des FPGA (circuit logique programmable) et enfin à du minage sur des ASIC (circuit intégré propre à une application). Tout ceci dans le but d’augmenter la vitesse de calcul (hashrate) et de réduire la consommation électrique. Mais les ASIC valent assez cher. Voilà pour le bitcoin.

Les mineurs revenus de la mine du bitcoin ayant du matériel à disposition, ils se sont mis à miner du litecoin. Les deux monnaies étant assez liées, le litecoin a pris pas mal de valeur sans que la difficulté de calcul soit exorbitante. Jusqu’au moment où elle a commencé à grimper vertigineusement.

Difficulté du litecoin

On voit que la progression de la difficulté stagne jusqu’en avril 2013 (100), puis elle commence à prendre une évolution logarithmique qui a tendance à se tasser sur le mois d’octobre (1000). En 7 mois, la difficulté a augmenté d’un facteur 10. Puis début novembre 2013, c’est le début de l’envolée. la courbe prend une tendance exponentielle. Pour atteindre aujourd’hui, début décembre, une difficulté de 2800.

Aujourd’hui, pour miner du litecoin, il n’y a qu’une manière : se munir des meilleures cartes graphiques (GPU) et de les aligner pour cumuler les kH/s (1 kH/s = 1000 calculs par seconde.) Les cartes à base de puces AMD (anciennement ATI) sont les plus performantes car le litecoin repose sur l’alorithme scrypt, bien pris en charge dans les routines OpenCL spécifiques à AMD. Ces cartes, bien qu’onéreuses, sont victimes de leurs succès et sont souvent en rupture de stock.

Un rig de minage de litecoins

Il est possible de trouver des machines pré-assemblées et optimisées pour le minage du litecoin (rapport hashrate/consommation électrique intéressant.) Dans le milieu, on appelle ça un « mining rig ». Un site français, la-boutique-du-mineur.com est exclusivement dédié à cette activité et vend des machines « prêtes à miner ».
Avec les difficultés actuelles, miner en solo devient très complexe. C’est pourquoi les mineurs se regroupent et associent leurs puissances de calcul dans un « pool ». En France, on peut citer la pool SMP-FR.

Si on reprend la chronologie du minage du bitcoin, on comprend ce qui va se passer pour le litecoin. L’enjeu (peut-être fictif, surement spéculatif) est maintenant tel qu’il devient intéressant de développer des puces dédiées. Les fameuses ASIC.

Justement, la société anglaise Alpha Technology annonce avoir engagé un partenariat avec Dexel Designs, pour fabriquer des puces ASIC spécifiques au minage du litecoin.
Aucun prix n’est annoncé, mais il est évident qu’il va y avoir un saut dans la puissance de calcul. La disponibilité est prévue pour courant 2014. Un beau pari qui rapportera gros à coup sûr à ces deux entreprises.

Alors, que faire ?

Investir tout de suite dans des cartes graphiques surpuissantes (avec une alimentation puissante, une carte mère avec plusieurs slots x16, … bref un PC complet ou presque) ou attendre la sortie des puces ASIC dédiées au litecoin ?

Je me pose moi même la question. Vous pouvez faire un calcul de ROI (retour sur investissement) en vous rendant sur ce site tout en consultant le cours du litecoin sur votre plateforme d’échange favorite. Calculez également la consommation électrique. Votre calcul portera sur la difficulté actuelle. Difficile de dire quelle sera la difficulté future, mais il est fort à parier qu’elle va augmenter et que les profits diminueront.

Ce qui est sur, ce que si vous investissez dans un mining rig, il pourra servir à autre chose (miner du primecoin avec votre CPU ou autre crypto-monnaie ou alors en faire un PC pour jouer) ou bien être facilement revendu sans trop de dépréciation.

Par contre, une puce ASIC est par définition dédiée. C’est un investissement qu’il faut rentabiliser et qui sera peut-être difficile à revendre si de nouvelles puces plus performantes ont été développées.

N’hésitez pas à commenter !

Edit : pour en savoir plus, visitez ce forum français.

Edit du 24/12/2013 :

Alpha Technology annonce les précommandes pour des ASIC spécifiques au minage en scrypt. Compter 1620€ pour 5 Mh/s par exemple. Il y aura aussi un modèle à 25 Mh/s. Le matériel se présenterait sous la forme d’un boitier autonome qui ne requiert qu’une connexion RJ45 et une alimentation. Avec une consommation inférieure à 100W. Ce qui est au final bien plus rentable que d’aligner des cartes graphiques. (J’estime à 5500 € le coût d’un rig basé sur des GPU qui minerait à 5 Mh/s, avec un consommation de 2000W)

Des raisons d’avoir des doutes

Voici des raisons de ne pas trop s’enflammer :

  • Les livraisons sont annoncées pour le 2ème ou le 3ème trimestre de 2014. D’ici là, les choses peuvent évoluer très défavorablement. Et le matériel sera invendable.
  • Il faut avancer de l’argent lors de la précommande à une entreprise pas bien connue. Et avec une date de livraison très floue.
  • Quelle entreprise vendrait du matériel alors même qu’elle gagnerait plus d’argent en l’exploitant elle-même ? Nul doute qu’ils vont miner pour eux-même quelques temps avant de vendre leurs ASIC.
  • Au moment où j’écris ces lignes, il faut théoriquement 3 mois pour rentabiliser l’investissement. Quand ces ASIC vont se démocratiser, c’est l’histoire du bitcoin qui va se répéter pour toutes les monnaies scrypt. La difficulté va augmenter et anéantir tout chance pour les pools de minage.

Mon conseil : n’investissez que ce que vous êtes prêts à perdre. Si vous en doutez, regardez l’histoire du minage du bitcoin.

Deux nouvelles méthodes de scan 3D

Le Zebedee, scanner laser d’un nouveau genre

On connaissait les scanners laser classiques (rotation sur deux axes) ou encore les scanners à main, utilisés pour modéliser des objets.

Démonstration vient d’être faite qu’il est possible de modéliser la tour de Pise avec un scanner à main. Mais pas n’importe quel scanner à main. Il s’agit d’un système d’un nouveau genre, appelé Zebedee, composé :

  • d’un scanner laser 2D Hokuyo UTM-30LX (il tourne sur un seul axe, le rayon laser est émis sur un plan)
  • d’une centrale inertielle
  • d’un ressort (oui, un simple ressort)

Et ce ressort, c’est tout le secret du système. Le levé se fait simplement en marchant et en tenant le système à bout de bras. Le fait de marcher fait bouger le système qui est monté sur le ressort. L’ensemble scanner-centrale inertielle est alors en déplacement et son attitude devient aléatoire (les angles de tangage et de roulis évoluent).
Ainsi, le rayon laser est émis dans toutes les directions.

Commercialisé sous le nom ZEB1, il offre l’avantage d’être très rapide à mettre en oeuvre, facile d’utilisation (plus de stations successives) et d’être léger (encore que 700 g à bout de bras toute une journée, ça doit faire les biceps.) Mais surtout, il est beaucoup moins cher qu’un scanner laser traditionnel. Aucun prix n’est communiqué.

Question qualité et précision, il ne faut pas s’attendre à obtenir l’équivalent d’un scanner laser classique. Sur une surface plane, le bruit de mesure est de 30 mm au mieux. Une fois les surfaces calculées, la précision atteint 5 mm. Remarque : la portée est de 30 m. Mais il conviendra de s’approcher des détails pour densifier le nuage de points.

Le scanner Hokuyo utilisé ne gère pas l’intensité du retour laser. De ce fait, il n’est pas possible d’utiliser des cibles. L’utilisateur qui voudra géoréférencer son levé devra utiliser des sphères.

Seule ombre au tableau, le traitement des données. Il faut nécessairement passer par le serveur de calcul du fabriquant. C’est un service payant, mais cela évite d’investir dans un logiciel couteux et dans un ordinateur puissant. Heureusement, les données à envoyer ne sont pas excessivement lourdes (135 Mo pour un nuage de points résultant de 8 minutes de marche.)

En résumé, ce scanner devrait intéresser ceux qui réalisent principalement du levé d’intérieur. C’est le premier de son genre, les prochaines versions ne seront que meilleures.

Sources : CNet3dlasermapping.com, CSIRO

« Structure Sensor : capturer le monde en 3D »

Tel est le slogan choisi par l’équipe Occipital.

Ce système semble beaucoup plus orienté grand public que le Zebedee présenté ci-dessus. En effet, il s’adapte sur une tablette ou un smartphone. (Pour l’instant, le fonctionnement n’est prévu que sur iPad.) Une fois arrimé sur la tablette, il est alimenté et controlé par cette dernière.

Le fonctionnement est décrit dans la vidéo ci-dessous.

En réalité, Occipital s’est appuyé sur la plateforme Kickstarter pour financer le projet. Et le succès a été au rendez-vous : les 100 000 $ ont été récoltés en quelques jours.

Une caméra classique, une caméra infrarouge, des diodes infrarouge … Ça ne vous rappelle rien ? Le capteur Kinect bien sûr ! En réalité, l’équipe qui a développé le Kinect a intégré Occipital pour ce projet.

Ce projet n’est pas sans rappeler le système Scenect proposé par le constructeur de scanners laser FARO. Ce dernier utilise le capteur Kinect (développé pour la capture de mouvements pour la console XBOX de Microsoft) qui repose sur le même principe : éclairer la scène en infrarouge, capturer une image en direct et une autre en infrarouge. Il est gratuit (mis à part le capteur Kinect, pour quelques dizaines d’euros d’occasion.)

Le Structure Sensor semble toutefois beaucoup plus performant, du fait de la création du hardware spécifiquement pour les applications de scan 3D. Livraison prévue dès février 2014.

Pour plus d’informations : Structure Sensor sur Kickstarter.

À lire : OpenStreetMap, la base d’un nouveau plan Michelin

À lire, ce très bon article sur le cas de la cartographie OpenStreetMap à Clermont-Ferrand, réutilisée à titre expérimental pour en faire une carte Michelin.

© les contributeurs d’OpenStreetMap
© les contributeurs d’OpenStreetMap

À travers ce cas particulier, on voit toutes les problématiques qui se posent et les solutions apportées pour atteindre l’exhaustivité, l’actualité et la justesse des informations.

On lira avec intérêt la partie d’acquisition automatique de données avec une mini-caméra et un GPS logger.

Jenny Odell collectionne des bouts d’images satellite

Images satellite, mobile mapping … La technique ça va bien un moment. Mais sans tomber dans le hors sujet, je vous présente Jenny Odell. C’est une jeune artiste de San Francisco qui utilise la richesse de l’immense quantité d’images produites/achetées par Google pour en faire des oeuvres – pour le moins originales.

Son premier projet, le plus célèbre, s’appelle Satellite Collections.

Le principe : repérer une catégorie d’objets sur les photos satellite de Google Earth, les capturer, les découper et les coller méthodiquement, tel cet amas de champs circulaires :

Mosaïque "wastewater" de Jenny Odell
Mosaïque « wastewater » de Jenny Odell

Elle fait ce travail depuis 2009 et elle continue toujours à amasser les objets.

Le second projet que j’ai retenu est Re-enactments. Il date de 2009.

L’idée, c’est repérer des gens pris en photo sur le vif par les Google Cars, de retourner sur le lieu de la prise de vue et de reprendre la même pause. L’effet comique est garanti.

Une image de la série Re-enactments de Jenny Odell
Une image de la série Re-enactments de Jenny Odell

Elle a travaillé et travaille sur d’autres projets, allez donc faire un tour sur son site.

Drones : outils du futur pour les géomètres ?

Ils font l’actualité dans de multiples domaines : opérations militaires, prises de vue pour la réalisation de films, loisirs … Ils sont en train de faire une incursion de plus en plus remarquée dans le domaine de la géomatique : ce sont les drones.

Ces appareils sont constitués d’une plate-forme (structure, motorisation, système de guidage, systèmes de contrôle, capteurs, etc.) et d’une charge utile. Cette charge utile, dans le cas d’appareils légers, se limite à un appareil photo. Plus la charge utile est lourde, plus la plate-forme doit être dimensionnée en conséquence, notamment pour garder assez d’agilité dans le pilotage du drone.

Dans cet article, nous nous intéresserons aux drones pour des applications en géomatique.

Inventaire des solutions

Deux types principaux de solutions existent :

  • les quadricoptères : la portance du drone est assurée par les rotors. Ils sont au nombre de quatre, mais certains drones en ont six (hexacoptère) ou plus … On parle de solution à voilure tournante.
  • les ailes volantes : la portance est assurée par les ailes, un ou deux moteurs assurent la propulsion. On parle de solution à voilure fixe.

Les quadricoptères

Le quadricoptère le plus connu du grand public est l’AR Drone (actuellement produit dans sa deuxième version par la société française Parrot, commercialisé 300 €.) Il se pilote avec une application pour smartphone/tablette via une liaison wifi. Cette solution n’est pas vraiment adaptée pour le monde professionnel (faible autonomie, aucune charge de plus de 100 g ne peut être embarquée sans risque.) Cependant, une application en photogrammétrie a déjà été réalisée par Charles Dunk :

Sa solution peut être améliorée avec un boitier supplémentaire qui sera commercialisé par Parrot (GPS et enregistreur) et qui permettra le vol autonome du drone en ayant préalablement défini un plan de vol.

Il existe des solutions professionnelles, beaucoup plus chères mais qui permettent de réaliser des prises de vues sur de plus grandes emprises et ce avec des appareils photos performants. L’entreprise française Delta Drone, basée à Grenoble, commercialise une solution à voilure tournante (Delta-H) mais également fixe (Delta-Y). ERDF (entreprise en charge de la distribution d’électricité en France) a récemment conclu un marché pour surveiller ses lignes et transformateurs avec des quadricoptères. Plus d’informations ici.

Les ailes volantes

En Europe, deux grands fabricants produisent des ailes volantes à destination des professionnels de la géomatique. La première, GateWing, est une société belge récemment rachetée par Trimble. Elle commercialise l’aile volante X100 à 40 k€.

Gatewing X100 official product video (2012) from Fries Porteman on Vimeo.

Son principal concurrent est la société suisse SenseFly. Elle a été récemment rachetée par le groupe français Parrot (qui produit déjà l’AR Drone.) Leur drone vedette est le eBee. C’est une solution qui ne nécessite pas de catapulte contrairement à la solution de GateWing. Le drone est vendu avec un logiciel qui permet de calculer un plan de vol et de piloter l’aile volante à distance via une radio qui porte à 3 km en champ libre. Le drone est également vendu avec une suite logiciel permettant le traitement afin de produire facilement des nuages de points 3D et des orthophotos. Cette solution est commercialisée à moins de 20 k€.

Quelle solution retenir ?

Tout dépendra de l’usage. Il faut comprendre que ce qui est habituellement réalisé par un avion sera réalisé à petite échelle par une aile volante. Et ce qui est réalisé avec un hélicoptère le sera aisément à petite échelle avec un quadricoptère. Un quadricoptère a l’avantage de sa maniabilité et du vol stationnaire mais il utilise une grande partie de son autonomie pour rester en sustentation. Il a aussi l’inconvénient d’être plus lourd et plus fragile qu’une aile volante.

Par exemple, on choisira un quadricoptère pour faire de la surveillance d’ouvrages d’art alors qu’une aile volante sera plus adaptée à la production d’orthophotos ou de restitution photogrammétrique sur de grandes emprises.

Importance du post-traitement

Une fois le vol terminé, il reste à exploiter les photos. Le but est d’obtenir un nuage de points 3D, un modèle numérique de terrain, ou des orthophotos. Une solution gratuite, mais très limitée sera d’utiliser le logiciel 123D Catch d’Autodesk. C’est ce qu’à utilisé Charles Dunk dans l’exemple de la première video de cette page.

Le drone eBee de SenseFly est fourni avec une solution de Pix4D, le drone X100 de GateWing avec une solution développée par Trimble.

Autrement, il faudra se rabattre sur les solutions de photogrammétrie classiques (Agisoft PhotoScan, PhotoModeler, etc.)

La législation française

Il n’est pas possible de faire voler un drone sans ignorer la loi. La législation à ce sujet est en constante évolution. Pour simplifier, la loi a prévu plusieurs scenari de vol (4 principaux , fonction de la hauteur de vol, du peuplement de la zone, du poids du drone, de la visibilité, etc … Certaines sont contraignantes, et hélas, ce sont celles qui vont s’appliquer la plupart du temps pour des travaux photogrammétriques.

Conclusion

Dans le futur, pourquoi ne pas imaginer un drone emportant pour charge utile un scanner laser, une centrale inertielle, ou un récepteur GNSS ? Un premier pas a déjà été franchi, nous en parlions dans cet article où un quadricoptère réalise un levé d’intérieur en temps réél avec un scanner laser. Avec la miniaturisation des composants (prenons l’évolution de la taille du premier récepteur GPS avec un R10 par exemple), les perspectives à l’échéance de quelques années sont très encourageantes !

Une semaine avec le récepteur GNSS Trimble R10

Fin 2012, Trimble a sorti un nouveau récepteur GNSS se voulant être « révolutionnaire ». J’ai pu tester ce récepteur Trimble R10 pendant une semaine dans différentes conditions (terrain dégagé, beau temps, pluie, masques, accès difficile aux corrections temps réel, etc.)

TrimbleR10_4

Un récepteur GNSS compact et performant

On ne parle plus de récepteur GPS mais bien GNSS (Global Navigation Satellite System.) Ce terme générique désigne non seulement le GPS américain mais également tous les autres systèmes (le système russe Glonass, le système européen Galileo, le système chinois Compass/Beidou, etc.) ll faut insister sur le fait que ce nouveau récepteur est compatible avec tous les systèmes mondiaux et ceux à venir, y compris les futures fréquences du GPS (fréquence L5).

R10

Ce qui frappe à la première vue de ce récepteur, c’est sa taille. Son diamètre est réduit de moitié par rapport aux récepteurs existant sur le marché. (11 cm de diamètre contre plus de 20 pour ses concurrents.) On se demande donc par quel tour de force Trimble a réduit la taille se des antennes tout en augmentant la sensibilité de ses récepteurs …

Il embarque :

  • deux puces Maxwell de 220 canaux (ce qui porte les capacités de réception à 440 canaux) permettant de recevoir les signaux de plusieurs constellations (Trimble a nommé cette technologie « Trimble 360 »)
  • un nouveau moteur de calcul (nommé HD-GNSS)
  • une radio 2 W et un modem (en option),
  • un modem 3,5 G (HSDPA), Edge, GPRS, etc.
  • une mémoire de 4 Go pour enregistrer les données brutes (ce qui correspond quand même à 3 années d’enregistrement pour 14 satellites sur une fréquence de 15 secondes.)
  • des liaisons bluetooth et wifi (avec une interface web permettant la configuration en mode base depuis un smartphone par exemple.)
  • une bulle électronique

Le récepteur R10 est immersible dans 1 m d’eau pendant 30 minutes (norme IP57) et résiste à une chute de 2 m. À éviter tout de même !

Le récepteur est doté du système « quick-release ». Un embout de 5 cm se visse sur la canne et le récepteur vient se clipser sur l’embout.

Utilisation

(Le test a été réalisé avec un carnet de terrain TSC3 et le logiciel Trimble Access.)

L’allumage du récepteur R10 se fait par une pression sur le seul bouton présent. L’acquisition des satellites se fait en moins d’une minute. Le test a été réalisé en mode NRTK (à l’appui des corrections du réseau Teria via une liaison GPRS SFR en mode PRS30.) Le modem utilisé est celui du carnet et non celui du récepteur.

Capture d'écran du carnetLa première chose qui surprend, c’est l’absence d’indication sur la résolution des ambigüités (flottant/fixe.) Seules des indications sur la précision sont affichées et un indicateur (vert ou rouge) sur la conformité face aux critères de qualité fixés par l’utilisateur. L’indicateur RMS (erreur moyenne quadratique) a également disparu.

Il n’y a donc plus de saut de précision (on descend progressivement vers la meilleure précision, et non plus par saut comme avec un système fixe/flottant.) Il subsiste cependant un message sur l’initialisation RTK, mais qui ne semble pas correspondre à la résolution d’ambigüités.
L’avantage de ce système, c’est de prendre des points avec une précision dégradée (10 cm en planimétrie par exemple) dans des endroits masqués, là où un autre récepteur resterait en solution flottante avec une précision de 50 cm et un RMS élevé. L’inconvénient, c’est l’aspect « boîte noire » du récepteur R10 où il est impossible de connaître la méthode de calcul, même si Trimble se fend d’un livre blanc sur la technologie HD-GNSS. (Trimble_HD-GNSS White Paper_LR)

Dans les faits, j’ai pu lever des points dans une forêt dense mais sans feuilles avec une précision de 5 cm en planimétrie et 8 cm en altimétrie. À ce même endroit, un récepteur R6 ne parvenait pas obtenir de solution fixe.

Tôt le matin (perturbations de la haute atmosphère réduites), sans masques et avec une bonne couverture GPRS (latence des corrections PRS30 de Teria inférieures à 1,5 s) j’ai obtenu une précision de 17 mm en planimétrie et de 21 mm en altimétrie. Ces précisions annoncées ont été largement validées sur un point du réseau de base français de l’IGN, même si des masques étaient présents dans ce dernier cas.)

Dans des conditions plus dégradées (12h-14h) et avec la présence de pluie, la précision est légèrement dégradée et monte à 23 mm en planimétrie et 27 mm en altimétrie.

Pour preuve de la sensibilité des deux puces Maxwell, j’ai capté 8 satellites en ayant posé le récepteur sur la plage arrière de la voiture, coffre fermé. Encore plus fort : le récepteur sous tension dans la valise pélican fermée, posée sur le siège passager de la voiture, suffisamment de satellites sont captés pour me donner une position à 2 m près.

Pour réduire le problème du multi-trajet, Trimble a intégré un bobinage actif autour des puces de réception. Ce n’est probablement pas aussi efficace qu’une antenne active choke-ring mais le compromis taille performances semble bon, pour preuve l’utilisation réussie en milieu urbain sujet aux multi-trajets.

eBulle, la bulle électronique

Autre nouveauté dans ce Trimble R10, la présence d’une bulle électronique (cf capture d’écran ci-dessus). Après avoir étalonné cette bulle, vous pouvez prendre automatiquement un point dès que le récepteur est bullé. Il également possible d’empêcher l’enregistrement d’un point si le récepteur détecte une inclinaison de la canne trop importante. L’erreur liée à l’inclinaison est également enregistrée dans les attributs du points. On regrette cependant qu’il ne soit pas possible d’annuler cette erreur d’inclinaison sur les coordonnées du point (ce qui nécessiterait une boussole dans le récepteur pour connaître l’orientation de la correction à appliquer.)

Dans tous les cas, un message d’erreur apparait si le récepteur n’est pas bullé. Il est quand même possible d’enregistrer le point. Ça peut devenir très pénible si la eBulle du récepteur n’a pas été soigneusement étalonnée.

A propos de la technologie xFill

xFill est le fruit du rachat d’Omnistar par Trimble. À l’heure de la promotion de la 4G à tout va, certains territoires ont une encore une couverture GPRS incomplète. Sur ces territoires, il est difficile de recevoir les corrections temps réél, que ce soit par GPRS ou par radio. (Terrains vallonnés la plupart du temps.) Pour pallier à ce problème, Trimble a mis au point la technologie xFill. Cette technologie repose sur la réception des corrections SBAS du système Omnistar. Omnistar est toujours un service payant mais xFill est un service gratuit. Ces corrections sont envoyées depuis un satellite géostationnaire Omnistar, renommé RTX par Trimble. Les corrections sont calculées à partir d’un réseau de stations au sol, encore peu dense mais qui sera étoffé par Trimble.
Les orbites des satellites géostationnaires étant sensiblement coplanaires au plan équatorial de la Terre, il faut que l’horizon au sud soit dégagé. Typiquement, au centre de la France, le satellite RTX a une élévation de 33°. L’utilisation du système xFill sera très difficile en milieu urbain (mais rares sont les villes sans couverture GPRS) et impossible si vous vous trouvez au nord d’un masque de plus de 30° d’élévation.

Carte de couverture des satellites RTX
Carte de couverture des satellites RTX

Dans la pratique, il faut disposer des corrections d’une source RTK et obtenir une bonne précision. Dès qu’une coupure survient (ou que la latence des corrections devient trop élevée) le système xFill prend le relais s’il est disponible. Une bonne précision est conservée pendant quelques minutes, avec une dégradation théorique de 10 mm/min en plani, 20 mm/min en alti. Dans la pratique, la dégradation que j’ai observé était de 30 mm/min en plani (il y avait quelques masques, les performances sont probablement meilleures en terrain dégagé.) Ce système présente donc surtout l’avantage d’absorber les problèmes micro-coupure plutôt que de palier à une zone blanche.

J’ai rapidement pu expérimenter le mode base du récepteur R10 avec un second R10 en mode mobile, les corrections étant envoyées via GPRS en CMRx (format Trimble, le RTCM est également possible). La configuration de la base et du mobile sont relativement simples et le système fonctionne parfaitement, avec une latence qui reste correcte.

Trimble a également publié un document sur xFill, consultable à cette adresse. À lire d’un oeil critique …

Conclusion

Ma conclusion sur l’utilisation du R10 pendant une semaine est un gain de productivité dans les zones masquées avec la possibilité de prendre des points avec une précision dégradée. Dans des conditions normales, la précision est légèrement meilleure qu’avec un R6. L’investissement sur un tel matériel se justifie donc par la volonté de pouvoir lever des points dans des conditions difficiles, avec des masques tout en maitrisant la précision. La venue prochaine de nouveaux satellites GNSS permettra à ce récepteur de devenir encore plus performant, notamment dans les milieux masqués (corridors urbains, forêts …)

Soyons francs, ce récepteur est effectivement révolutionnaire. Aucun autre fabricant n’a porté autant d’innovations dans un récepteur. Mais fort de sa position sans concurrence sur ce produit, Trimble fait payer cette « révolution ».

Critiques

Difficile d’émettre des critiques sur ce récepteur R10 tant il est performant et équipé de fonctionnalités innovantes (eBulle, xFill …) On pourrait bien sur commenter le prix élevé de cet appareil (compter 25 k€ TTC pour une solution complète avec option radio, carnet TSC3, chargeur, canne, etc.) mais il n’existe aucun équivalent concurrent sur le marché.

Trimble a utilisé un nouveau type de batteries pour ce récepteur. Impossible donc de les partager avec un autre récepteur R6 ou R8. Cependant, des cales en plastique sont fournies et permettent de recharger les batteries dans les racks 6 batteries (contact sur les plots correspondant aux grandes batteries des stations totales S6, S3, etc.) Néanmoins, ces batteries, en théorie plus performantes que les précédentes sont nécessaires au vu de la consommation du récepteur. En utilisation continue (radio, wifi et modem cellulaire éteints) l’autonomie est de 5 h. Autre avantage un indicateur de charge est présent sur la batterie.

Le nouveau moteur de calcul HD-GNSS devient encore plus « boîte noire ». Une vague explication sur la méthode de calcul est donnée par Trimble mais on ne sait pas vraiment ce qu’il se passe. Ça peut être un inconvénient pour ceux qui veulent une visibilité totale sur le calcul.

Le système xFill me parait encore balbutiant, presque décevant. Il nécessite des conditions particulières (être déjà initialisé) et avoir un horizon sud dégagé. Les performances annoncées sont rarement atteintes. Il devrait évoluer avec la progression du maillage des stations de base Trimble.
D’ores et déjà, la technologie Trimble CenterPoint RTX permettrait d’obtenir une précision de 3,8 cm, en 1 minute d’initialisation (uniquement sur le centre des Etats Unis), en 30 minutes sur les zones couvertes en RTX. Cette technologie repose sur la méthode de calcul PPP (precise point positioning) qui était jusqu’à présent utilisée exclusivement dans le milieu de la recherche, en géodésie notamment.

Liens :

Fiche technique du R10
Manuel de démarrage rapide
Livre blanc sur xFill