dans

L’intégration de diverses images satellites affine notre image de l’activité sur Terre (éditorial)

Amanda Ziemann est chercheuse en télédétection à Laboratoire national de Los Alamos au Nouveau-Mexique. Elle a contribué cet article à 45secondes.fr’s Voix d’experts: Op-Ed & Insights.

Être capable de détecter avec précision les changements à la surface de la Terre à l’aide de l’imagerie satellite peut aider dans tout, de recherche sur le changement climatique et de l’agriculture aux schémas de migration humaine et à la non-prolifération nucléaire. Mais jusqu’à récemment, il était impossible d’intégrer de manière flexible les images de plusieurs types de capteurs – par exemple, ceux qui montrent des changements de surface (tels que la construction de nouveaux bâtiments) par rapport à ceux qui montrent des changements de matériaux (tels que l’eau sur le sable). Maintenant, avec une nouvelle capacité algorithmique, nous pouvons – et ce faisant, nous obtenons une image plus fréquente et plus complète de ce qui se passe sur le terrain.

Au laboratoire national de Los Alamos, nous avons développé une approche mathématique flexible pour identifier les changements dans Satellite des paires d’images collectées à partir de différentes modalités de satellite ou de types de capteurs utilisant différentes technologies de détection, permettant une analyse plus rapide et plus complète. Il est facile de supposer que toutes les images satellite sont identiques et, par conséquent, de les comparer est simple. Mais la réalité est bien différente. Des centaines de capteurs d’imagerie différents sont actuellement en orbite autour de la Terre, et presque tous prennent des photos du sol d’une manière différente des autres.

Questionnaire satellite: dans quelle mesure savez-vous ce qui est en orbite autour de la Terre?

Prenons, par exemple, les capteurs d’imagerie multispectrale. Ceux-ci font partie des types de capteurs les plus courants et nous donnent les images auxquelles la plupart d’entre nous pensent lorsque nous entendons des «images satellites». Les capteurs d’imagerie multispectrale se ressemblent en ce sens qu’ils peuvent capturer des informations de couleur au-delà de ce que l’œil humain peut voir, ce qui les rend extrêmement sensibles aux changements de matériau. Par exemple, ils peuvent clairement capturer un champ herbeux qui, quelques semaines plus tard, est remplacé par du gazon synthétique.

Mais la façon dont ils capturent ces changements varie considérablement d’un capteur multispectral à l’autre. On pourrait mesurer quatre couleurs de lumière différentes, par exemple, tandis qu’un autre en mesure six. Chaque capteur peut mesurer la couleur rouge différemment.

Ajoutez à cela le fait que les capteurs d’imagerie multispectrale ne sont pas la seule modalité d’imagerie par satellite. Il y a aussi Radar d’ouverture synthétique, ou SAR, qui capture des images radar de la structure de la surface de la Terre à une résolution spatiale fine. Ces images SAR sont sensibles aux changements de surface ou à la déformation et sont couramment utilisées pour des applications telles que la surveillance des volcans et l’énergie géothermique. Donc, encore une fois, nous avons un capteur d’imagerie qui capture les informations d’une manière complètement différente d’une autre.

C’est un vrai défi lors de la comparaison de ces images. Lorsque les signaux proviennent de deux techniques de télédétection différentes, les approches traditionnelles de détection des changements échouent parce que les mathématiques et la physique sous-jacentes n’ont plus de sens. Mais il y a des informations là-bas, parce que ces capteurs imaginent tous les mêmes scènes, juste de différentes manières. Alors, comment pouvez-vous regarder toutes ces images – des images multispectrales capturées par différents types de capteurs et d’images SAR – d’une manière qui identifie automatiquement les changements au fil du temps?

Notre approche mathématique rend cela possible en créant un cadre qui non seulement compare les images de différentes modalités de détection, mais «normalise» également efficacement les différents types d’images – tout en conservant les informations de signal d’origine.

Mais l’avantage le plus important de cette intégration d’image est que nous pouvons voir des changements aussi fréquents que quelques minutes d’intervalle. Auparavant, le temps écoulé entre les images capturées par le même capteur pouvait prendre des jours ou des semaines. Mais être capable d’intégrer les images de diverses modalités de détection signifie que nous sommes en mesure d’utiliser plus rapidement les données de plus de capteurs, et donc de voir les changements plus rapidement, ce qui permet une analyse plus rigoureuse.

En rapport: Les 10 meilleures vues de la Terre depuis l’espace

Sur la gauche se trouve une carte de détection de changement de la construction du SoFi Stadium à Los Angeles sur trois ans, dérivée de Sentinel-1 SAR (radar à synthèse d'ouverture) et de l'imagerie multispectrale Sentinel-2.  Sur la droite se trouve un composite Sentinel-2 en couleurs vraies de la même zone.  Les marques noires sur la carte de détection des changements montrent des changements inhabituels;  le gris indique des changements communs;  et le blanc illustre des anomalies persistantes.  Sentinel-1 et Sentinel-2 sont des satellites d'observation de la Terre exploités par l'Agence spatiale européenne.

Sur la gauche se trouve une carte de détection de changement de la construction du SoFi Stadium à Los Angeles sur trois ans, dérivée de Sentinel-1 SAR (radar à synthèse d’ouverture) et de l’imagerie multispectrale Sentinel-2. Sur la droite se trouve un composite Sentinel-2 en couleurs vraies de la même zone. Les marques noires sur la carte de détection des changements montrent des changements inhabituels; le gris indique des changements communs; et le blanc illustre des anomalies persistantes. Sentinel-1 et Sentinel-2 sont des satellites d’observation de la Terre exploités par l’Agence spatiale européenne. (Crédit d’image: LANL (gauche), ESA (droite))

Pour tester notre méthode, nous avons regardé des images de la construction du nouveau stade SoFi à Los Angeles à partir de 2016. Nous avons commencé par comparer des images multispectrales de divers capteurs multispectraux, ainsi que des images SAR, sur la même plage de dates pour voir quelles modalités ramassé quels changements. Par exemple, dans un cas, le toit d’un bâtiment à côté du stade a été remplacé, le faisant passer du beige au blanc au cours de plusieurs mois. Les capteurs d’imagerie multispectrale ont détecté ce changement, car il était lié à la couleur et au matériau. SAR, cependant, ne l’a pas fait, comme nous nous y attendions. Cependant, le SAR était très sensible à la déformation de la surface due au déplacement des tas de terre, contrairement à l’imagerie multispectrale.

Lorsque nous avons intégré les images à l’aide de notre nouvelle capacité algorithmique, nous avons pu voir les deux changements – la surface et le matériau – à un rythme beaucoup plus rapide que si nous nous concentrions sur un seul satellite. Cela n’avait jamais été fait auparavant à grande échelle et cela signale un changement fondamental potentiel dans la façon dont les images satellitaires sont analysées.

Nous avons également pu démontrer comment les changements pouvaient être détectés beaucoup plus rapidement qu’auparavant. Dans un cas, nous avons pu comparer différentes images multispectrales collectées à seulement 12 minutes d’intervalle. En fait, c’était si rapide que nous avons pu détecter un avion volant à travers la scène.

Alors que la télédétection spatiale continue de devenir plus accessible – en particulier avec l’utilisation explosive de cubesats et les petits satellites dans les secteurs public et commercial – davantage d’images satellitaires deviendront disponibles. C’est une bonne nouvelle en théorie, car cela signifie plus de données pour alimenter une analyse complète. Dans la pratique, cependant, cette analyse est remise en question par le volume impressionnant de données, la diversité des conceptions et des modalités des capteurs, et la nature de la canalisation des dépôts d’images pour différents fournisseurs de satellites. De plus, alors que les analystes d’images sont submergés par ce raz-de-marée de l’imagerie, le développement d’algorithmes de détection automatisés qui «savent où chercher» est primordial.

Cette nouvelle approche de la détection des changements ne résoudra pas tous ces défis, mais elle aidera en optimisant les forces des diverses modalités de satellite – et nous donnera plus de clarté sur le paysage changeant de notre monde dans le processus.

Suivez-nous sur Twitter @Spacedotcom ou Facebook.

Suivez toutes les questions et débats d’Expert Voices – et participez à la discussion – sur Facebook et Twitter. Les opinions exprimées sont celles de l’auteur et ne reflètent pas nécessairement les vues de l’éditeur.

45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. 🙂

  • Maison 123 T-shirt 'IMAGE' - Beige - Taille: L - female
    L - Beige - Matériau: Maillot; Col: Col rond; Motif: Imprimé à motifs; Design: Ourlet / bord surpiqué, Décolleté bordé; Extras: Doux au toucher, Coutures ton sur ton; Longueur des manches: Manches un-quart; Longueur: Longueur normale; Coupe: Coupe normale
  • Sunday Trans. Image SUNDAY SUNDAY BOX
    Avec la Sunday Box, recevez des photos et des vidéos de toute votre famille, en direct sur votre TV ! C'est la solution idéale pour rester connecté à toute votre famille si vous n'utilisez pas les réseaux sociaux, ou si vous préférez recevoir des nouvelles de vos proches en grand format. L'utilisation de la
  • Cabasse Eole 4 Enceinte Satellite [Pièce] - Blanc
    ◥ Possibilité de fixation murale ◥ Puissance sonore ◥ Performances multicanal ou stéréo EOLE 4 Élégance & Performance Eole concentre les qualités acoustiques propres à tout système Cabasse: efficacité, tenue en puissance, transparence et stabilité de l'image sonore. Avec Eole 4, les qualités acoustiques des