Grande tendance de cette décennie, le développement de l’Intelligence Artificielle (IA) ouvre de nombreuses perspectives dans le domaine militaire. Que ce soit pour exécuter des tâches complexes, piloter des essaims de drones ou encore animer des robots autonomes, l’intelligence artificielle se démarque par la variété de ses domaines d’applications et son efficience pour faciliter notre quotidien.

Le rôle de ces nouvelles technologies va faire une énorme différence dans l’aide à l’analyse comme dans la compréhension de données. La montée en puissance de l’IA dans les armées et plus particulièrement dans le domaine du GEOINT semble apporter les réponses pour appréhender efficacement et exploiter « intelligemment » les flux de données massifs auxquels font face les armées et agences de renseignement aujourd’hui.

Un enjeu stratégique

Bien comprise outre-atlantique, cette révolution qui se prépare est déjà au cœur de la stratégie américaine de maintien de leurs capacités de défense. Le pays développe depuis 2014 un véritable cadre stratégique d’implémentation des efforts de recherche et de développement de l’intelligence artificielle afin d’identifier les opportunités scientifiques et technologiques et d’assurer la coordination effective des investissements de recherche.

A ce titre, la Maison Blanche a mis en place un sous-comité spécifique au sein du National Science and Technology Council (NSTC) dès 2016, chargé de suivre les évolutions du secteur de l’Intelligence Artificielle (IA) et de coordonner les activités fédérales sur le sujet. Un plan stratégique présentant une série d’objectifs à poursuivre pour la Recherche financée par des fonds publics fédéraux a été publié la même année.

Moins en avance sur le sujet, la France cherche également à se positionner sur le domaine de l’intelligence artificielle et exploiter le potentiel qu’il recèle.

« L’enjeu est de faire émerger une communauté IA française qui parvienne à faire collaborer directement les chercheurs les plus en pointe avec les start-up et les grands industriels », Axelle Lemaire, secrétaire d’Etat au Numérique.

Le ministre de la Défense Yves Le Drian n’a pas manqué de rappeler récemment lors d’un colloque à l’Assemblée nationale que le développement de l’IA représente aujourd’hui un véritable enjeu de souveraineté nationale et que sa montée en puissance dans de nombreux domaines annonce une véritable révolution stratégique.

De Deeper Blue à AlphaGo

En 1997,  l’IA Deeper Blue développé par IBM battait le champion du monde des échecs Garry Kasparov, moins de 20 ans plus tard, en 2016, l’IA allait de nouveau faire parler d’elle avec AlphaGo, l’IA de Google DeepMind, en remportant une victoire face au champion du monde de go, le Sud-Coréen Lee Sedol. Si AlphaGo fût le premier programme informatique capable de battre un joueur de go professionnel c’est avant tout grâce à son IA capable d’apprendre de ses expériences passées afin de choisir les mouvements gagnants les plus probables.

« De nombreux experts pensaient que ça n’arriverait pas avant au moins dix ans! » Michael Laielli, technologue en recherche et développement à la National Geospatial-Intelligence Agency (NGA)

L’ancien jeu chinois de go est décrit comme l’un des jeux de stratégie les plus complexes qui soit, les combinaisons possibles sont de l’ordre de 10 puissance 170 (contre 10 puissance 120 pour les échecs), ce qui rend impossible pour la machine de calculer toutes ses possibilités de mouvements dans un temps suffisamment raisonnable.

Si la victoire de Deeper blue sur Kasparov aux échec avait marqué un tournant dans le développement de l’IA, celle d’AlphaGo a provoqué un véritable séisme dans le monde scientifique ainsi qu’auprès du grand public.

L’Intelligence Artificielle, la réponse au Big Data

Depuis quelques années déjà, les avancées de la Recherche dans le domaine de l’IA semblent apporter les réponses a de nombreuses problématiques, dont notamment celles soulevées par l’exploitation du Big Data, longtemps au centre de toutes les attentions. Cette attention se focalise désormais sur la valorisation des informations et plus particulièrement sur l’exploitation intelligente des données de masse. En effet, l’exploitation intelligente des données est l’essence même du Big Data.

4c42682b-fa25-4064-b916-c33f83a69f13-original.jpeg

Les recherches menées dans le domaine de l’IA ont su démontrer les impressionnantes capacités des machines pour résoudre des problèmes complexes et accomplir des tâches habituellement dévolues à l’être humain. La disponibilité de grandes quantités de données, combinées au méthodes basées sur l’apprentissage permettent d’inculquer des connaissances aux machines pour identifier des entités ou objets, reconnaître des modèles ou encore comprendre un langage.

A titre d’exemple, Google Maps intègre depuis fin 2016 des informations sur l’affluence des magasins, restaurants et centres commerciaux. Pour obtenir ces informations, Google collecte et exploite en temps réel les données géolocalisées des utilisateurs de smartphones Android (environ 24 millions en France) ou services Google implémentés sur d’autres systèmes d’exploitation.

Cette compréhension des informations par une IA permet d’accroître efficacement l’exploitation des informations en limitant à la fois les ressources informatiques employées et en réduisant considérablement le temps de traitement. Appliqué à l’analyse d’images pour détecter et identifier automatiquement des objets, ce concept se révèle être extrêmement prometteur pour traiter automatiquement d’importants volumes de données images ou vidéos de toutes origines.

« Historiquement, la reconnaissance visuelle a toujours été un problème complexe pour les machines » Michael Laielli

ImageNet Challenge

Aujourd’hui devenu un Benchmark pour les IA de reconnaissance visuelle, l’ImageNet Large Scale Visual Recognition Challenge défie chaque année et depuis 2010 plus cinquante institutions venues du monde entier pour classer automatiquement un million d’images dans plusieurs centaines de catégories différentes en ayant exclusivement recours des d’algorithmes de reconnaissance visuelle.

En 2013, une nouvelle étape a été franchie lorsque les vainqueurs du challenge ont utilisé avec succès une méthode de reconnaissance visuelle basée sur des algorithmes d’apprentissage profond aussi baptisée Deep Learning. Cette technique leur a permis d’accroître la précision de leurs résultats, qui contenait moitié moins d’erreurs que les résultats obtenus par les meilleurs participants, une petite « révolution » en soit.

Le Deep Learning ou apprentissage profond

Le Deep Learning occupe aujourd’hui une place de premier plan dans la Recherche et le développement de l’IA et s’impose progressivement dans notre quotidien grâce aux percées technologiques de ces dernières années. Des assistants vocaux des géants de l’internet (Apple, Amazon et Google) à la reconnaissance d’image non conformes aux conditions d’utilisation de Facebook ou encore le tagging automatique de morceaux de musique, tous ces outils font appel à des techniques de Deep Learning.

La technique du Deep Learning se base sur la méthodologie informatique courante d’apprentissage supervisé, qui permet aux ordinateur d’analyser les expériences passées pour agir plus efficacement dans ses futures interactions. Cette phase initiale d’apprentissage consiste à soumettre la machine à d’innombrables cas de figures afin de lui apprendre a reconnaître le contenu des images.

Par exemple, pour qu’une machine puisse reconnaître une voiture, l’algorithme va enregistrer des paramètres en analysant les millions d’échantillons qui lui sont soumis (bords, couleur, formes, etc…) pour apprendre à reconnaître d’autres véhicules avec un taux de confiance élevé. Cet entrainement est nécessite  généralement l’utilisation de grands volumes de données pour obtenir des résultats pertinents et peut durer plusieurs jours ou semaines.

mdnet_

Le Deep Learning imite le fonctionnement du cerveau humain en utilisant un réseau de neurones artificielles composé de différentes couches qui effectuent chacune de petits calculs simples. L’objectif de cette architecture est d’être capable, d’une couche à l’autre, de réduire l’information pour aller à l’information essentielle contenue dans l’image. C’est de ce mode de fonctionnement par « couches » que provient la notion d’apprentissage « profond ».

L’exploitation automatisée d’images

L’efficacité des algorithmes de Deep Learning pour le traitement des images et s’avère être très prometteur, cette approche confère des capacités de reconnaissance visuelle aux machines qui surpassent désormais celles de l’homme, permettant d’exploiter le contenu d’importants volumes d’images et de vidéos.

« Peut-être que l’une des tâches les plus importantes prise en compte par l’apprentissage par machine est l’extraction automatique d’objets, tâche qui repose traditionnellement sur l’expertise humaine » Andrew Jenkins, Data scientist chez DigitalGlobe

Si l’exploitation automatique des images est devenu un sujet très populaire aujourd’hui, c’est notamment grâce à la capacité du Deep Learning à identifier et extraire automatiquement des objets (véhicules, matériel, infrastructures, etc…) ou individus, segmenter les images ou encore identifier des comportements suspects sur des zones de surveillance étendues.

Aujourd’hui, les publications scientifiques sur le sujet et les exemples d’applications ou cas d’usage ne manquent pas, la qualité des résultats obtenus nous donnent une idée plus précise des capacités étonnantes de ces outils « intelligents » pour l’exploitation d’important volumes de données images.

Google – Street View

Très avancé dans le développement de l’IA, Google a démontré de nombreux savoir-faire dans le développement du Deep learning pour extraire automatiquement des informations contenues dans des images.

C’est le cas notamment d’un algorithme présenté en 2014, capable d’identifier et transcrire les numéros de rue contenus dans les images de son service Street View avec une fiabilité de 97.84%. Cet algorithme a permis à Google d’extraire les numéros de rue sur toute la France moins d’une heure seulement et consolider ses bases adresses.

Lorsque l’on sait le potentiel que recèle Google Street View, on imagine très bien les possibilités offertes grâce aux innombrables informations visuelles de valeur (panneaux de signalisation, numéros de rue, infrastructures physiques, etc…) contenues dans les images pouvant être extraites afin de générer de l’information géolocalisée valorisée.

Facebook Connectivity Lab – Population mapping

Autre géant de l’internet qui n’est pas en reste sur les questions de l’intelligence artificielle, Facebook, avait surpris en 2016 avec cette publication sur la cartographie précise de la population mondiale en utilisant de l’imagerie satellitaire haute résolution de DigitalGlobe.

Pour créer sa carte de la population, Facebook s’est focalisé sur la reconnaissance des zones bâties en adaptant un moteur de reconnaissance visuelle basé sur le Deep Learning « entraîné » à détecter des bâtiments dans les images.

Le défi a été d’appliquer la méthode au monde entier et d’adapter les algorithmes d’apprentissage pour obtenir un résultat le plus fidèle possible. Le traitement de 14,6 milliards d’images combiné aux chiffres du recensement de chaque pays, ont permis de créer des données démographiques avec une résolution de 5m.

Digital Globe

La société DigitalGlobe a travaillé sur de nombreux projets faisant appel au Deep Learning et a publié ses études en la matière dans des articles documentés. Que ce soit pour la détection automatique de changement, la détection de piscines ou encore pour détecter des bâtiments dans des zones recluses, la précision des résultats parlent d’eux mêmes.

population-nigeria-sample-classifications
Détection automatique des zones peuplées au Nigeria DigitalGlobe

Pour entraîner ses algorithmes et consolider la fiabilité de ses résultats, la société n’a pas hésité à faire usage de sa plateforme de crowdsourcing Tomnod afin de rassembler des dizaines de milliers de données renseignées de manière fiable en seulement quelques jours.

La société propose aujourd’hui ses services en la matière via sa plateforme GBDX qui concentre à la fois ses archives images ainsi que les outils et algorithmes permettant d’extraire des données pertinentes.

Orbital Insight

La start-up californienne Orbital Insight utilise des algorithmes de Deep Learning pour monitorer l’affluence de plus de 55 000 zones de stationnement de magasins aux États-Unis par le biais d’images satellitaires afin d’en déduire leur performances de ventes.

Cette approche consiste à identifier et comptabiliser le nombre de véhicules sur les archives d’images de DigitalGlobe et d’Airbus DS. Les séries temporelles « normalisées » sont corrélées avec les tendances des ventes des enseignes et même parfois suivre leur cours en bourse. Le monitoring des parkings de nombreuses enseignes permet également de détecter plus globalement la santé de certains secteurs.

Spaceknow

Autre start-up californienne, Spaceknow ambitionne d’exploiter les petabytes d’images satellites de DigitalGlobe pour analyser le monde entier et détecter « l’activité humaine » grâce à l’intelligence artificielle.

La société se base sur une approche statistique et développe de véritables index commerciaux en étudiant des archives d’images satellites grâce à des algorithmes de Deep Learning. Certains index de la société sont directement transmis au Terminal Bloomerg, chargé d’informer les investisseurs de la croissance des zones industrielles en Chine.

Lancé par Spaceknow, le China Satellite Manufacturing Index (SMI) permet de monitorer plus de 6 000 sites industriels chinois. Non contente de faire parler d’elle, la jeune start-up s’est récemment appuyée sur ses analyses pour contredire les chiffres officiels du gouvernement chinois.

Descartes Labs – GeoVisual Search

geovisual research2.JPG

Le projet GeoVisual Search se base également sur des algorithmes de Deep Learning pour rechercher des images par similarité. Il s’agit donc d’un moteur de recherche d’images pour détecter des empreintes visuelles similaires classées par l’algorithme de Deep Leaning (ici les images Landsat, Planetscope, National Agriculture Imagery Program).

Contrairement aux poids lourds du secteur de l’IA, cette start-up ne bénéficie pas du même « capital » de données pour entraîner ses algorithmes, ce qui est encourageant quant à la capacité des start-ups à proposer solutions innovantes sans lien direct avec les GAFA.

Si le projet n’est actuellement qu’un démonstrateur technologique, les développeurs de Descartes Labs travaillent sur le moyen d’accroître la précision des résultats et se concentrent sur la détection d’objets de même échelle. Pour tester l’application c’est ici.

Airbus – TensorFlow

Airbus Defence and Space utilise des algorithmes pour la reconnaître automatiquement les nuages sur ses images satellites. Moins avancé que les GAFA (Google, Apple, Facebook, Amazon), Airbus n’est cependant pas en reste dans le domaine de l’IA, le groupe s’est récemment intéressé au Deep Learning par le biais de la plateforme TensorFlow afin d’optimiser ses résultats.

ads_610.jpg

TensorFlow est un framework de programmation pour le calcul numérique populaire qui a été rendu Open Source par Google en Novembre 2015. Devenu aujourd’hui un véritable outil de référence pour le Deep Learning, il est utilisé aussi bien dans la recherche qu’en entreprise que pour des applications en production.

Dans la phase de test menée par Airbus, le taux d’erreur s’est amélioré de 11% à seulement 3%. Airbus étend désormais l’analyse à de grands volumes d’images pour l’identification et l’extraction d’objets divers (tels que les avions).

Des prouesses, mais aussi des limites

Les évolutions technologiques de ces dernières années dans le domaine de l’IA laissent présager le meilleur comme le pire. Si certains y voient le remplacement de nombreux emplois, ou encore la future domination des machines sur l’homme, il faut garder à l’esprit qu’aussi « intelligentes » soit-elles, les machines sont aujourd’hui programmées  et entraînées pour accomplir des tâches précises mais sont encore incapables de faire preuve de discernement.

En effet, si les machines sont aujourd’hui capables de prouesses dans le domaine de la reconnaissance, elles ne savent toujours pas différencier le vrai du faux, ni de porter le moindre jugement sur une situation. Les ordinateurs ont également du mal à comprendre la tromperie et le sarcasme, ce qui peut conduire les algorithmes à détecter de fausses alarmes.

L’expérience vécue par l’OTAN lors du conflit du Kosovo a prouvé que les manœuvres de déception et l’usage approprié de leurres pouvait induire des erreurs d’interprétations affectant considérablement l’efficacité de frappes. Ce type de stratégie adverse pourraient tout autant tromper des algorithmes de détection automatiques avec de lourdes conséquences à la clef. Cette vision conforte le rôle de l’humain dans la chaîne d’analyse autant que dans la chaîne décision pour les années avenir.

Le cas du programme « Skynet » de la NSA

Un exemple concret provient sans nul doute du retour d’expérience de la National Security Agency (NSA) et de son IA développée pour identifier et traquer les terroristes. Sinistrement baptisée « Skynet » en référence au film de science fiction Terminator de James Cameron, l’IA permettait l’identification d’individus « terroristes » en se basant sur les métadonnées issues de cartes SIM.

Révélé par Edward Snowden en 2015, le programme étudiait les comportements des individus (visites régulières ou répétées de zones d’intérêt, type d’usage du téléphone) en se basant sur l’analyse des métadonnées de 55 millions de cartes SIM. Les algorithmes de Deep Learning permettaient de classer les individus en deux catégories, « innocent » ou « terroriste ». C’est notamment avec ces paramètres que des chauffeurs de taxi Pakistanais – qui passent généralement peu d’appels et se déplacent beaucoup la nuit – ont pu se retrouver dans le collimateur de la NSA.

Si cette approche probabiliste a su démontrer un taux relativement faible de détection de « faux positifs » (0.008% des cas selon l’estimation la plus optimiste de la NSA) ce qui serait acceptable pour des applications commerciales, les conséquences de la classification de Skynet sont tout autres, étant donné que l’agence utilisaient régulièrement les métadonnées de cartes SIM pour diriger des frappes ciblées. Appliqué à la population du Pakistan, ce taux d’erreur représenterait environ 15 000 personnes potentiellement incriminées à tord.

Transformations profondes et incertitudes

Si le rôle des machines intelligentes ne fait aujourd’hui aucun doute pour relever les défis qui nous attendent, une question demeure, c’est la place qu’elles occuperont au sein de nos structures de renseignement ou décisionnelles. Vont-elles transformer nos organisations ? Quelle sera la nature de leurs interactions avec les opérateurs humains ?

« Le plus grand problème du 21ème siècle sera de déterminer comment atteindre l’équilibre correct entre les humains et l’automatisation pour optimiser les résultats » Richard Boyd, PDG de SZL

L’opérateur humain devra être à même de comprendre les données résultantes d’un algorithme et d’interpréter leur véracité. La validation de ces informations ou non par l’opérateur permettra à la fois à la machine de continuer son apprentissage afin d’adapter ses réponses et à l’équipe de répondre à ses prérogatives.

L’intégration de l’IA comme un membre d’une équipe à part entière semble aujourd’hui être la voie privilégiée, la machine ayant généralement pour objectif de décharger l’analyste afin qu’il puisse se concentrer d’avantage à son travail d’analyse en s’acquittant de tâches complexes et répétitives. Cette approche promet des gains conséquents de productivité tout en limitant les risques d’erreurs, de nombreux efforts restent néanmoins à réaliser dans l’intégration de l’IA, pour garantir son accessibilité et faciliter l’exploitation de ses résultats par des utilisateurs qualifiés ou non.

La National Geospatial-Intelligence Agency (NGA) a récemment notifié des contrats pour 2 millions de dollars pour mener des recherches en ce sens et explorer la façon dont les humains et les machines peuvent collaborer dans un environnement riche en données.

D’innombrables perspectives pour le GEOINT

Malgré les défis culturels et logistiques, l’Intelligence Artificielle est en passe de devenir un outil indispensable dans le domaine du GEOINT. Les technologies ont atteint aujourd’hui un niveau de maturité suffisant pour répondre aux besoins prégnants des armées et des agences de renseignement. Le développement de l’IA et l’utilisation d’algorithmes d’apprentissage profond dans le domaine de la reconnaissance visuelle permet aujourd’hui de faire face aux flux de données de plus en plus importants auxquels ces organismes sont confrontés.

Si les GAFA sont et resteront – de part leurs investissements dans la Recherche et leur capital données – les ténors du secteur de l’IA, l’accessibilité des outils Open source et les innombrables ressources documentaires disponibles aujourd’hui sur internet sont un véritable accélérateur de l’innovation et ouvrent de nombreuses opportunités aux autres acteurs.

L’intelligence Artificielle se révèle être un véritable multiplicateur de force permettant d’apporter des gains significatifs dans le traitement, l’exploitation et la dissémination du renseignement et se démarque par la variété de ses applications dans le domaine du GEOINT. La capacité de disposer d’outils de confiance permettant d’extraire des données pertinentes des masses de données collectées par les armées sera un élément clé pour soutenir les opérations de demain.

Jean-Philippe Morisseau

 Bibliographie

  1. « Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks »  http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.682.9111&rep=rep1&type=pdf
  2. Laurent Lagneau, « M. Le Drian fait de l’intelligence artificielle un enjeu stratégique pour la défense » http://www.opex360.com/2017/02/17/m-le-drian-fait-de-lintelligence-artificielle-enjeu-strategique-pour-la-defense/
  3. Hocine Lourdani « La Maison Blanche prépare un futur où l’intelligence artificielle jouera un rôle majeur » https://www.france-science.org/La-Maison-Blanche-prepare-un-futur,8908.html
  4. Vincent Lalanne, « Big Data et intelligence artificielle » http://www.lesechos.fr/idees-debats/cercle/cercle-159119-big-data-et-intelligence-artificielle-un-peu-de-decryptage-pour-y-voir-plus-clair-2016028.php
  5. Manuel Alves, « Le deep learning pas à pas : les concepts » https://www.technologies-ebusiness.com/enjeux-et-tendances/le-deep-learning-pas-a-pas
  6. Andreas Gros, Tobias Tiecke, « Connecting the world with better maps » https://code.facebook.com/posts/1676452492623525/connecting-the-world-with-better-maps/
  7. Morgane Tual, « Comment le « deep learning » révolutionne l’intelligence artificielle » http://www.lemonde.fr/pixels/article/2015/07/24/comment-le-deep-learning-revolutionne-l-intelligence-artificielle_4695929_4408996.html#0FwgJXyQiWOASpFA.99
  8. Françoise De Blomac, « Recherche visuelle » http://decryptageo.fr/recherche-visuelle-2/
  9. Drouglazet Klervi, « Avec Spaceknow, l’intelligence artificielle analyse la Terre vue du ciel » http://www.usine-digitale.fr/article/sxsw-avec-spaceknow-l-intelligence-artificielle-analyse-la-terre-vue-du-ciel.N514709
  10. Guillaume Serries, « Comment Airbus utilise l’IA pour valoriser ses images satellites »
    http://www.zdnet.fr/actualites/comment-airbus-utilise-l-ia-pour-valoriser-ses-images-satellites-39851842.htm
  11. Airbus Media, « Artificial intelligence » http://www.airbusgroup.com/int/en/news-media/corporate-magazine/Forum-89/Artificial-Intelligence.html
  12. Lindsay Tilton Mitchell, « A bright future for GEOINT and machine learning » http://trajectorymagazine.com/got-geoint/item/2304-a-bright-future-for-geoint-and-machine-learning.html
  13. Boris Babenko, « Our Neural Net Dreams of Cars » https://orbitalinsight.com/neural-net-dreams-cars/
  14.  Alejandro Tauber, « Satellites and AI will bring real-time, real-world data to your phone » https://thenextweb.com/artificial-intelligence/2017/03/11/future-satellites-ai-smartphone/#.tnw_l5Yn8EWo
  15. Data Science Applications Team Digital Globe, « Detecting population centers in Nigeria » https://platform.digitalglobe.com/detecting-population-centers-nigeria/
  16. A. S. « Comment marche Skynet, le programme américain d’assassinats par drones ? » http://tempsreel.nouvelobs.com/les-internets/20151020.OBS7967/comment-marche-skynet-le-programme-americain-d-assassinats-par-drones.html
  17. NGA Press Realease, « NGA awards four contracts to enhance AI and automation » https://www.nga.mil/MediaRoom/PressReleases/Pages/BAA2017release.aspx

Une réflexion sur “GEOINT et Intelligence Artificielle: Une révolution annoncée

Laisser un commentaire