L’essor du numérique a littéralement transformé le monde du renseignement, amenant de nouvelles façons d’envisager ce dernier en termes de collecte, d’analyse mais aussi conceptuellement. De nouvelles méthodes et disciplines ont vu le jour ces dernières années pour optimiser l’efficacité du renseignement, face à l’explosion des volumes de données générés par notre société de l’information et par la multiplication des capteurs. Ce besoin s’est accru dans la guerre contre le terrorisme lancée par Washington dans le contexte post 11 septembre.

Cette révolution numérique a déclenché une ère de création de la connaissance sans précédent dans l’histoire de l’humanité, permettant à chaque individu de créer et échanger des contenus de tout types, générant ainsi des masses d’informations considérables que les services de renseignement se sont mis en tête d’appréhender pour étayer leurs analyses. Si cette constante massification des données complexifie la donne, elle a ouvert en parallèle de nombreuses perspectives favorisant le développement de nouvelles disciplines et méthodes pour optimiser les analyses, prônant une agrégation de plus en plus orientée multi-sources et favorisant une plus grande transversalité inter-services.

Le concept de l’information dominance, qui domine la pensée américaine du renseignement au milieu des années 90 va permettre à des disciplines telles que le Geospatial Intelligence (GEOINT) de se structurer au sein d’une agence éponyme (la NGA) et de rappeler au monde que la géographie reste un moyen privilégié pour accéder à cette supériorité informationnelle tant recherchée, confortant ainsi cette dernière dans son indéniable rôle de synthèse, et permettant de revoir le concept au prisme de la Geospatial Dominance. Si cet aspect à aujourd’hui bien été pris en compte par la communauté du renseignement, la principale difficulté réside dans la capacité des infrastructures à intégrer des masses de données variées et toujours plus conséquentes ainsi que de faire évoluer leurs compétences et outils pour appréhender plus efficacement ces nouveaux changements.

Un nouveau paradigme

L’ère de la « data » qui a émergée avec l’essor d’Internet a ouvert de nouvelles opportunités, permettant à la fois à la communauté du renseignement de capter une profusion de données grâce aux nouvelles technologies numériques, comme d’adapter leurs processus de production du renseignement pour répondre à des besoins toujours plus variés et bien souvent, dans des temps de plus en plus contraints pour suivre le tempo des opérations.

Car sur le plan tactique le temps est à l’action, l’engagement des Etats-Unis dans les conflits Afghan (2001) et Irakien (2003) va permettre le déploiement de moyens sans commune mesure pour capter ces nouvelles autoroutes de l’information. Des agences comme la National Security Agency (NSA) vont par exemple mettre sur écoute des pays entiers (programme MYSTIC), accéder aux innombrables contenus hébergés par les géants du web (programme PRISM) et mettre en vol une véritable armada de drones ayant la capacité de capter des flux vidéo en temps réel, et avec pour certains, la capacité de collecter des signaux GSM en vol. Ce soudain accroissement du volume d’informations collectés au quotidien a accru la pression sur les agences de renseignement pour transformer les bits de données en « actionnable intelligence » (comprendre renseignement à fin d’action) et soutenir la guerre contre le terrorisme.

ABI

En pleine révolution numérique, ce nouveau contexte va dynamiser le domaine du renseignement et stimuler l’innovation pour à la fois optimiser les méthodes d’analyse et automatiser un maximum le processus de production. Cette révolution va notamment conduire à la réduction de la boucle du renseignement, au risque parfois de dériver vers des pratiques discutables, telles que les missions de ciblage sur cartes SIM menées par la Geocell  durant cette période.

La révolution « data-culturelle »

Tournée vers un concept de collecte totale, la NSA a su surfer sur cette révolution numérique pour avaler des volumes de données toujours plus dantesques, affichant clairement sa stratégie, qui consiste à collecter la botte de foin avant d’y trouver l’aiguille qui s’y cache. Seulement l’exploitation comme l’exploration de ces milliards de documents et de pixels représente un challenge complexe face auquel l’ensemble de la communauté du renseignement est confrontée. Un challenge pour lequel la plupart des outils d’analyse « traditionnels » sont souvent inadaptés, voir dépassés, poussant à repenser certains concepts comme de développer de nouvelles approches et outils d’analyse.

01.JPG

Ce phénomène de « data-isation » du renseignement n’est pas isolé, il touche de nombreux métiers et soulève de nombreuses questions sur la traditionnelle structure en silo des organisations comme à la capacité de traiter des données de nature très diverses pouvant être structurées ou non. Pour faire émerger de la valeur de ces données, il faut désormais intégrer la capacité d’apprendre collectivement et d’évoluer de manière continue avec chaque nouvelle évolution technologique et surtout armer les personnels compétents d’outils adaptés, complets, ergonomiques et suffisamment puissants pour explorer l’océan de données qui s’offre désormais à leurs yeux. C’est dans ce contexte que la géographie va revenir sur le devant de la scène et s’immiscer dans le quotidien de nombreux analystes pour amener du sens à leurs analyses.

La géographie au cœur de cette révolution

Les géographes ont longtemps véhiculé l’idée qu’une donnée ne peut être géographique que si elle permet de répondre à une problématique géographique. Cette vision est aujourd’hui bouleversée par les nouvelles technologies, la géographie a largement bénéficié de la vague internet et de la démocratisation de la cartographie web, des dispositifs de géolocalisation, du géocodage ainsi que de la multiplication des capteurs. Qu’elles concernent des faits, caractérisent des objets matériels ou des individus, la plupart des données produites de nos jours possèdent une composante géographique, faisant de la géographie un dénominateur commun pour explorer ou analyser d’innombrables informations et d’accroître les possibilités d’analyse.

« Toute donnée à un intérêt potentiel pour un questionnement géographique » Thierry Joliveau, Enseignant-chercheur en géographie à l’Université Jean Monnet de Saint-Etienne

04.jpg

Différents outils successifs ont permis d’arriver à cet état de faits, du développement des systèmes d’information géographiques à l’émergence de la cartographie sur internet, le périmètre de la géographie s’est élargi et s’est immiscé dans le quotidien de millions d’utilisateurs, permettant ainsi à la géographie de jouer un rôle clé dans l’accessibilité de l’information. Les interfaces cartographiques servent avant tout à naviguer et explorer les données mises à disposition de l’analyste, sans s’encombrer de logiques institutionnelles ou thématiques. Cette approche transverse prône l’ouverture et le décloisonnement des référentiels de données de sources potentiellement très diverses.

C’est dans ce cadre que la discipline du GEOINT va monter en puissance aux Etats-Unis dès la fin des années 90. Véritable discipline de synthèse permettant de contextualiser des informations d’origines variées en les fusionnant sur un référentiel géographique commun, le GEOINT prône pour une plus grande transversalité et facilite l’élaboration d’analyses croisées afin de corréler des informations autrefois cantonnées à leurs silos d’appartenance et accroître l’efficacité du renseignement.

Nouveaux défis, nouveaux concepts

Au-delà des dimensions spatiales et temporelles que permet d’explorer le GEOINT, de nouvelles techniques vont permettre de tirer profit des importants volumes de données collectés par la communauté du renseignement. Ces dernières vont permettre de valoriser de nouvelles composantes plus adaptées aux nouvelles menaces, telles que les relations et l’activité entre différents objets d’analyse.

03.jpg

C’est le cas du concept de l’Object-Based Production (OBP), qui consiste à caractériser de manière détaillée l’environnement en référençant les éléments connus dans l’espace. Réduit à sa plus simple expression, l’OBP est un objet conceptuel pouvant représenter des personnes, des lieux ou autres entités. Cette représentation des différentes données en tant « qu’objets » permet de mieux appréhender leur nature, leurs relations ou encore les associations existantes entre les objets, faisant de chacun de ces objets un point de convergence unique. Il devient alors beaucoup plus facile pour l’analyste de comprendre et de catégoriser les objets, souvent au travers d’un simple examen de leurs attributs ou de leur situation géographique.

« L’espace n’est pas une donnée morte ou figée, il change sans cesse et interagit en permanence et peut être considéré comme un acteur à part entière » Paul-David Régnier, auteur du Dictionnaire de géographie militaire (2008)

OBP

Avec cette approche, la récupération de toutes les informations disponibles sur une personne, un lieu ou tout autre objet se voit littéralement simplifiée, ouvrant ainsi la porte à plus de transversalité et plus d’efficacité. Chaque objet devient ainsi le point de départ pour découvrir et explorer les informations qui lui sont rattachées et produites par les différents services.

Bien que simple en apparence, l’approche de l’OBP constitue pourtant un changement révolutionnaire dans la manière dont la communauté du renseignement organise et structure l’information, et ce plus particulièrement pour l’analyste qui gagne non seulement un temps précieux mais qui de plus, peut aisément compléter les informations en ajoutant des instructions supplémentaires au fur et à mesure que de nouvelles connaissances concernant l’objet sont découvertes. Cette approche permet en outre aux organisations d’intégrer plus efficacement la capacité d’apprendre et d’évoluer collectivement à chaque interaction.

Chercher des inconnus, inconnus

Si l’OBP permet à la communauté du renseignement de cartographier efficacement ce qui est connu, la doctrine de l’Activity Based Intelligence (ABI) va permettre de tirer profit des imposantes masses de données collectées pour se focaliser sur ce qui est encore inconnu. L’ABI permet de caractériser un ennemi en fonction de son activité et de son comportement. Largement influencé par la guerre contre le terrorisme lancée au début des années 2000, cette nouvelle philosophie va rapidement s’imposer dans l’école de pensée du renseignement américain et faire ses premières armes en opérations.

« Dans des environnements où il n’existe aucune différence visuelle entre ami et ennemi, c’est par leurs actions que les ennemis se rendent visibles »

Letitia Long, alors directrice de la National Geospatial-Intelligence Agency (NGA) de 2010 à 2014 décrivait ce changement d’approche en ces termes  : Le renseignement c’est comme chercher quelque chose dans un grand océan, quelque chose qui est peut-être un poisson, ou peut-être pas. A vrai dire, il peut s’agir de n’importe quoi, quelque chose de potentiellement important, mais dont on ne sait même pas pour commencer si ça existe.[…] Mais ce que nous savons, c’est que nous devons le trouver, l’identifier et comprendre ce qui le rattache à d’autres objets importants à nos yeux.

Si pendant la guerre froide les services de renseignement savaient la plupart du temps ce qu’ils cherchaient (matériels militaires, sites stratégiques armes de destruction massives), dans le cadre d’un conflit contre-insurrectionnel, les recherches sont beaucoup plus complexes car les analystes ne savent pas toujours ce qu’ils cherchent, l’étude de l’activité est alors apparue comme déterminante pour identifier des ennemis en fonction de leur actions ou de leurs relations. En d’autres termes, l’ABI vise à chercher des inconnus, inconnus, en étudiant des « pattern of life » (comprendre modèle de vie ou de comportement) afin d’identifier des « anomalies » à grand renfort de données massives et d’algorithmes pour traiter non plus des sites d’intérêt stratégique ou militaire, mais des individus et leurs interactions avec leur environnement.

13
Quartier proche d’Al Mahmudiyah, en Irak, où la plupart des transports se font à pied. Des chemins de promenade simulés ont été exploités pour découvrir des réseaux

Les études menées dans le cadre de l’ABI se basent généralement sur l’analyse de données fusionnées sur de longs intervalles de temps (Wide Area Motion Imaging – WAMI, et SIGINT sont généralement privilégiés) permettant de suivre un ou plusieurs individus à travers différents réseaux sociaux pour établir des modèles comportementaux standards et identifier un grand nombre de pistes, comme de déterminer des emplacements spécifiques visités (par exemple, des bâtiments dans un environnement urbain). Ces études permettent en outre de déterminer la nature et la fonction de certains emplacements mais aussi de déterminer l’importance d’un réseau.

Vers une nouvelle génération d’outils « intelligents »

Développer des outils capables d’appréhender la complexité de ces nouveaux enjeux n’est pas une mince affaire. Dans un contexte toujours plus riche en données de toutes sortes, les analystes ont aujourd’hui tendance à se spécialiser d’avantage dans le traitement et l’intégration de ces dernières avant de pouvoir réellement en exploiter la valeur. Un phénomène observable depuis quelques années dans de nombreux services qui souligne les limites liées au « big data », pour trier, structurer les données afin de produire des analyses pertinentes dans des temps raisonnables.

Si la représentation visuelle des informations joue un rôle central pour permettre aux analystes d’explorer les données à travers l’espace, le temps ou leurs relations, ces derniers ont également besoin d’une infrastructure complète et puissante pour intégrer, indexer et fusionner efficacement l’ensemble des données nécessaires à leur analyse. Les utilisateurs attendent aujourd’hui des outils adaptés à leur quotidien, capable à la fois de s’acquitter de tâches répétitives et potentiellement gourmandes en ressources informatiques (souvent peu valorisantes) pour trier et corréler les données, gérer de multiples langages, formats et bases de données, tout en restant souple d’utilisation.

Dans cette nébuleuse de fonctionnalités et de données, l’ergonomie occupe une place de plus en plus importante, mais la pierre angulaire de ces nouveaux outils repose souvent sur les algorithmes « intelligents », capables d’automatiser un nombre croissant de processus et de soutenir l’analyste. Ces algorithmes vont notamment permettre de lui suggérer des liens de corrélation possibles entre différentes informations, de supprimer les doublons, de faire des analyses sémantiques ou encore de géolocaliser des informations utiles à son analyse. Cette vision d’une plateforme à la fois collaborative et intégrée, regroupant aussi bien les processus métiers que des fonctionnalités variées, traditionnellement éclatées entre plusieurs éditeurs semble aujourd’hui bien identifiée par la communauté du renseignement, mais tarde encore à se matérialiser dans l’écosystème industriel français.

Jean-Philippe Morisseau

 

Laisser un commentaire