L’IA et les « nouvelles technologies » au secours de la sécurité

Surveillance vidéo « intelligente », systèmes de prédiction des actes délictueux et autres outils faisant appel à l’IA sont de plus en plus utilisés par les forces de police. Le projet IAAP, conduit par une équipe d’IMT Atlantique, s’interroge sur l’efficacité de ces dispositifs et les changements qu’ils induisent.

IAAP pour Intelligence Artificielle et Activité Policière

Dans l’arsenal des forces de police, les technologies numériques - et en particulier l’IA - occupent une place croissante. Vidéo-surveillance « intelligente », cartographie prédictive, demain peut-être reconnaissance faciale : autant d’outils censés faciliter le travail policier. Mais ces usages récents soulèvent aussi de multiples questions. Ils font l’objet d’un travail de recherche baptisé IAAP pour Intelligence Artificielle et Activité Policière, conduit par Florent Castagnino, maître de conférences en sociologie à IMT Atlantique et coordinateur du projet.

Florent Castagnino
Florent Castagnino

Le développement de ces nouveaux outils, en effet, n’est pas neutre. « On peut se demander par exemple si le recours à l’intelligence artificielle et aux algorithmes n’influe pas sur la perception même des actes de délinquance, voire leur définition, observe Florent Castagnino. L’un des risques, c’est la focalisation de l’action policière vers les crimes et délits bien ajustés à un traitement algorithmiques. » D’autres interrogations portent notamment sur le virage de la stratégie policière vers les tentatives de prédiction des actes délictueux. Ou encore sur l’irruption, via les outils « high tech », de nouveaux acteurs - sociétés d’informatique, cabinets de conseil, start-up - dans le champ de la sécurité publique. Sans oublier les enjeux en matière de libertés individuelles et de protection des données personnelles, dans un contexte général de présence sans cesse accrue des algorithmes dans la société.

Lancé en juin 2022 pour une durée de 4 ans, le projet IAAP bénéficie d’un financement  de l'Agence nationale de la recherche (ANR) à hauteur de 300.000 euros. Au sein d’IMT Atlantique, il repose sur une équipe de chercheurs du département interdisciplinaire de sciences sociales (DI2S) et du département Science des données (DSD)  à laquelle sont également associés des chercheurs du Centre de recherche sociologique sur le droit et les institutions pénales (Cesdip) de l’Université Versailles-Saint-Quentin, et du Cresppa-CSU (Centre de recherches sociologiques et politiques de Paris/Cultures et sociétés urbaines) de l’Université Paris-8 (des échanges ont également lieu avec l’Université de Montréal et l’Institut National de la Recherche Scientifique du Québec). Les travaux s’appuient notamment sur une étude comparative menée dans deux grandes deux villes de l’Hexagone et deux autres au Québec, chacune d’elles ayant recours, sous des formes variées, aux technologies numériques à des fins de sécurité.

L’efficacité en question

Le projet s’intéresse particulièrement à deux technologies qui occupent aujourd’hui le devant de la scène en matière de sécurité : d’une part la surveillance de l’espace public (en particulier les voies de circulation et les transports en commun) à l’aide de caméras vidéo, afin de détecter la survenue d’événements particuliers ; ensuite, les outils de cartographie prédictive s’appuyant sur l’IA et l’apprentissage machine - à l’instar du dispositif PredPol, aux Etats-Unis, qui permet d’orienter les patrouilles de police vers les « points chauds ». 
Ces deux types d’outils visent avant tout à « optimiser » la ressource policière. L’ajout de couches logicielles permet de les enrichir de différentes fonctionnalités (comme la reconnaissance faciale - à ce jour interdite en France) et d’automatiser certaines tâches. Cette automatisation conduit d’ailleurs à un changement d’échelle et de nature du travail sécuritaire : au policier « de terrain » pourrait succéder le praticien capable de jongler avec les technologies numériques. 
L’apport de ces technologies est-il réellement efficace ? Elles suscitent en tout cas de nombreuses réserves. Les policiers, par exemple, redoutent qu’elles ne servent à « rationaliser » leur activité - en fournissant à leur hiérarchie des indicateurs détaillés sur leur action. La société civile, de son côté, s’inquiète des risques pour la protection des données personnelles et des biais discriminatoires. « Sans compter que, du point de vue des connaissances en matière de criminologie, nous restons plutôt sur notre faim », ajoute le chercheur.
Dans la pratique, les premiers résultats ne sont pas très convaincants. Nombre d’études montrent que le recours à ces outils, même si le dispositif est visible, ne se traduit pas par une baisse notable de la criminalité : « L’installation de caméras vidéo dans une zone donnée n’entraîne, en moyenne, qu’une diminution de l’ordre de 10 % de la probabilité d’un crime », note Florent Castagnino.

L’algorithme et les contraintes de l’apprentissage

Face à ce constat, les autorités ont souvent tendance à pousser plus loin la logique, et à augmenter leurs investissements : caméras plus nombreuses, équipements plus performants, multiplication des systèmes d’alerte automatique… « Malgré ces efforts, les résultats de la vidéosurveillance classique restent inégaux selon les types de crimes et lieux de commission, observe Florent Castagnino. Dans les parkings vidéosurveillés, la probabilité d’occurrence des actes délictueux baisse de l’ordre de 37 %. Sur vidéosurveillance algorithmique, la détection d’un franchissement de zone fonctionne assez bien. Mais certains incidents ne sont pas détectés, des alertes se déclenchent de façon erronée… En réalité, tout dépend de la technique d’apprentissage utilisée, des critères retenus pour les alertes - chute d’une personne, densité, bagage abandonné… L’algorithme doit apprendre et progresser peu à peu. » Se pose dès lors la question de la durée de conservation des images. Aujourd’hui limitée légalement à 30 jours, elle nécessite de disposer de serveurs de grande capacité, ce qui fait que les images sont en général écrasées au bout de quelques jours seulement.

La « différence » peut devenir suspecte

Pour le moment, les coûts sont très élevés pour des résultats mitigés. « Jusqu’à présent,  les enquêtes internationales convergent et indiquent que la vidéo-surveillance « classique » n’est vraiment utilisée et probante que dans 1,5 à 3 % des enquêtes ou faits de voie publique, pointe Florent Castagnino. L’apport de l’IA va-t-il vraiment la rendre plus performante ? Ce n’est pas certain. » Quant à la prédiction d’actes délictueux, elle se heurte d’abord à une question de fond : qu’est-ce qu’un comportement suspect ? « C’est très subjectif, constate le chercheur. L’algorithme mémorise des schémas comportementaux récurrents. Résultat, tout comportement inhabituel d’un point de vue statistique, même s’il n’est pas dangereux ni illicite, risque d’apparaître comme suspect. Bref, c’est la différence qui devient suspecte. Inversement, pour l’algorithme, des points de deal réguliers peuvent devenir la norme. » En réalité, il faudra du temps pour bien mesurer les effets de ces outils sur l’activité policière.
Une autre piste de travail pour le projet porte sur la reconfiguration du marché de la sécurité privée, avec en perspective l’émergence de « safe cities ». Sur ce marché, à côté des offres d’entreprises traditionnelles de la sécurité et de la défense, on voit arriver des acteurs de la tech (y compris des start-up) avec des outils qui viennent remplacer ou affiner l’analyse pixellique, grâce à des systèmes d’apprentissage machine (notamment pour faire du comptage, de la détection, de la visualisation).
Le projet IAAP ne vise pas seulement à produire de la connaissance sur ces différents sujets : à terme, les chercheurs prévoient aussi de formuler des préconisations à l’intention des forces de police : mieux distinguer, par exemple, les facteurs criminogènes, éviter les risques d’erreur induits par les algorithmes - comme le ciblage excessif de telle ou telle catégorie de personnes – et y renoncer quand ils sont trop importants… « En matière de sécurité publique, même si l’IA peut être très utile dans certains cas, il n’y a pas d’effet magique à en attendre, estime Florent Castagnino. En définitive, le développement de ces outils doit être une occasion de repenser collectivement la priorisation des missions de la police. ».

Publié le 06.01.2025

par Fabienne MILLET-DEHILLERIN

Témoignages associés
Energy Efficiency Manager chez STX France
Data Scientist chez Micropole
Doctorant en robotique au CEA
Département automatique, productique et informatiq…
Responsable R&D et innovation HENGEL Industrie
Responsable du département systèmes énergétiques e…
Responsable du département automatique, productiqu…