Blog d'actualités juridiques par Maître Thierry Vallat, avocat au Barreau de Paris (33 01 56 67 09 59) cabinet secondaire à Tallinn ISSN 2496-0837
Prédire où et quand un crime va survenir: la police l'avait rêvé, les logiciels de police prédictive comme CrimeScan ou PredPol le proposent.
Ringardisés les inspecteurs Columbo et autres détectives, place à l'ère du Minority report de Philippe K Dick, quand la police algorithmique arrive à stopper les criminels avant leur passage à l’acte.
Il s'agit en effet d'algorithmes auto-apprenant qui moulinent le type d'infraction, leur localisation et leur date. Après avoir déterminé les zones géographiques et les horaires où la commission de délits est la plus probable, les données sont transmises aux patrouilles de police afin d’empêcher leur commission. Bien entendu en amont, les concepteurs de ce Big Data de la sécurité publique ont collecté ici et là le maximum de données personnelles pour nourrir leur intelligence artificielle en les croisant avec les fichiers de police.
Utilisés pour la première fois à Los Angeles en Californie en 2013 où ils auraient permis de réduire les cambriolages et depuis très contestés, actuellement en Europe seulement l’Allemagne et l’Angleterre utilisent des systèmes de police prédictive: les allemands avec le logiciel PredPol et les anglais avec Matrix dans la région du Kent.
En France, tout profilage qui entraînerait une discrimination à l’égard de personnes physiques sur la base de données à caractère personnel qui sont par nature, particulièrement sensibles du point de vue des libertés et des droits fondamentaux, devrait être interdit.
La CNIL définit les algorithmes auto-apprenants comme des algorithmes au comportement évolutif dans le temps, en fonction des données qui leur ont été fournies. « Ces algorithmes « auto-apprenants » relèvent du domaine de recherche des systèmes experts et de l'« intelligence artificielle ». Ils sont utilisés dans un nombre croissant de domaines, allant de la prédiction du trafic routier à l'analyse d'images médicales ». https://www.cnil.fr/fr/definition/algorithme
Rappelons que le Conseil constitutionnel, dans une décision n°2018-765 DC en date du 12 juin 2018 (https://www.conseil-constitutionnel.fr/decision/2018/2018765DC.htm), s’est prononcé pour la première fois sur la question de l’usage des algorithmes auto-apprenants comme fondement d’une décision administrative individuelle. Trois conditions ont été posées :
- le traitement algorithmique et ses évolutions doivent être maîtrisés et doivent pouvoir être expliqués sous forme intelligible à la personne concernée ;
- toute décision administrative fondée sur un algorithme doit pouvoir faire l’objet d’un recours administratif ;
- l’algorithme ne doit pas porter sur des données sensibles (origine raciale ou ethnique, opinions politiques, convictions religieuses, philosophiques ou syndicale, données génétiques, biométriques, de santé ou relatives à la vie sexuelle ou l’orientation sexuelle d’une personne physique).
Au niveau local, plusieurs collectivités territoriales tentent de mettre en place des systèmes de "vidéosurveillance intelligente" dans l’objectif de renforcer le contrôle des espaces urbains. Marseille et son projet « Big data de la tranquillité publique » lancé en 2016 en est un des exemple les plus marquants (lire notre article Big Data pour la tranquillité publique). Ce projet a été contesté devant le tribunal administratif de la cité phocéenne par la LDH et la Quadrature du net.
Ainsi, si la police prédictive peut représenter un outil de modernisation de l’action des forces de l'ordre, elle attise en même temps un certain nombre de craintes eu égard aux risques qu’elle comporte : atteintes aux libertés fondamentales, faillibilité du système, discriminations etc.
La gendarmerie nationale, toujours en pointe de l'innovation, développe une plateforme d’anticipation nommée "PAVED" pour "plateforme d’analyse et de visualisation évolutive de la délinquance", Il s'agit d'une "plateforme d’analyse décisionnelle" basée sur le principe que les faits passés détermineraient principalement les faits futurs. La gendarmerie s’intéresse plus aux zones de commission des faits de délinquance qu'aux individus et vise donc, par l’analyse prédictive, les secteurs géographiques où se concentrent les délits avec deux composantes entrent dans cette analyse : la saisonnalité et la tendance des faits.
Comme a pu s'interroger Camille Gosselin dans son article sur la police prédictive (https://www.iau-idf.fr/fileadmin/NewEtudes/Etude_1797/Etude_Police_Predictive_V5.pdf) "Au sein des forces de sécurité, l’avenir de l’analyse de la délinquance reposerait-elle principalement sur l’usage d’algorithmes ? Après la police de l’information tournée vers la gestion, la circulation des données et l’usage des technologies de l’information, la police algorithmique serait-elle l’aboutissement « d’une police intelligente », qui aurait su tirer profit des big data pour optimiser ses services face à l’insécurité ? "
Et c'est alors que ce type de dispositif semble avoir le vent en poupe que la police de Los Angeles vient d'annoncer le 21 avril 2020 qu'elle mettait un terme à son programme (lire dans le Los Angeles Times), officiellement pour des raisons budgétaires (affectation des ressources au Covid19). Mais il semblerait que les résultats finalement décevants et potentiellement stigmatisants pour certaines communautés comme les afro-américains, aient eu raison, pour le moment, de PredPol, lequel a également été abandonné par plusieurs autres services de police sur le territoire américain.
Alors véritable panacée ou miroir aux alouettes cette police algorithmique ? En tout état de cause, il convient de rester très vigilant aux projets en cours en France afin que la protection de nos si précieuses données personnelles et le respect de nos libertés individuelles ne soient pas sacrifiés sur l'autel de la sécurité publique à tout prix.
Me Thierry Vallat a été interrogé par Marianne le 6 avril 2018 sur la police prédictive http://L'ère de la police prédictive
(crédits dessin: Cabinet Thierry Vallat)