Loi J.O 2024 : quand l’IA chahute les libertés individuelles »

Téléchargez l’article en version PDF.

LES RÉSERVES DE LA C.N.I.L. CONCERNANT LE PROJET DE LOI

Le texte avait alors été soumis à la consultation de la Commission Nationale de l’Informatique et des libertés (C.N.I.L.) qui s’était prononcée le 8 décembre 2022, émettant des réserves sur certains de ces dispositifs, notamment en raison d’atteintes possibles aux libertés individuelles.
Parmi ces dispositifs, la C.N.I.L. avait notamment porté une attention toute particulière aux innovations concernant la lutte contre le dopage, à la présence de scanners corporels aux entrées des enceintes sportives, à l’extension des dispositifs de surveillance à certaines fans-zones et aux participants aux grands événements. Elle s’était également attentivement penchée sur la mise en conformité du Code de la Sécurité Intérieure avec le Règlement Général sur la Protection des Données1 (R.G.P.D.) et la Loi du 6 janvier 19782.

En outre, elle n’avait pas manqué d’examiner l’une des innovations majeures du projet qui instaurait l’utilisation de traitements algorithmiques sur les images afin de détecter des événements susceptibles de menacer la sécurité des personnes.
La C.N.I.L. relevait ainsi plusieurs enjeux majeurs sur la protection des données et la vie privée des personnes.
Apportant quelques amendements au projet et renforçant le contrôle de la C.N.I.L., les sénateurs l’ont finalement adopté en commission, matérialisant ainsi un véritable « tournant » : l’intelligence artificielle appliquée à la surveillance de l’espace public fait ainsi son apparition dans la législation française avec l’entrée en vigueur de la Loi du 19 mai 20233 relative aux Jeux Olympiques et Paralympiques de 2024.

 

L’INTRODUCTION DE LA NOTION D’ÉVÉNEMENTS PRÉDÉTERMINÉS DANS
LA LÉGISLATION FRANÇAISE

Cette Loi autorise désormais l’utilisation de traitements algorithmiques sur les images captées par des dispositifs de vidéoprotection ou par  des caméras installées sur des aéronefs, notamment les drones, dans certains lieux publics, afin de détecter et de signaler en temps réels des événements prédéterminés.
Ces « événements prédéterminés » sont définis par le décret du 28 août 20234 et visent les situations qui seront repérées automatiquement par le système, en ce qu’ils sont susceptibles de présenter ou de révéler un risque d’acte de terrorisme ou d’atteinte grave à la sécurité des personnes : présence d’objets abandonnés, présence ou utilisation d’armes, non-respect par une personne ou un véhicule du sens de circulation commun, franchissement ou présence d’une personne ou d’un véhicule dans une zone interdite ou sensible, présence d’une personne au sol à la suite d’une chute, mouvement de foule, densité trop importante de personnes ou départs de feux.

Le décret désigne également les personnels autorisés à accéder aux signalements du traitement : les agents de la police nationale, les militaires de la gendarmerie nationale, les personnels des services d’incendie et de secours, les agents de police municipale et les agents des services internes de sécurité de la SNCF et de la RATP ; ces personnels devant être individuellement désignés et spécialement habilités par les responsables compétents et devant bénéficier d’une formation en matière de protection des données à caractère personnel.

Ils procéderont ainsi aux contrôles des signalements du traitement afin d’infirmer ou de confirmer les événements signalés et de déterminer les suites à y apporter.

 

L’ÉVOLUTION DU CADRE JURIDIQUE DE LA VIDÉOPROTECTION

Jusque-là, l’utilisation de caméras dotées de logiciels de traitement automatisé d’images dans l’espace public répondait exclusivement à une finalité statistique, produisant des analyses en temps réel, à partir de données anonymes de fréquentation de certains lieux.
La vidéoprotection a longtemps été régie par le Code de la Sécurité Intérieure (C.S.I.) ou la Loi « Informatique et libertés », selon que les systèmes étaient définis comme des enregistrements visuels ou qu’ils permettaient d’identifier des personnes physiques.
Mais en 2016, le Règlement Général sur la Protection des Données (R.G.P.D.) et la directive (UE) « police-justice » ont conféré à la notion de « traitement » une acceptation bien plus large, intégrant les enregistrements visuels de la vidéoprotection et la consultation d’images captées par des caméras de vidéoprotection dans la définition des traitements de données régis par le droit européen.
La Loi J.O. 2024 est ainsi venue mettre en conformité le C.S.I. avec le droit issu de l’Union Européenne, alourdissant dorénavant la procédure de mise en œuvre des systèmes de vidéoprotection : autorisation préfectorale, après avis motivé de la C.N.I.L., si la vidéoprotection recourt à un traitement de données personnelles intéressant la sécurité publique ou ayant pour objet la recherche, la constatation ou la poursuite d’infractions pénales.
Le droit des personnes concernées par le traitement de leurs données personnelles est ainsi renforcé, en théorie.
Car il semble particulièrement difficile d’imaginer les personnes ainsi filmées dans des espaces publics s’opposer au traitement de leur image.
Le Décret du 27 novembre 202310 a donc tout naturellement neutralisé le droit d’opposition, précisant que ce droit11 ne s’applique pas aux traitements en question.

 

LES GARANTIES PRÉVUES PAR LA LOI J.O. 2024

Ainsi, si la Loi « J.O. » du 19 mai 2023 n’autorise l’utilisation de l’intelligence artificielle qu’à titre expérimental, pour certains évènements spécifiques, en limitant la durée de son application au 31 mars 2025, et en prévoyant l’absence de décision automatique, elle autorise néanmoins l’utilisation de caméras augmentées pour détecter des évènements pré-identifiés.
En outre, elle prévoit que « lorsque le traitement algorithmique employé repose sur un apprentissage, des garanties sont apportées afin que les données d’apprentissage, de validation et de test choisies soient pertinentes, adéquates et représentatives. Leur traitement doit être loyal et éthique, reposer sur des critères objectifs et permettre d’identifier et de prévenir l’occurrence de biais et d’erreurs. Ces données font l’objet de mesures de sécurisation appropriées ».

Les notions de pertinence, d’adéquation et de loyauté du traitement posent question quant aux limites qui seront posées, faisant naître quelques réserves liées au risque d’une appréciation parfois arbitraire.
L’expérimentation envisagée par le texte visant à renforcer la sécurité des événements culturels, récréatifs et sportifs, tout événement « particulièrement exposé à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes » pourrait donc être surveillé par la vidéoprotection intelligente jusqu’en 2025.
Notons que les sénateurs ont supprimé la notion d’« intelligence artificielle » de la loi, « car celle-ci n’existe pas aujourd’hui dans le corpus juridique français et est en cours de définition au niveau européen » dit l’amendement, qui propose plutôt le terme de « traitements algorithmiques ». Dont acte.

 

CONCLUSION

Traitements algorithmiques ou intelligence artificielle, comment appréhender le développement de ces nouvelles technologies de détection automatique de comportements prédéterminés?
La C.N.I.L. y voit un véritable bouleversement, prônant l’interdiction de telles mesures, et n’envisageant leur autorisation qu’à de très rares exceptions.
La réticence de la Commission se fait l’écho de nos propres préoccupations : quelles dérives l’introduction de l’intelligence artificielle et la prédétermination de certains comportements risquent-elles de générer ? Où convient-t-il de positionner la frontière permettant de déterminer les éléments qui peuvent être confiés à notre technologie, au risque de préconditionner notre appréhension des faits, et ceux devant relever de l’appréciation humaine ?

Dans ce contexte, comment ne pas faire référence à la nouvelle de Philip K. Dick, « The Minority Report », adaptée au cinéma par Steven Spielberg : des êtres mutants dotés de dons de précognition, capables de visualiser des scènes de crimes par anticipation, et permettant aux forces de l’ordre d’appréhender les futurs criminels avant la commission de leurs actes. Cette œuvre demeurera-t-elle une dystopie ou s’avérera-t-elle dans un futur plus ou moins proche une troublante œuvre anticipatoire ?

© Article rédigé par votre équipe VNCA.

Téléchargez l’article en PDF.