Projet de loi JO 2024 : la course accélérée à la surveillance de masse

PAR Nohra Boukara
ET Antoine Bon
SAF Strasbourg

Trois caméras de vidéo surveillance sur les marches d’un podium

La perspective de l’organisation à Paris des Jeux olympiques et paralympiques en 2024 offre au Gouvernement français l’occasion de faire un saut en hauteur dans la mise en œuvre de techniques de surveillance. Le projet de loi discuté en prévision de ces évènements exceptionnels introduit notamment « l’expérimentation » de la vidéosurveillance automatisée (VSA) au champ d’application territorial et temporel beaucoup plus large.

On assiste depuis de nombreuses années au développement du recours à des systèmes des captations d’images (vidéosurveillance, drones, caméras mobiles). En présence d’une masse considérable de données collectées, la suite logique pour un Gouvernement en quête de rationalisation et d’efficacité est l’utilisation de traitements automatisés désignés sous l’expression d’« intelligence artificielle ».
La reconnaissance faciale dans l’espace public, permise par cette technologie, hier regardée comme un repoussoir, devient un outil indispensable pour les responsables politiques gagnés par l’obsession sécuritaire. Ainsi, un rapport du Sénat du 10 mai 2022 ouvre-t-il la voie à l’adoption de cette technique sous couvert de la nécessité de l’encadrer par l’expérimentation1.
Nos libertés étant gravement mises en péril par le recours aveugle et sans réflexion aux technologies de surveillance très intrusives, le SAF par sa commission numérique considère que nous devons nous emparer des évolutions fondamentales en cours, en nous formant et en exerçant des recours nécessaires.
Le SAF a d’ailleurs organisé un colloque le 24 mars 2023 à Strasbourg2 intitulé Biométrie : être numérisé à son corps défendant pour mieux en appréhender les enjeux et permettre aux avocats de se saisir de moyens juridiques de nature à lutter contre l’invasion des technologies de contrôle et de surveillance des citoyens.

Un projet de loi au titre trompeur
Le projet de loi JO 2024 du Gouvernement a été soumis le 22 décembre au Parlement en procédure accélérée lequel été adopté ensuite en première lecture au Sénat le 31 janvier 2023 avant d’être renvoyé à l’Assemblée nationale le 1er février pour seconde lecture, prévue courant mars3. L’intitulé de ce projet de loi est trompeur : il ne concerne évidemment pas uniquement les Jeux olympiques et paralympiques mais vise à adopter plusieurs dispositions pérennes qui renforcent la logique sécuritaire au détriment des droits fondamentaux, tels que l’institution d’un avis conforme de l’Administration pour l’emploi de personnes lors de grands évènements, là où un simple avis suffisait (article 10) ; l’usage de scanners corporels pour filtrer les entrées (article 11), etc.
La mesure la plus saillante et la plus médiatisée de ce projet est l’expérimentation de la vidéosurveillance automatisée ou algorithmique (VSA) prévue à l’article 7, qui s’appliquera dès la publication de la loi prévue, vraisemblablement, au second trimestre 2023 et ce jusqu’‘au 30 juin 2025. La VSA pourra, ainsi, être mise en œuvre sur tout le territoire y compris dans les DOM-TOM, à l’occasion de toutes manifestations sportives, récréatives ou culturelles « particulièrement exposées » à des risques d’actes de terrorisme ou d’atteinte grave à la sécurité des personnes.
Ce dispositif technologique est censé générer des alertes en temps réel lorsque l’algorithme aura détecté un « évènement prédéterminé » (défini par décret) qu’il aura été entraîné à reconnaître. Aucune étude n’a jamais démontré l’efficacité réelle des technologies de surveillance une fois déployées, ce qui devrait définitivement disqualifier le recours à la VSA au nom de l’un des principes fondamentaux de la protection des données personnelles : la nécessité et la proportionnalité4.

Un homme de dos face à un mur d’écran de videosurveillance

Des garanties factices et illusoires
Le caractère expérimental avancé est, en effet, un leurre : on a rarement vu une « expérimentation » aussi large et aussi longue être finalement abandonnée, surtout lorsque les partenaires privés auront tant investi financièrement. Les garanties mises en avant, issues pour certaines de l’avis de la CNIL sur le projet de loi, sont tout aussi factices ou illusoires.
Tel est le cas de l’interdiction expresse de recourir à la biométrie, celle-ci faisant l’objet d’une protection renforcée par de nombreux textes. À ce sujet, le Gouvernement se targue d’avoir refusé d’introduire la reconnaissance faciale dans le champ de l’expérimentation. Or en permettant d’isoler des individus par leur façon de marcher, leurs interactions, leurs vêtements, leur taille, leur corpulence… ces logiciels procèdent, de fait, à une identification des personnes filmées par reconnaissance d’éléments ou images de leurs mouvements qui résultent de caractéristiques qui leur sont propres et uniques… ce qui répond bien à la définition de la biométrie5.
Le reste des garanties apportées au dispositif – étude d’impact qu’il reviendra au gouvernement de faire (impartialité assurée…), mesures visant à prévenir les biais et les erreurs comme la traçabilité du fonctionnement de l’algorithme, nécessité d’une autorisation administrative du préfet pour chaque évènement (quel contrôle ?) – sont inefficaces, dès lors que bon nombre d’entre elles ne seront précisées que par des décrets ultérieurs, notamment le cahier des charges d’apprentissage et d’utilisation des logiciels.
La sanction des illégalités, à supposer que les juges et les citoyens disposent de moyens effectifs de contrôle, ne viendra que bien après que les procédés techniques auront déjà largement joué leur rôle d’intimidation auprès de la population et produit leurs effets de violation de la vie privée des participants aux manifestations concernées.
Soulignons aussi que le projet de loi autorise la collecte massive de données personnelles extraites du comportement des citoyens qui serviront aux éditeurs à perfectionner leur logiciel et donc au final à mieux les surveiller.

L’usage des algorithmes n’est toujours pas questionné
De manière plus générale, l’article 7 du PJL JO 2024 met en lumière les problèmes que pose la systématisation du recours aux algorithmes : d’une part, la délégation à la machine du pouvoir décisionnel mais d’autre part la question de la maîtrise citoyenne des outils numériques par lesquels les institutions exercent leur autorité sur eux, que ce soit en matière de sécurité, mais aussi de gestion des aides sociales6, de l’emploi7, de l’éducation8, etc. Chaque sujet semble abordé par le Gouvernement sous le seul angle de l’optimisation et de l’efficacité économique produite par les traitements numériques, sans jamais interroger le sens et les effets des règles appliquées par les algorithmes en question.
Si le rejet de l’article 7 du PJL JO 2024 échoue, au moins doit-on obtenir l’ouverture des codes sources des algorithmes afin de pouvoir vérifier leur fonctionnement, de pouvoir interroger leurs biais et évaluer leurs effets9.
Une délégation de députés de la NUPES a auditionné les membres de la commission numérique du SAF le 1er février dernier sur les dispositions du projet de loi. Nous poursuivons nos échanges avec les élus et les associations, notamment celles qui, comme le SAF sont membre de l’Observatoire des Libertés et du Numérique, pour nous opposer à l’adoption du texte.

Porte étroite devant le Conseil constitutionnel, constructions d’argumentaires en vue d’actions en justice, intervention dans le débat public, sensibilisation du public à travers les observatoires des libertés dans lesquels il est partie prenante, le SAF s’opposera par tous les moyens au déploiement des technologies de surveillance.

Partager