Vidéoprotection algorithmique : le comité d’évaluation des JOP émet des doutes

21 janvier 20256 min

La vidéoprotection algorithmique sera-t-elle définitivement adoptée en France ? Le rapport tant attendu du comité d’évaluation sur l’expérimentation menée durant les Jeux olympiques et paralympiques de Paris 2024 (JOP) émet de sérieux doutes quant à l’efficacité du dispositif durant l’olympiade parisienne.

Ceci est une légende Alt

Utilisée pour la première fois le dimanche 3 mars 2024, l’expérimentation autour de de la vidéoprotection algorithmique dans l’espace public prendra fin le lundi 31 mars 2025. Entre ces deux dates, les différents événements sur lesquels est déployée cette technologie font l’objet d’un rapport a posteriori. Le but étant de mieux cerner les avantages et les inconvénients observés durant le test.

Vivement attendu depuis la fin de l’année 2024, le rapport réalisé par le comité d’évaluation concernant l’expérimentation menée durant les Jeux olympiques et paralympiques de Paris 2024 (JOP) a été remis au ministère de l’Intérieur le mardi 14 janvier 2025.

En dépit d’une publication officielle du rapport pour le moment, les grandes lignes ont été dévoilées par France Info le mercredi 15 janvier. Les conclusions du comité d’évaluation se veulent dubitatives concernant l’efficacité du dispositif expérimenté durant les JOP 2024.

Vidéoprotection algorithmique : les conclusions négatives du rapport du comité d’évaluation des JOP

Selon les informations dévoilées par France Info, la vidéoprotection algorithmique fait l’objet de sérieuses réserves émises par le comité d’évaluation à la suite de l’expérimentation menée au cours des JOP.

De nombreuses failles ont notamment été relevées sur plusieurs cas d’usages :

  • densité de personnes

Il s’agit de l’un des huit cas d’usages de la vidéoprotection algorithmique sur la phase d’expérimentation.

Le rapport du comité d’évaluation annonce à ce sujet que “le logiciel a parfois eu du mal à comptabiliser un nombre d’individus trop resserrés (…) en raison de la hauteur d’emplacement des caméras”. Le dispositif est “moins efficace lorsque les caméras sont trop proches du public, les corps n’étant pas entièrement visibles”.

Des points positifs ont toutefois également été relevés dans le rapport du comité d’évaluation concernant ce cas d’usage.

  • présence ou utilisation d’une arme

Pour Le Monde, les tests menés sur ce cas d’usage sont “sans résultats concluants et avec un grand nombre de faux positifs”.

  • départ de feu ou personne au sol

Sur ces deux cas d’usage, “le rapport mentionne, là aussi, une faible maturité technologique, les algorithmes prenant parfois les devantures de magasin ou les phares de voiture pour des incendies” explique Le Monde.

  • mouvement de foule

Le comité d’évaluation a observé des difficultés pour la technologie à évaluer ce cas d’usage sur cette olympiade parisienne.

“Les quelques retours font état des difficultés rencontrées dans l’identification des véritables mouvements. Le traitement peut, en particulier, assimiler des groupes de personnes se déplaçant dans le même sens, sans précipitation particulière. Il est délicat de définir des mouvements de regroupement ou de dispersion rapide.”

  • colis abandonné

Les conclusions relèvent des performances “très inégales” sur ce cas d’usage, apportant des confusions entre ce qui est abandonné ou non.

“Le traitement assimile ainsi régulièrement le mobilier urbain (bancs, panneaux) ou encore les matériels de nettoyage (poubelles, seaux et machines de nettoyage) et autres objets fixes ou usuels. Plus grave, il lui arrive d’assimiler des personnes assises ou statiques, notamment des sans domicile fixe.”

  • Non-respect du sens de circulation par un piéton ou un véhicule non autorisé ;
  • Franchissement d’une zone interdite par un piéton ou un véhicule non autorisé ;
  • Présence ou l’utilisation d’une arme ;
  • Départ de feu ;
  • Mouvement de foule ;
  • Personne au sol ;
  • Densité trop importante ;
  • Présence d’un colis abandonné.

Du positif également relevé pour la vidéoprotection algorithmique lors de l’expérimentation JOP

Le rapport du comité d’évaluation émet également des conclusions “globalement satisfaisantes” pour certains cas d’usage.

Cela est notamment le cas concernant “l’intrusion d’individus ou de véhicules dans une zone non autorisée, la circulation dans un sens non autorisé, ou encore la densité de personnes”.

Plus globalement, le comité d’évaluation précise que les avantages des dispositifs de vidéoprotection algorithmique testés durant les JOP dépendent “largement du contexte d’utilisation”.

Les résultats sont ainsi plus probants “dans les espaces clos ou semi-clos, notamment les couloirs du métro et les gares, par rapport aux résultats observés dans les espaces ouverts”. Les dispositifs de vidéoprotection algorithmique s’avèrent moins efficaces quand “il y a peu d’éclairage”.

Le comité d’évaluation fait également le point en abordant le point de vue des utilisateurs.

Comme certains d’entre eux nous l’avaient précisé en fin d’année 2024 lorsque le rapport du comité se faisaient encore attendre (lire l’article ci-dessus), “les agents concernés sont globalement satisfaits de la mise en œuvre du dispositif” confirme le rapport.

“L’intégration des écrans des caméras IA dans les salles de commandement, lorsqu’elle a été réalisée, a contribué à favoriser la complémentarité des caméras classiques et des caméras IA” est-il en ce sens précisé.

Quel avenir pour la vidéoprotection algorithmique en France ?

Les conclusions du rapport du comité d’évaluation sur la période des JOP se veulent purement consultatives. En d’autres termes, le comité n’est pas décisionnaire sur le devenir de la vidéoprotection algorithmique dans l’espace public français au-delà du lundi 31 mars 2025.

“L’abandon, la prolongation ou la pérennisation (du dispositif est) “un choix politique” rappelle en ce sens le comité dans son rapport.

À défaut de pouvoir trancher la question, le comité estime nécessaire qu’une “vigilance particulière s’impose (…) afin notamment de prévenir tout risque de détournement des finalités légales ou, plus fondamentalement, d’accoutumance au recours à une telle technologie à des fins de surveillance”.

Pour le comité, plusieurs principes s’avèrent ainsi incontournables pour éviter “tout risque de détournement” des dispositifs de vidéoprotection algorithmique :

  • “le contrôle des parlementaires en amont et le renvoi à des projets de décrets soumis à la Cnil” ;
  • “l’interdiction de la reconnaissance faciale en dehors du contexte judiciaire” ;
  • “l’évaluation constante des enjeux pour les libertés publiques et les droits fondamentaux” ;
  • ou encore “l’information claire du public quant à l’étendue exacte de l’utilisation des caméras équipées d’IA en ce qui concerne son droit d’accès”.

S’agissant de savoir ce qu’il adviendra de cette technologie, outres les utilisateurs, des personnalités politiques de premier plan (l’ancien Premier ministre Michel Barnier, le Préfet de police de Paris Laurent Nuñez ou encore le ministre des Transports Philippe Tabarot) ont exprimé leur envie de voir ces dispositifs être pérennisés à partir du 1er avril prochain.

En attendant cette date, trois pistes restent cependant ouvertes à ce sujet :

  • l’abandon de la vidéoprotection algorithmique (à la suite des résultats peu concluants mis en avant dans le rapport) ;
  • la prolongation de la phase d’expérimentation (afin de laisser plus de temps pour perfectionner ces technologies) ;
  • ou la pérennisation (basée sur une volonté politique).

Partagez cet article !

Eitel Mabouong – Journaliste

---

Les plus lus…

Inscrivez-vous
à notre
newsletter

Recevez toutes les actualités et informations sûreté, incendie et sécurité toutes les semaines.