Ces données, qui sont enregistrées dans le fichier des « titres électroniques sécurisés » (TES) sont récupérées par la police par un contournement de la loi. La Quadrature du Net a pu obtenir des témoignages et preuves formelles de l’utilisation abusive de ce fichier pour identifier des personnes lors d’enquêtes judiciaires. Nous avons alerté la CNIL sur ce scandale qui était malheureusement prévisible, tant ce fichier TES portait, par son existence même, les risques d’un abus de surveillance par l’État.
Plus belle la vie du fichier TES
Pour comprendre comment nous en sommes arrivé·es là, revenons sur les origines de ce fichier. En 2005, un décret autorise pour la première fois l’enregistrement des informations des personnes demandant un passeport (nom, prénom…) dans une puce électronique au sein du passeport, mais également dans un fichier centralisé à destination des agent·es chargé·es de la délivrance des titres d’identité. Ainsi naît le premier fichier TES (qui s’appelait alors « DELPHINE »). En 2008, afin de se conformer à un règlement européen, sont ajoutées au sein de la puce l’image numérisée du visage et des empreintes digitales. Le gouvernement en profite alors pour également les ajouter dans le fichier, au lieu de rester sur une seule conservation décentralisée. Ceci n’était clairement pas un choix neutre puisqu’il s’agit de données biométriques particulièrement sensibles.
La CNIL, elle, se montrait pourtant défavorable à un enregistrement centralisé d’autant de données dans le fichier TES. En effet, pour la première fois, une base de données faisait un lien entre des données biométriques et une identité civile. L’objectif affiché était de faciliter les démarches administratives et lutter contre la « fraude documentaire ». Mais factuellement, ce lien technique entre identité et données biométrique peut aussi permettre l’identification d’une personne par la comparaison de ses empreintes ou de son visage avec les données contenues dans le fichier. Bien qu’une telle possibilité ne soit pas prévue par les textes, la CNIL estimait tout de même que le choix de centraliser ces données était disproportionné dès lors qu’il existait des modalités de lutte contre la fraude qui apparaissaient tout à la fois aussi efficaces et plus respectueuses de la protection de la vie privée des personnes.
En 2012, une loi proposée par deux sénateurs de droite a tenté de faire évoluer ce fichier TES, qui contenait alors les données biométriques d’environ 6,5 millions de personnes. Cette loi prévoyait de permettre expressément à la police de se servir dans la base de données pour pouvoir identifier des personnes lors de certaines enquêtes. Cette volonté de mise a disposition du fichier TES à la police a cependant été invalidée par le Conseil constitutionnel. Celui-ci a estimé que l’ampleur de la base de donnée qui contenait des données particulièrement sensibles, couplée avec la nouvelle possibilité technique et légale de permettre une identification par la police – qui n’avait rien à voir avec l’objectif initial de faciliter la délivrance des passeports – engendraient des atteintes trop graves aux libertés. Le Conseil craignait notamment que si ces techniques d’identification n’étaient pas limitées, elles « ne pouvaient […] qu’être vouées à se développer »1.
C’est surtout en 2016 que ce fichier a fait l’objet de critiques et d’attention médiatique. Le gouvernement Valls avait discrètement fait passer un décret créant un nouveau fichier TES au périmètre drastiquement différent. Désormais, il pouvait aussi contenir les données relatives aux cartes nationales d’identité2
Or, quasiment tous·tes les Français·es en possèdent une. De nombreuses institutions comme la CNIL, l’ANSSI, l’Inria ou le Conseil national du numérique avaient vertement critiqué ce choix, pointant les risques de la centralisation inédite d’informations liées à l’identité, et en particulier les données biométriques, de quasiment toute la population. Elles craignaient aussi bien les fuites de données que les attaques informatiques et les abus étatiques, d’autant que d’autres options moins attentatoires et décentralisées étaient possibles. Face aux critiques, il était notamment répété à l’envi qu’au grand jamais ce fichier ne pourrait servir à faire de l’identification.
Avec d’autres, nous avions attaqué le fichier devant le Conseil d’État, qui l’a néanmoins validé en 2018. Nous avons tout de même poursuivi le combat. En 2022, avec 15 248 personnes, nous avons déposé une plainte collective devant la CNIL pour dénoncer l’illégalité de ce fichier. L’instruction de cette plainte est toujours en cours et c’est dans le cadre de cette procédure que nous avons envoyé de nouveaux documents à la CNIL pour démontrer ce que nous craignions depuis l’origine : la police se sert allègrement dans le fichier TES.
Administrations et policiers main dans la main
Techniquement et légalement, un simple officier de police judiciaire ne peut pas avoir accès au fichier TES. Le décret de 2016 prévoit uniquement que certains agents individuellement nommés et « chargés des missions de prévention et de répression des atteintes aux intérêts fondamentaux de la Nation et des actes de terrorisme » puissent le consulter. Pourtant, le ministère de l’Intérieur a laissé s’installer une pratique qui permet de contourner les interdictions d’accès aux données du TES, et ce, sans aucune restriction et pour n’importe quel type d’affaire.
Il s’appuie pour cela sur le mécanisme des « réquisitions » judiciaires prévu par le code de procédure pénale. Sur autorisation du procureur de la République, les officiers de police judiciaire peuvent exiger de toute entité publique ou privée de leur fournir les informations qu’elles possèdent et qui seraient utiles pour une enquête. C’est ainsi que la police peut, par exemple, récupérer les enregistrements de vidéosurveillance d’un magasin ou les données personnelles d’une personne précise que détiendrait une banque, la SNCF, un réseau social ou encore la CAF. Ces acteurs sont obligés de répondre sous peine d’une amende de 3 750 euros.
Aujourd’hui, nous pouvons démontrer que la police utilise ce pouvoir de réquisition abusivement auprès des administrations qui participent à la création et la délivrance des cartes d’identité ou passeports. Nous avons ainsi constaté des demandes des informations d’identité aux agent·es :
Des « Centres d’expertise et de ressources titres » (CERT). Les CERT sont les services chargés au sein d’une préfecture ou d’une sous-préfecture d’instruire les dossiers de demandes de titres.
De l’Agence nationale des titres électroniques (ANTS). C’est l’administration chargée de gérer le système informatique derrière les demandes et délivrances de cartes d’identité et passeports.
La police n’interroge donc pas directement le fichier TES. Concrètement, elle contourne l’interdiction qui lui est faite de piocher dans le fichier TES en adressant des réquisitions à ceux qui y ont accès. Détournant la procédure, elle s’arroge ainsi un pouvoir de consultation du fichier qui lui est normalement interdit.
Nous avions déjà entendu des témoignages en ce sens et cette pratique avait été pointée dans la brochure militante sur les moyens d’enquête dans l’affaire Lafarge Bouc-Bel-Air publiée en octobre 2023. Désormais, nous avons envoyé des preuves concrètes à la CNIL. Nous dénonçons ce détournement illégal afin que cette dérive cesse et que le ministère de l’Intérieur rende des comptes.
Des preuves accablantes
Ces éléments proviennent d’une affaire judiciaire clôturée où les procès-verbaux illustrent l’entêtement des policiers à vouloir identifier un individu à tout prix. N’arrivant pas à mettre un nom et un prénom sur une personne suspectée de rébellion (une qualification pénale par ailleurs régulièrement utilisée abusivement pour masquer des violences policières), les officiers de police judiciaire vont utiliser tous les moyens de surveillance à leur disposition, peu importe les exigences de proportionnalité.
Ils vont d’abord prendre une photographie de la personne à son insu dans le commissariat puis se servir du fichier TES pour confirmer son identité (que la personne n’a pas donnée, mais que les policiers présument). Les policiers vont donc exiger auprès d’un CERT des dossiers de demande de carte d’identité dans le but d’obtenir la photo de visage de la personne (voir les PV anonymisés), et récupèrent au passage tous les documents annexes, comme les justificatifs de domicile. Ils ne s’arrêtent pas là. Au cours de leur enquête, ils font également une demande auprès de l’ANTS pour récupérer des empreintes digitales (voir le PV). Sans jamais justifier ou motiver leur demande, ils exigent ainsi des administrations d’aller fouiller dans la base de données TES, et celles-ci répondent sans poser de question.
L’accès à ces données est lourd de conséquences car, dans cette affaire comme dans d’autres, c’est bien la photographie issue du TES qui, en étant comparée à l’image de vidéosurveillance du commissariat, permet d’identifier in fine la personne suspectée (voir le PV), ce qui est totalement contraire à ce pourquoi le fichier TES a été créé. Le constat est donc clair et accablant : les informations que nous fournissons pour faire notre carte d’identité ou notre passeport pourront être détournées et utilisées par la police dans des enquêtes, au mépris total de la loi.
Les limites du droit
Dans les observations que nous venons de transmettre (à lire ici) , nous rappelons qu’aussi bien le Conseil d’État que le Conseil constitutionnel ou la CNIL avaient formellement exprimé leurs craintes quant aux dérives potentielles de ce fichier. Ces institutions avaient exigé des limites et des garanties fortes afin de contenir ces risques et demandaient à ce que cette base de données soit exclusivement utilisée pour la délivrance des titres d’identité. Elles avaient toutes expressément déclaré ce fichier légal car il ne permettait pas, entre autres, d’identifier une personne.
Malgré cette unanimité, la pratique policière s’est installée, en contradiction totale avec l’esprit du cadre qui a créé le fichier TES. Cela démontre une fois de plus les limites, voire l’impuissance, du droit face aux obsessions de surveillance de l’État. Nous le constatons depuis toujours : dès que les autorités disposent d’une capacité d’obtenir des informations sur la population, cela leur brûle les doigts de l’utiliser pour identifier, contrôler, réprimer. Le soin de respecter les règles n’est alors que cosmétique, surtout quand il n’existe aucun contrôle effectif sur l’activité de la police, permettant ainsi à l’impunité de se propager.
Plutôt que d’empêcher un tel abus, c’est exactement le choix inverse qu’a fait le ministère de l’Intérieur en laissant prospérer ce détournement du fichier TES. Il l’a également volontairement facilité. En 2023, la loi de programmation dite « LOPMI » a assoupli le régime des réquisitions judiciaires, permettant « la remise de données relatives aux documents d’identité » sur la base d’une simple instruction générale (un mécanisme qui permet à un procureur de la République de délivrer une autorisation générale, et non circonstanciée, c’est-à-dire sans s’arrêter sur le cas d’espèce pour vérifier que la réquisition serait véritablement nécessaire à l’enquête et proportionnée). Si nous ne sommes malheureusement pas surpris, cet énième exemple témoigne du mépris de ceux qui nous gouvernent pour les droits fondamentaux et les principes démocratiques : tout est bon pour renforcer les techniques de surveillance et le fichage de la population.
S’attaquer au monstre
Le ministère de l’Intérieur doit être mis face à ses responsabilités et sanctionné. Le détournement et l’utilisation des données du fichier TES doivent être condamnées et doivent cesser immédiatement. Mais au-delà, il faut également comprendre que cet exemple est révélateur d’un phénomène plus large : celui de l’échange débridé et démesuré des données au nom du droit de « réquisition » (ou de « communication » quand il s’agit d’administrations fiscales ou sociales). En effet, ces pouvoirs généraux permettent à la police ou à d’autres institutions d’exiger des données pour une enquête pénale, fiscale ou administrative. C’est ainsi que, via cette prérogative, les organismes de sécurité sociale – CAF, Assurance Maladie… – peuvent récupérer le détail des comptes bancaires, ou que la police peut demander des factures d’électricité.
Or, cette possibilité très large de se voir transmettre des informations s’est construite sans prise en compte des règles de protection des données spécifiques à chaque traitement. Elle n’est guidée que par une logique d’efficacité supposée, réduisant le respect des droits fondamentaux à l’état de vulgaires obstacles à dépasser ou à contourner. Les limites et garanties propres à ces traitements de données sont, d’une certaine manière, écartées au nom du pouvoir de réquisition, ce qui rend difficile le constat d’abus ou de détournement. À l’heure ou tout est informatisé et où la quantité de données communicables est immense, il est nécessaire de questionner profondément ce mécanisme, source d’abus et d’excès.
Par-dessus tout, il faut continuer de combattre le système tentaculaire des fichiers administratifs et policiers. Celui-ci n’en finit pas de s’étendre, sans qu’aucun contrôle sur le travail de la police ne soit fait au quotidien. En effet, la démultiplication des outils facilite la collecte et l’accès aux données, permettant aux agents de rajouter des informations et de contrôler les personnes dans de plus en plus de situations. Cette capacité de surveillance est aujourd’hui devenue un monstre, avec plus d’une centaine de fichiers de police aux périmètres toujours plus larges. Les conséquences sont bien réelles pour les personnes qui s’y trouvent, celles-ci pouvant aussi bien se faire refuser un emploi que recevoir une obligation de quitter le territoire de par leur seule présence dans un fichier. En parallèle, la répression s’intensifie sur les personnes qui refuseraient de se soumettre au fichage, les mettant face à des poursuites et sanctions disproportionnées. Cette surveillance est un piège, auquel il semble de plus en plus difficile d’échapper.
Nous l’écrivions déjà en 2016 : « L’histoire nous rappelle combien la capacité à résister à des dérives autoritaires passe par la faculté d’échapper au contrôle étatique, notamment sur son identité. Les fichiers centralisés ne font pas les régimes autoritaires, mais tout régime autoritaire s’appuie sur un fichage de sa population ».
Si cette nouvelle technologie nous est présentée comme un moyen de lutter contre le fléau des morts sur la route, la réalité semble toute autre. Imposée par les institutions européennes, cette nouvelle mesure semble être une volonté bien éloignée des simples questions sécuritaires.
Surveillance et contrôles renforcés
L’intégration de la reconnaissance faciale dans les véhicules ouvre la porte à une surveillance accrue des conducteurs. En reliant cette technologie aux systèmes de contrôle routier, l’État ou les entreprises privées pourraient avoir accès à des informations précises sur les déplacements de chaque individu.
Ce système pourrait être utilisé pour :
Traquer les habitudes de conduite : Chaque fois que vous montez dans votre véhicule, vos trajets seraient potentiellement suivis, enregistrés et analysés, créant un profil de vos comportements. Cette collecte de données soulève des questions sur leur exploitation à des fins commerciales ou gouvernementales.
Amendes automatiques : Si la reconnaissance faciale est couplée à un système de contrôle automatisé des infractions, cela pourrait mener à une gestion stricte et inflexible des infractions (excès de vitesse, utilisation du téléphone, etc.). Chaque comportement répréhensible pourrait être immédiatement enregistré et sanctionné, sans intervention humaine.
Criminalisation des comportements : Certains comportements bénins ou les oublis mineurs, comme le fait de ne pas attacher sa ceinture immédiatement, pourraient entraîner des amendes automatiques, exacerbant une logique de « zéro tolérance ». Ce type de contrôle rigide limite la flexibilité des interactions humaines.
Quel impact sur vos assurances ?
L’obligation de reconnaissance faciale pourrait transformer radicalement le secteur des assurances automobiles.
En effet, cette technologie permettrait aux compagnies d’assurance d’accéder à des données très fines sur votre conduite, modifiant ainsi la manière dont les contrats sont établis et les primes calculées.
Les conséquences possibles incluent :
- Tarification en fonction du comportement : En analysant en temps réel votre manière de conduire (vitesse, vigilance, respect du code de la route), les assureurs pourraient ajuster vos primes en fonction de votre « risque » estimé. Cela créerait une forme de discrimination algorithmique, où les conducteurs seraient pénalisés financièrement pour des comportements jugés « à risque ».
- Exclusions ou restrictions de couverture : Si le système identifie des comportements dangereux ou des infractions récurrentes, l’assureur pourrait choisir de restreindre votre couverture ou même de refuser de vous assurer. Les conducteurs n’auraient plus seulement à répondre de leurs accidents, mais également de leurs habitudes quotidiennes de conduite.
- Délégitimation de la vie privée : En collectant des données personnelles, comme l’état de fatigue ou la fréquence d’utilisation du véhicule, les compagnies d’assurance pourraient évaluer des éléments qui relèvent normalement de la sphère privée. Cela soulève des questions éthiques quant à la légitimité de cette intrusion dans la vie des assurés.
Risque de dérives autoritaires
En reliant cette technologie à d’autres bases de données (étatiques, fiscales, médicales), il deviendrait possible de croiser les informations sur les citoyens, facilitant le contrôle social.
Par exemple, des citoyens déjà fichés pour des opinions dissidentes ou critiques envers le gouvernement pourraient être davantage surveillés.
Les implications politiques incluent :
- Limitation des déplacements : En cas de non-respect de certaines réglementations (impôts, comportements « déviants », etc.), les autorités pourraient restreindre ou surveiller vos déplacements. Un système pourrait être mis en place pour vous empêcher de conduire (empêcher le véhicule de démarrer) ou limiter l’accès à certaines zones.
- Répression des opinions dissidentes : Tout comme pour les réseaux sociaux, où les comportements « non conformes » peuvent entraîner des sanctions (comme la suppression de comptes), la reconnaissance faciale dans les véhicules pourrait servir à réprimer les citoyens jugés indésirables, en leur imposant des restrictions de déplacement ou en multipliant les amendes pour des infractions mineures.
Conclusion
La reconnaissance faciale obligatoire dans les véhicules neufs pose donc des problèmes majeurs en termes de libertés individuelles.
Si elle continue à évoluer, cette technologie pourrait instaurer une forme de contrôle social sur le même modèle que la Chine, et une surveillance massive, bien au-delà de la simple sécurité routière. Étant donné que les médias nous vendent cette technologie comme quelque chose de bien, permettant d’éviter des morts sur les routes, beaucoup n’y voient aucun mal et sont même d’accord.
Mais comme on a pu le voir durant la crise sanitaire, notre santé est le cadet de leurs soucis !
La reconnaissance faciale ne se limite plus à quelques caméras dans la rue. Une société de surveillance est en train de se construire sous nos yeux, avec des scans biométriques de visage dans les aéroports, les stades, les commerces, au travail et à l'école. Les Jeux Olympiques de Paris en 2024 seront également l'occasion de déployer des caméras automatisées pour surveiller les spectateurs. Mais sommes-nous prêts à vivre dans un monde où notre visage est constamment filmé, scanné et analysé ?
La reconnaissance faciale ne se limite pas à l’identification. Elle peut également être utilisée pour analyser les émotions d’une personne, pour suivre ses déplacements dans un lieu donné, ou pour établir des profils de consommation. Les possibilités sont quasi-infinies, et les entreprises privées comme les gouvernements sont de plus en plus tentés d’utiliser cette technologie pour surveiller et contrôler la population.
Le problème, c’est que la reconnaissance faciale est une menace pour notre anonymat dans l’espace public. Dans une société où notre visage est constamment filmé, scanné et analysé, il devient impossible de se fondre dans la masse et de vaquer à ses occupations sans être surveillé. Nous sommes tous potentiellement des suspects, et nos moindres faits et gestes peuvent être utilisés contre nous.
Mais des moyens de résistance existent pour préserver notre anonymat et notre vie privée. Parmi eux, le port de vêtements et d’accessoires adaptés, tels que des lunettes de soleil, des chapeaux ou des écharpes, qui permettent de dissimuler partiellement ou totalement notre visage. Des maquillages spécifiques, des tatouages ou des piercings peuvent également perturber les algorithmes de reconnaissance faciale. Enfin, des outils numériques, comme des applications ou des filtres, peuvent être utilisés pour brouiller notre image et empêcher notre identification. Ces moyens, bien que parfois contraignants ou limités, sont autant de pistes à explorer pour lutter contre la surveillance de masse et protéger nos libertés individuelles.
Yoann
0:00 Intro
1:09 Un monde de surveillance
2:28 Deepfake à 25 millions$
3:25 Comment marche la reconnaissance faciale
5:11 Facebook tagging
6:55 Moteur de recherche de visage
8:01 Clearview et Face++
9:49 Utilisation illégale de reconnaissance faciale
11:05 JO2024 & QRcodes
15:09 Chine surveillance
17:06 Visage et criminalité
21:37 Caméras NewYork
22:42 Prison panoptique
24:10 Aéroports concerts stades
27:18 Erreurs
29:19 Travail école commerces
35:04 Contrôle d'internet & id numérique
35:50 Perte de l'anonymat
37:01 Police & militaires
37:32 Résister à la reconnaissance faciale
La Russie se rapproche d’un système de surveillance extensive comparable à celui de la Chine. La région de Perm est la première à imposer aux propriétaires de caméras vidéo privées d’intégrer leurs appareils dans un réseau de surveillance régional, une pratique appelée à être reproduite à l’échelle nationale.
Cette initiative, prise par décret du gouverneur de Perm, Dmitry Makhonin, est entrée en vigueur le 25 janvier. Cette mesure s’aligne sur la déclaration de loi martiale du président Vladimir Poutine dans les territoires occupés de l’Ukraine en octobre 2022, accordant aux gouverneurs régionaux des pouvoirs accrus pour assurer la « sécurité » de leurs régions.
La surveillance des citoyens par la Russie s’est intensifiée depuis l’invasion de l’Ukraine. Les autorités scrutent de plus en plus les médias sociaux et utilisent des caméras de surveillance pour traquer les citoyens activistes. Moscou a récemment testé des feux de circulation à reconnaissance faciale. Alexander Bykov, chef de l’Inspection nationale de la sécurité routière de Moscou, a même suggéré que la fourniture de données biométriques devrait être obligatoire.
La reconnaissance faciale est un élément essentiel de la stratégie de surveillance de la Russie. Elle a été utilisée pour détenir des militants de l’opposition et pour identifier des personnes ayant ignoré des convocations à l’appel militaire, des arrestations ayant été signalées dans le métro et les gares. Sergey Suchkov, PDG de NtechLab, indique que la reconnaissance faciale est opérationnelle dans 62 régions, contribuant ainsi au projet « Data Economy » du ministère du développement numérique, qui vise à dresser un profil complet des activités des citoyens.
Actuellement, les caméras privées sont inaccessibles aux autorités régionales, et seule la moitié des 1,2 million de caméras de rue appartiennent à l’État, comme l’a indiqué le département du développement numérique en novembre 2023. L’un des principaux objectifs est de centraliser la surveillance des rues, les caméras privées jouant un rôle important.
C’est devenu une habitude. Ce mardi 14 novembre, comme ce fut le cas lors de l’édition précédente, Gérald Darmanin inaugure le salon Milipol, au parc des Expositions de Villepinte (Seine-Saint-Denis). Consacré à la sécurité intérieure des États, ce salon est une vitrine mondiale pour des entreprises souvent inconnues du grand public. C’est le cas de Briefcam, une société israélienne spécialisée dans le développement de logiciels destinés à la vidéosurveillance algorithmique (VSA). Grâce à l’intelligence artificielle, cette technologie permet d’analyser des images captées par des caméras ou des drones et de détecter des situations jugées « anormales ».
Jusqu’en mai dernier, la VSA ne pouvait être utilisée par la police nationale que dans de très rares cas. Mais à l’approche des Jeux olympiques et paralympiques de Paris, le gouvernement est parvenu à faire adopter une loi au Parlement qui autorise son expérimentation par la police nationale à une large échelle et ce, jusqu’au 31 mars 2025. Face aux risques d’atteinte à la vie privée, les députés ont néanmoins interdit le recours à la reconnaissance faciale, qui permet d’identifier une personne sur des images à partir des traits du visage. Un outil ultra-intrusif que certains logiciels commercialisés par Briefcam permettent d’activer en quelques clics. Et que les services de Gérald Darmanin connaissent bien.
Un logiciel déployé au niveau national
D’après des documents internes au ministère de l’Intérieur obtenus par Disclose, les forces de l’ordre utilisent les systèmes de Briefcam depuis 2015, dans le plus grand secret. Le logiciel en question, baptisé « Vidéo Synopsis », permet de traquer une personne sur un réseau de caméras grâce, par exemple, à la couleur de son pull. Il peut également suivre un véhicule à l’aide de sa plaque d’immatriculation ou examiner plusieurs heures de vidéos en quelques minutes. Le slogan de Briefcam, rachetée par le géant de la photo Canon en 2018 : « Transformer la vidéosurveillance en intelligence active ».
Il y a huit ans, la Direction départementale de sécurité publique (DDSP) de Seine-et-Marne est choisie pour expérimenter le logiciel israélien. Deux ans plus tard, en 2017, l’application est déployée plus largement. Les services de police du Rhône, du Nord, des Alpes-Maritimes, et de Haute-Garonne en sont à leur tour équipés. Ainsi que le service interministériel d’assistance technique (SIAT), une unité de police en charge des infiltrations, de la mise sur écoute et de la surveillance de la grande criminalité.
Dans la foulée, ce sont les services de la police judiciaire, les préfectures de police de Paris et Marseille, la sûreté publique et la gendarmerie nationale qui vont être dotés du logiciel de Briefcam sur des ordinateurs dédiés. Une installation massive qui s’est faite en dehors du cadre légal prévu par une directive européenne et la loi française Informatique et Libertés.
Avant d’utiliser une technologie aussi intrusive que celle proposée par Briefcam, le ministère de l’Intérieur aurait dû mener une « analyse d’impact relative à la protection des données » et la remettre à une administration indépendante : la Commission nationale de l’informatique et des libertés (CNIL). Or, la Direction générale de la police nationale (DGPN), placée sous l’autorité directe de Gérald Darmanin, n’avait toujours pas réalisé cette analyse d’impact en mai 2023. Pas plus qu’elle n’a averti la CNIL. Fin 2020, un cadre de la police invite ainsi à la discrétion : « Certains services ont l’outil Briefcam, mais celui-ci n’étant pas déclaré à la CNIL, il semble préférable de ne pas en parler. » Ou encore ce message envoyé quelques mois plus tard par un autre gradé, rappelant que « sur le plan juridique (…) l’application Briefcam n’a jamais été déclarée par la DGPN ».
Contactée par Disclose, la CNIL déclare, embarrassée, qu’elle « ne dispose pas d’éléments permettant d’infirmer ou de confirmer que la police nationale utilise Briefcam ». La DGPN n’a pas répondu à nos questions.
« Il semble préférable de ne pas en parler. »
Imaginez ne serait-ce que 30 secondes, un monde où toutes vos pensées, vos désirs, vos fantasmes, vos bêtises, vos écarts petits et grands seraient connus.
Imaginez un peu ceci.
Ce serait un enfer absolu.
Un monde de transparence totale serait un monde infernal.
La vie en société nécessite bien souvent une certaine forme d’hypocrisie et l’hypocrisie est d’ailleurs exigée par les normes sociales.
Imaginez un seul instant dire à tous et chacun exactement ce que vous pensez d’eux, comment vous les sentez, comment vous les jugez ?
Dans un tel monde, au bout d’une heure nous serions tous en train de nous entretuer sur fond d’insultes ou de sentiments de trahison.
Concernant les gens « dangereux ».
Estrosi veut plus de caméras et plus de reconnaissance faciale, même dans les écoles où l’on fouille désormais déjà les sacs de nos enfants d’une manière ahurissante et totalement contre-productive.
Croyez-vous un seul instant que le terroriste en Kalachnikov se masque ? Pensez-vous une seule seconde qu’une caméra va l’arrêter ?
C’est d’une naïveté confondante et confinant à la stupidité la plus totale à moins et c’est plus grave que ce soit de la manipulation basée sur des mensonges.
Et c’est évidemment cette solution hélas.
Une proposition de loi « relative à la reconnaissance biométrique dans l’espace public » est examinée en ce moment par les sénateurs.
La « loi JO », promulguée le 19 mai, autorise l’utilisation d’algorithmes pour analyser les images captées par les caméras de surveillance. C’est une première en Europe. Les ordinateurs reliés aux caméras doivent permettre, d’après leurs promoteurs, de détecter en temps réel des évènements prédéterminés, comme des mouvements de foule, un sac abandonné ou des « comportements suspects ». Avec l’appui des algorithmes, les capacités de l’État à surveiller l’espace public se voient démultipliées… à condition d’avoir des caméras qui filment !
Le 20 avril, un décret a été publié qui autorise l’utilisation des drones – équipés de caméras – par les policiers. La pratique existait déjà, on se souvient par exemple de l’utilisation de drones pendant la crise liée au Covid. Mais leur utilisation est désormais approuvée par la loi et permet aux préfets d’en faire usage de manière beaucoup plus fréquente. D’après un décompte du Monde, plus de 50 opérations de surveillance aérienne par drones ont été autorisées entre le 20 avril et le 20 mai. Manifestation écologistes, festival de Cannes, finale de la coupe de France de foot, raves parties, courses de voitures non autorisées, manifestations du 1er mai… L’État semble avoir déjà pris l’habitude de l’utilisation régulière de ces caméras volantes.
Et les drones ne sont pas les seuls à filmer. L’habitude semble également prise, côté forces de l’ordre, de filmer les manifestants depuis le sol. Celles et ceux parmi nous qui défilent régulièrement dans les grandes villes peuvent en témoigner. De manière générale, l’association La quadrature du net relève la multiplication et l’extension, « exponentielle », des moyens de captation : « caméras de vidéosurveillance fixes, caméras-piétons, caméras sur les véhicules, caméras dans les halls d’immeubles, hélicoptères de surveillance, drones de surveillance. »
De quoi s’agit-il exactement ?
Il s’agit de mettre en place des « traitements algorithmiques sur les images collectées au moyen de systèmes de vidéoprotection et de caméras installées sur des aéronefs (1) ». Si le projet de loi se défend de vouloir mettre en place de la reconnaissance faciale, il reconnaît cependant vouloir procéder, via son système de camera-protection, à un « signalement d’attention, strictement limité à l’indication du ou des événements prédéterminés qu’ils ont été programmés pour détecter ».
Faut-il s’inquiéter ou se réjouir de l’implémentation de cet outil à notre besace sécuritaire ?
De fait, depuis quelques années, chaque événement exceptionnel est prétexte à la mise en place de nouvelles mesures de contrôle qui conduisent à la construction progressive d’une société de surveillance.
Tout le monde se rappelle l’impact liberticide qu’a eu le 11 septembre 2001 sur la vie des Occidentaux. À l’époque déjà, nombreux étaient les membres de la société civile à s’inquiéter d’une dérive dont on ne voyait pas l’efficacité (les menaces terroristes n’ont pas cessé avec la mise en place de mesures de surveillance globale), et dont on ne souhaitait pas non plus la pérennité.
Ce climat a tenu pendant trente ans avec, en France, près de quarante lois contre le terrorisme. Puis il y a eu l’épisode du Covid-19 avec son cortège de passes, de QR codes, de gestion des foules par la peur et la délation, de confinements obligatoires…
Plus récemment encore, c’est avec le conflit ukrainien que le monde de la surveillance généralisée a franchi un nouveau cap. En effet, le logiciel de reconnaissance biométrique faciale américain Clearview, a été offert gratuitement aux autorités ukrainiennes afin de pouvoir identifier les soldats russes décédés sur le front et en informer leur famille dans un but de guerre psychologique.
Une autre excuse pour introduire l’identification numérique.
Après avoir créé une technologie – utilisée pendant des années, voire des décennies dans l’industrie du divertissement – pour produire des contrefaçons profondes, pourquoi cette même industrie ne nous mettrait-elle pas en garde contre tous les dangers de cette technologie – et ne proposerait-elle pas de toutes nouvelles solutions à ce problème, que certaines d’entre elles auraient ostensiblement créées en premier lieu ?
Il pourrait y avoir un public pour cela.
En particulier celui qui croit à l’idée que la plupart des gens, de nos jours, « vivent leur vie en ligne » – ce qui n’est pas vrai, en ce qui concerne la plupart des gens. Certes, les services en ligne tels que la banque et le chat sont pratiques, mais « vivre » une vie en ligne est une proposition tout à fait différente.
Ensuite, il y a le terme « intelligence artificielle » (IA), alors que toute personne ayant une connaissance, même superficielle, de cette technologie sait que nous sommes aujourd’hui TRÈS loin de ce que les médias grand public font croire, ou de ce qu’ils sont susceptibles de réaliser (le mieux que l' »IA » puisse offrir aujourd’hui est un faible sous-ensemble appelé « apprentissage automatique », ML).
Cela mis à part, le Times of London semble vous demander de mettre de côté toutes vos connaissances, votre scepticisme et votre expérience, et de suivre l’histoire – comme dans « ne jamais laisser la vérité se mettre en travers d’une bonne histoire ».
C’est ainsi que nous apprenons que des « entrepreneurs inventent des défenses d’identité numérique ».
L'un de leurs systèmes les plus connus est Face++, qui est utilisé par la police pour retrouver des criminels. Cependant, cette technologie peut également être utilisée de manière beaucoup plus intrusive, à des fins de surveillance de masse, de violation de la vie privée et de discrimination. De plus, les systèmes de reconnaissance faciale ne sont pas infaillibles et peuvent parfois donner des résultats erronés, ce qui peut entraîner des conséquences graves pour les individus concernés.
Le projet Skynet est un système de surveillance et de sécurité national de la Chine qui utilise des technologies avancées telles que la reconnaissance faciale, l’analyse des comportements et des données de masse pour surveiller la population du pays. Le système comprend un vaste réseau de caméras de sécurité, des bases de données de surveillance, des centres de surveillance et de contrôle et des logiciels d’analyse avancés. Sous couvert d’être utilisé pour lutter contre le crime, il a été critiqué pour ses violations de la vie privée et pour le potentiel de surveillance et de contrôle de masse qu’il représente.
Visa, le partenaire officiel de la FIFA en matière de technologies de paiement, est prêt à apporter ce qu’il appelle des technologies de paiement biométriques « innovantes » à la Coupe du monde au Qatar, qui débute dimanche. Plus d’un million de fans de football sont attendus au Qatar pour le tournoi quadriennal.
Visa a installé 5 300 terminaux de paiement sans contact sur les sites de la FIFA, faisant de la Coupe du monde du Qatar le tournoi le plus équipé en moyens de paiement organisé par la FIFA. La Coupe du monde offre à Visa une scène mondiale pour tester de nouvelles technologies. Au Qatar, Visa mènera plusieurs projets pilotes limités qui illustrent l’avenir des paiements.