30-07
Flint Production
Clearview AI peut-elle ratisser Internet pour nous identifier ?
En bref :
En janvier 2020, une enquête du New-York Times révélait les agissements de la société américaine de reconnaissance faciale Clearview AI. Services de police et entreprises privées de plusieurs pays peuvent désormais piocher dans cette base de données d’une ampleur jamais atteinte, construite en récupérant les données publiées sur les réseaux sociaux. Alors que plusieurs ONG européennes ont décidé de poursuivre Clearview, pour violation de la protection des données personnelles, j’ai essayé de comprendre à quoi pouvait bien servir ce logiciel, et ce qui posait problème.
🤖 Qui en parle le plus : selon nos robots, le sujet résonne particulièrement auprès des communautés du marketing, de la cybersécurité et du développement logiciel.
💡 Pourquoi c’est intéressant ? Parce que cette affaire soulève des questions plus larges sur la reconnaissance faciale de masse. Si les algorithmes capables de réaliser cette reconnaissance se multiplient au quotidien, la société n’a pas encore suffisamment débattu de ce qu’elle accepte et de ce qui nécessite encadrement ou interdiction.
Les faits :
👤 Comment fonctionne Clearview AI ?
– Lancée en 2017, Clearview AI a déjà récolté plus de 3 milliards de photos sur Facebook, Twitter, Youtube, LinkedIn et autres, dont certaines datent de plus de 10 ans, sans en avertir ces plateformes. En comparaison, le FBI ne possède «que» 411 millions de clichés.
– Ces photos «scrappées», c’est-à-dire récupérées automatiquement sur les sites, permettent de récolter des informations personnelles (nom, âge, métier, déplacement).
– En mars 2021, selon Clearview AI, 3 100 services de police utilisaient l’application, dont le FBI. L’Armée américaine et l’Air Force sont également clientes. En 2020, le New-York Times révèlait que l’application a aussi été utilisée par des milliardaires et des chaînes de magasins. Clearview assure que sa technologie n’est pas disponible dans l’Union européenne, mais la Suède a sanctionné ses forces de l’ordre en février 2021 pour l’avoir utilisée.
⚖️ Que dit la loi ?
– Les données biométriques sont considérées comme «sensibles […] dont le traitement présente un risque élevé pour les droits et libertés des personnes concernées» par le RGPD (Règlement général sur la protection des données). Les utilisateurs peuvent exiger la suppression de leurs données biométriques du fichier de Clearview AI directement à partir du site internet.
– Le RGPD, qui vaut pour tous les membres de l’Union européenne, interdit le traitement de ces données biométriques dans le but d’identifier une personne physique de manière unique.
– Aux États-Unis, aucune loi fédérale ne régit la protection des données personnelles, qui sont considérées comme des biens commerciaux. La Californie ou New-York ont commencé à légiférer l’utilisation de ces données personnelles. Le procureur général du New Jersey Gurbir S. Grewal a interdit l’utilisation de Clearview par la police de l’État. Plusieurs citoyens de l’Illinois ont déposé un recours collectif contre l’entreprise.
– Face aux risques que présente cette technologie, notamment la violation des données personnelles, la Commission européenne réfléchit à bannir temporairement son usage, le temps d’en évaluer les impacts potentiels et d’établir un cadre législatif en conséquence.
🗣️ Une utilisation déjà critiquée…
– Le 27 mai 2021, plusieurs ONG européennes ont annoncé déposer une plainte pour violation du RGPD par Clearview AI, auprès des autorités de protection des données de la France, de la Grèce, de l’Italie, du Royaume-Uni, et de l’Autriche.
– En février, les autorités canadiennes ont jugé que Clearview AI, alors utilisée par plusieurs entreprises du pays, réalisait de la surveillance de masse, une pratique illégale au Canada. La technologie a été retirée du pays. Au Canada, le consentement des personnes est nécessaire pour utiliser leur données personnelles.
– Apple a bloqué l’application pour violation de ses règles de protections des données des utilisateurs. Google, Facebook, Twitter, Youtube et Linkedin l’ont mis en demeure, en lui demandant d’arrêter de récolter ces données, pratique contraire à leur règlement.
– La scientifique du MIT Joy Buolamwini a démontré dès 2015 l’existence de biais dans les algorithmes grand public de reconnaissance faciale : ces outils fonctionnent mieux sur les personnes blanches que les noires, et sur les hommes que les femmes (voir son documentaire Coded Bias). C’est également ce qu’a conclu Amnesty International. Depuis 2019, plusieurs cas d’erreurs judiciaires ont mis en doute la fiabilité de la technologie développée par Clearview AI.
👁️🗨️ …mais également défendue
– Pour justifier la légalité de ses pratiques, Clearview AI s’appuie sur le premier amendement de la Constitution américaine. Selon son directeur juridique Tor Ekeland, «Clearview est un moteur de recherche de photos qui utilise uniquement des données accessibles au public sur Internet.» Et selon son fondateur, la Constitution américaine autorise l’utilisation des images publiées sur le Web, les considérant du domaine public.
– En septembre 2019, une cour d’appel de Californie a reconnu que les informations publiques «scrappées» par l’entreprise hiQ Labs sur le réseau Linkedin ne violaient pas le Computer Fraud and Abuse Act, ce qui constitue une jurisprudence pour Clearview IA.
– La technologie de Clearview représente un gain de temps pour les services de police, notamment dans l’identification de coupables, qui peut prendre plusieurs jours ou semaines en temps normal, et qui ne prendrait qu’une vingtaine de minutes selon la police de l’Indiana. Le reconnaissance faciale reste également l’un des outils les plus efficaces pour reconnaître avec précision un individu.
– Plus largement, les promoteurs de la reconnaissance faciale soulignent la neutralité de la technologie et la simplicité des usages qu’elle permet.
Pour compléter ou corriger cet article et apporter vos sources, 📝 rendez-vous sur sa version participative ou venez 💬 en discuter avec nous sur Discord.