Flint

Flint Production

Peut-on rendre l’IA de Facebook moins sexiste ?

Peut-on rendre l’IA de Facebook moins sexiste ?

En bref :

Une nouvelle étude de l’Université de Californie du Sud montre que le système publicitaire de Facebook reproduit les biais sociaux de genre – il ne montre certaines offres d’emploi qu’aux hommes ou qu’aux femmes, à compétences égales -, contrairement à LinkedIn. Facebook avait pourtant promis de corriger son outil en 2019, où une autre étude soulignait le problème (la première pointant ce genre de discrimination remonte à 2016).

Qu’est-ce qui coince ? difficile de prendre conscience et de réguler ses propres biais quand on baigne dans un milieu où tout le monde se ressemble : en France, le secteur de l’intelligence artificielle compte 88% d’hommes. Cela dit, la diversification des équipes n’est qu’un des multiples facteurs en jeu.

Les faits : 

👾 Biais algorithmiques

– En 2019, Facebook déclarait “se positionner contre les discriminations de toutes les formes” et “explorer différentes manières de modifier” son système. L’entreprise a développé le Fairness flow, un outil pour aider ses ingénieurs à auditer leurs algorithmes et débusquer d’éventuels problèmes. Mais des chercheurs estiment l’outil insuffisant

– La problématique des biais peut venir des données qui entraînent les algorithmes : lorsque celles-ci reflètent une situation inégalitaire, par exemple le fait qu’il y ait moins de femmes que d’hommes dans le secteur informatique, l’algorithme “apprend” cela et le reproduit.

– Elle peut aussi venir de la taille des jeux de données (plus ils sont grands, plus il est difficile de contrôler les potentielles erreurs), voire du système qui mène à leur construction (écosystème technologique très peu diversifié, manque de formation des ingénieurs, etc). 

🌍 🌐 Monde numérique VS. vie hors ligne 

–  L’impact de ces systèmes est réel : ils influent sur les affectations post-bac, ils privent certaines personnes d’opportunités professionnelles, renforcent des biais policiers ou judiciaires envers la population noire, empêchent l’accès de certains groupes sociaux à différents services. À ces sujets, on vous recommande cette étude, cette enquête de ProPublica, Algorithmes : la bombe à retardement de Cathy O’Neil (Les Arènes), ou de regarder Coded Bias de Shalini Kantayya. 

⚖️ Qu’est-ce que la justice ? 

– La définition de ce qui est juste ou éthique est complexe à établir : ce peut être la capacité de la machine à offrir l’égalité entre tous et toutes, ou au contraire sa propension à reproduire la société telle qu’elle est, par exemple. Dans une logique de profitabilité, la deuxième vision peut être perçue comme la meilleure (puisqu’il “suffit” de prendre des données du passé pour permettre aux algorithmes de faire leurs prédictions). 

– La chercheuse Virginia Dignum argumente qu’espérer une IA totalement juste (fair) est illusoire, parce qu’on associe cela à des questions de précision et d’exactitude de résultats, alors qu’il s’agit surtout de contrôler les potentiels préjudices subis par les citoyen·nes.

– Mais qui doit trancher de ce qui est juste et éthique ? Les entreprises, les gouvernements, la société civile ? Et comment contrôle-t-on le respect des cadres dessinés ? L’Europe réfléchit à la question, ce qui promet de nombreux débats futurs.

📝 Pour compléter ou corriger cet article et apporter vos sources, rendez-vous sur sa version participative ou venez 💬 en discuter avec nous sur Discord.