Flint

Flint Production

[Algorithmes, IA] Faut-il craindre les biais de l’intelligence artificielle ?

[Algorithmes, IA] Faut-il craindre les biais de l’intelligence artificielle ?

Maintenant que nous avons décortiqué ce que sont l’intelligence artificielle, les algorithmes, et ce qu’ils nous permettent d’interroger sur notre propre intelligence, ouvrons la réflexion. L’un des grands débats qui entourent la multiplication des algorithmes se pose sur leurs biais : faut-il en avoir peur ? Est-il possible de les corriger ? D’où viennent-ils, d’ailleurs, ces raccourcis de calculs ?  

Chez Flint, on s’intéresse à la question des biais cognitifs parce qu’ils permettent à la fois de comprendre nos réactions d’humains face à la marée de l’info et de réfléchir à ceux des technologies que nous utilisons au quotidien. Or, la communauté scientifique est traversée par de houleux débats sur les biais que présentent les algorithmes eux-mêmes – débats qui parviennent jusqu’au grand public soit en cas d’affaires à portée sociale (chez Algorithm Watch par exemple, le récit d’une erreur algorithmique demandant à une bénéficiaire de la CAF de rembourser une dette imaginaire) soit en cas d’avancées juridiques (saviez-vous que 193 pays venaient de signer un accord – non contraignant – de l’Unesco sur l’intelligence artificielle ?). Sauf qu’en coulisse, les termes du débat scientifique sont eux-mêmes sujets à débat. 

Récapitulons : on sait que dans certaines applications sociales, les algorithmes présentent des biais – racistes dans le logiciel COMPAS utilisé par certaines polices américaines (ProPublica), sexistes dans le logiciel de recrutement d’Amazon ou les lignes de crédit de l’Apple Card (Slate, 20 Minutes), homophobes dans certains chatbots (BFM), etc. Des ingénieurs travaillent donc à améliorer ces résultats, réduire les biais, en travaillant sur les données d’entraînement des algorithmes comme sur les modèles eux-mêmes (par exemple Delphi, construit pour tenter de répondre à la question “qu’est-ce que ça impliquerait de rendre une IA éthique”, ou Cédille, qui écrit du texte en français de manière remarquablement non agressive – Numerama, Numerama). D’autres testent le “machine unlearning”, c’est-à-dire regardent s’il est possible de créer une amnésie sélective chez des algos, en leur faisant oublier l’existence d’une personne ou d’un type de données, sans que les résultats globaux du robot ne faiblissent (Wired, IT-Online). 

Problème : pendant qu’on discute de comment corriger les biais des algorithmes, on n’envisage pas la possibilité de ne pas utiliser du tout ces technologies dans certains domaines (en veut-on dans la justice, par exemple ? Dans la police ? Dans les organismes de surveillance privés ?), ce que critiquent la juriste Julia Powles et l’experte des questions vie privée Helen Nissenbaum ou l’association de défense des droits numérique La Quadrature du Net. On discute assez peu, aussi, de qui finance toutes ces recherches. Un doctorant du MIT détaille pourtant dans the Intercept la manière dont son université a participé à la création d’un domaine qui permet aux Big Tech d’éviter des régulations. Deux autres chercheurs ont publié une étude des financements de recherche, rapprochant le comportement des BigTech avec celui de l’industrie du tabac lorsqu’elle voulait repousser la conscience publique des dangers de la nicotine (l’article a créé de la discorde dans la communauté scientifique, explique l’un de ses auteurs à the New Statesman). On ne se penche pas tellement non plus sur le coût environnemental des modèles algorithmiques (Technology Review, Les Echos). Autant de sujets sur lesquels nous ne manquerons pas de nous pencher au fil des articles…

« Algorithmes, intelligence artificielle : le kit anti-bullshit »

Épisode 1 : où l’on apprend à cuisiner mathématiquement

Épisode 2 : dans la famille algorithmie, je demande…

Épisode 3 : stupid or not stupid, that is the AI question

Épisode 5 : l’IA à la rescousse de l’environnement ?

Pour compléter ou corriger cette série d’articles et apporter vos sources, 📝 rendez-vous sur sa version participative ou venez 💬 en discuter avec nous sur Discord