Flint

Flint Production

Quand les robots auront des dents – Flint Dimanche 54

Quand les robots auront des dents – Flint Dimanche 54

Je ne sais pas si tu connais l’association L214, c’est le groupe d’activistes qui te donne moyen envie de manger de la viande en filmant les conditions dans lesquelles sont traités les animaux dans les abattoirs. On pourrait faire pareil pour les robots.

Quand tu consommes de l’info, tu consommes en fait beaucoup d’algorithmes, mais tu ne sais pas trop comment ils sont traités par les humains. C’est vrai, on devrait se pencher plus sur la condition des algorithmes à l’origine de tes indigestions d’info. C’est ce qu’a fait une journaliste de la prestigieuse revue du MIT, « The MIT Technology Review« . Karen Hao est aller enquêter sur la façon dont Facebook élevait ses modèles d’intelligence artificielle pour distribuer l’info et la publicité sur le réseau social.

Rassure-toi, tu ne verra pas de photos de robots en train de souffrir, on est dimanche quand même, et puis les algorithmes ne souffrent pas. Enfin pas encore. Je veux dire, c’est comme les arbres, on n’en sait rien. Mais bref, si tu ne devais avoir qu’un seul article à lire cette semaine, ce serait celui-ci.

Pourquoi ? Parce qu’il propose une plongée très détaillée dans la distribution de l’information depuis sa source jusqu’à ton smartphone. Et donc jusqu’à ton cerveau. Tu comprendras comment ces pauvres algorithmes, un peu stupides, sont maltraités par les humains de chez Facebook pour remplir ton cerveau d’informations hyper indigestes et polarisantes. Et ça te donnera peut-être envie de devenir vegan de l’algorithme, ou alors de ne consommer que des algorithmes bio comme ceux de Flint. Chez Flint, nos robots sont nourris à l’intelligence collective durable, ils peuvent aller se promener joyeusement dans la forêt en écoutant du Vivaldi et ils sont heureux.

Bon, il se trouve que cette enquête passionnante fait plus de 50.000 signes et qu’elle est écrite en anglais alors je vais te faire un résumé.

L’histoire commence dans les années post-2010. Joaquin Quiñonero, un ingénieur américain, vient de débarquer chez Facebook pour déployer le « machine learning » dans le ciblage publicitaire. « Machine learning« , ça veut dire « apprentissage automatique« . Cette nouvelle technologie est révolutionnaire : elle permet aux algorithmes d’apprendre eux-mêmes des comportements des utilisateurs pour décider des meilleures pubs à leur montrer. Ces modèles fonctionnent tellement bien, qu’ils sont aussitôt adaptés pour distribuer l’information sur le réseau social afin de maximiser ce que l’on appelle, hum hum, « l’engagement« .

L’engagement, chez Facebook, c’est la capacité qu’a une info de générer des actions comme le pouce levé (le « like »), le partage à ses amis ou les commentaires à la con. Pour Facebook, l’engagement ne veut pas dire que l’info est de qualité, juste que tu vas t’y intéresser de façon compulsive. Un peu comme un Big Mac de l’info si tu veux. Le système marche tellement bien, que les ingénieurs ont décidé de créer une sorte de plateforme qui permet aux gens de chez Facebook de créer des modèles super facilement pour voir celui qui crée le plus d’engagement. C’est assez jouissif. C’est un peu comme si tu tenais des milliards de fils et que tu pouvais voir lequel fait bouger le bras d’un type au bout du fil ou non. En l’occurence il s’agit plutôt du doigt : celui de l’humain qui va cliquer sur j’aime ou sur partager. C’est peut-être pour ça qu’on parle d’économie digitale plutôt que numérique, parce que c’est l »économie du déclenchement du doigt (à ce propos, c’est désormais officiel, on dit NUMÉRIQUE, merci, cordialement).

Bon, le problème, c’est que l’on s’est rendu compte que plus l’info suscitait la controverse, plus elle était extrémiste et même… plus elle était fausse, eh bien plus elle faisait bouger les doigts. Du coup les algorithmes ont naturellement décidé de distribuer plus d’infos négatives pour faire bouger plus de doigts. Résultat : Facebook s’est mis à héberger de plus en plus de groupes extrémistes sur son réseau. Et résultat du résultat : les algorithmes ont trouvé tout à fait naturel de suggérer aux utilisateurs non extrémistes de rejoindre ces groupes puisque lorsqu’ils les rejoignaient ils activaient encore plus leur doigts. Du coup on pouvait leur proposer plus de pubs encore plus efficaces. « 64% des adhésions à des groupes sont des à nos outils de recommandations », reconnait ainsi un ancien responsable du réseau social.

Tout ça aurait pu continuer à se dérouler dans l’euphorie technologique la plus totale (Facebook continuait de grossir, dépassant le milliard d’utilisateurs actifs de plus en plus engagés sur des pubs de plus en plus ciblées) jusqu’à ce que Trump arrive au pouvoir et que la minorité musulmane de Rohingas devienne la victime d’une folle opération de meurtres ciblés en Birmanie. Si l’impact réel de la désinformation ou de l’info extrémiste sur le résultat des élections reste difficile à déterminer (j’avais longuement travaillé sur le sujet ici), pour les Rohingas, une enquête du Conseil pour les Droits de l’Homme des Nations Unies sur le terrain a pu déterminer le lien entre l’activité décomplexée des algorithmes et le meurtre ou le viol d’êtres humains (tu peux lire le très long rapport en PDF ici, et aller directement au point 1325). A tel point que Facebook a fini par reconnaître qu’il n’avait pas suffisamment fait attention et qu’il allait donc faire quelque chose pour changer tout ça. Afin de continuer à gagner de l’argent tout en provoquant moins de morts.

C’était la mission de Joaquin Quiñonero. Il était arrivé chez Facebook au moment du printemps arabe, et trouvait à l’époque que le réseau social pouvait être un instrument « du bien », en aidant les manifestant à s’organiser pour se soulever contre des régimes autoritaires. Il a réalisé par la suite que cette machinerie pouvait aussi devenir l’instrument du « mal » et ça le préoccupait beaucoup. Il s’est donc mis à travailler sur des modèles permettant de maîtriser la dérive extrémiste des algorithmes de recommandation de Facebook.

Le problème était le suivant : ce n’était pas tant la capacité des algorithmes de proposer des contenus extrémistes à des gens extrémistes qui était en cause, mais leur capacité à les rendre extrémistes alors qu’ils ne l’étaient pas forcément au début. Selon un ancien directeur de l’intelligence artificielle (arrivé chez Facebook en 2018), les modèles ont appris à nourrir l’utilisateur de contenus de plus en plus extrêmes, ce qui favorise leur polarisation. « Au fil du temps« , raconte-t-il, « les utilisateurs se polarisaient de façon mesurable« .

Sauf que le niveau d’engagement était directement lié au degré de polarisation des utilisateurs. Donc lorsque le groupe mené par Quiñonero proposait des nouveaux modèles visant à proposer, par exemple, un nombre plus diversifié de groupes auxquels s’abonner (et donc sortir de sa bulle), ces propositions étaient écartées parce qu’elles étaient anti-croissance. C’est un peu comme si tu proposait de mettre moins de sucre dans tes gâteaux pour éviter que les gens tombent malades mais que la conséquence directe était la baisse des ventes et donc du chiffre d’affaires. Compliqué. Enfin je veux dire de la part du responsable des ventes, si son salaire est indexé sur le volume, vois-tu.

Même casse-tête « croissance VS danger pour la santé » avec les contenus mélancoliques. Oui, parce que eux aussi suscitent plus d’engagement. Enfin, selon les modèles que les robots ont appris par eux-mêmes grâce au machine learning. Plus un humain clique sur un contenu négatif, plus les robots lui en proposent, plus il devient déprimé et plus il clique sur ces mêmes contenus. Résultat : il risque de se suicider. L’enquête montre que cette question éthique a bien été posée en interne aux dirigeants de Facebook (en gros, je résume à mort : faut-il continuer de proposer des contenus déprimants à des dépressifs ?). Finalement, cette question énervante a été écartée, et les ingénieurs de Facebook se sont concentrés sur la réduction des conséquences : éviter que ces satanés dépressifs se suicident en direct sur Facebook ou se mettent à se filmer en tirant sur d’autres humains.

Le problème c’est que pour parvenir à prévoir si un type va se suicider en analysant les premières minutes d’une vidéo, il faut des milliers voire des millions de vidéos similaires pour entrainer les robots. Ce qui est impossible, conclut la journaliste, vu que les comportements changent tout le temps. Facebook répond néanmoins que leurs efforts ont donné des résultats, mais ne fournit aucune donnée en ce sens.

Du coup Mark Zuckerberg a eu une autre idée. Conscient de l’effet néfaste de la mécanique d’engagement, il a découvert que plus un contenu partagé se rapprochait de ce qui est interdit par les règles de Facebook (comme les appels au meurtre par exemple), plus il créait de l’engagement. Comme le montre ce joli graphique officiel.

En bon data-scientist, il s’est donc dit : c’est simple, on va donc faire en sorte que plus un contenu se rapproche de la ligne rouge, moins il sera proposé. L’idée de Zuckerberg était d’inverser la courbe à l’approche de cette frontière. Problème réglé ! Et sans abîmer la croissance de Facebook. Trop bien.

Sauf que ça marche moins bien dans la réalité que sur le joli graphique. Parce que, comme précédemment, la désinformation et les discours haineux évoluent constamment. Or l’intelligence artificielle, c’est toujours bon de le rappeler, a un vrai problème avec la nouveauté ! (C’est pour cela qu’elle n’a pas pu prévoir par exemple l’épidémie de Covid 19). Il lui faut des millions de données passées avant d’être capable de comprendre ce qu’un humain pourrait détecter en quelques secondes.

Dernier obstacle: le risque de favoriser tel ou tel camp politique en forçant les algorithmes de recommandation. En 2018, bousculé par Donald Trump qui accusait Facebook de biais anti-conservateurs, Zuckerberg a décidé de faire de la correction du biais politique de Facebook sa priorité. Il a appelé ça le « Fairness Flow » (le flux équitable). Problème : certains modèles proposés par les équipes éthiques pouvaient certes limiter la désinformation (ou l’instrumentalisation de contenus haineux par des Russes par exemple), sauf qu’ils risquaient en même temps de favoriser tel ou tel camp. Ainsi, certains modèles ont-ils été bloqués au nom du principe d’équité.

Et quand la journaliste demande à Joaquin Quiñonero s’il pense que les algorithmes de Facebook ont pu favoriser l’invasion du Capitole le 6 janvier dernier, ce dernier répond (et il n’a pas tort) que c’est plus complexe que cela. Mais quand elle lui demande si l’Intelligence artificielle n’a vraiment eu aucun impact, il regarde dans le vide, l’air très très fatigué et dit « je ne sais pas… » puis : « Non, je ne sais pas… ».

Petite anecdote agricole en guise de conclusion: fin 2019, Joaquin Quiñonero s’est lancé dans l’élevage de poules dans son jardin. « C’est pour me détendre » a-t-il expliqué, avec son air fatigué. Moins épuisant que d’élever des algorithmes nourris à l’hormone de croissance.

Voilà. Si tu veux lire cette enquête passionnante en français, je te propose une version traduite par… une intelligence artificielle, ici.

Et si tu veux avoir une idée concrète de l’effet de polarisation des algorithmes du réseau social sur ce que les Américains voient dans leur flux Facebook, je te recommande cette étude fascinante qui permet de visualiser sous forme d’application le résultat, et de jouer (un peu) avec les paramètres :

👉 Voir l’application publiée sur le média américain The Markup.

Ce billet est un extrait de la lettre hebdomadaire « Flint Dimanche », qui explore avec toi comment nous pouvons mieux nous informer dans un monde rempli d’algorithmes. Pour la recevoir, abonne-toi à Flint ici. Tu recevras également gratuitement chaque jour une sélection de liens personnalisée, envoyée par l’intelligence artificielle de Flint.