Flint

Flint Production

Facebook c'est bien

Facebook c'est bien

Cher(e) toi,

Tiens, aujourd’hui je vais prendre la défense de Facebook. Ça va te changer un peu.

Mais pourquoiiii ? Vas-tu me demander ?

Eh bien, comme tu as pu le remarquer (enfin si tu t’intéresses à ce qu’il se passe sur Internet), les médias n’y sont pas allés de main morte avec Facebook ces dernières semaines. Il est vrai que les témoignages (et désormais les documents internes) s’accumulent pour accuser ses algorithmes de recommandation de nous enfermer dans des bulles, de nous diviser, et de nous rendre dépressifs. Certes. Sauf que.

Sauf que c’est justement quand tout le monde se met à taper sur quelqu’un qu’il faut commencer à s’interroger sur ce fameux biais de confirmation, tu ne crois pas ? Tu sais, ce bug récurent de notre cerveau qui fait que nous ne retenons que ce qui va venir confirmer nos opinions.

Par exemple, moi, ça m’arrange que l’on tape sur Facebook. Ça me permet de mettre en avant l’utilité de Flint : les gentils algorithmes de recommandation de Flint qui t’ouvrent l’esprit, contre les méchants algorithmes de Facebook qui détruisent le savoir et la démocratie. Donc évidemment quand le Wall Street Journal (qui n’aime pas Facebook) a publié ses fameux « Facebook Files » accusant le réseau social d’avoir été parfaitement informé des effets néfastes de ses algorithmes et de n’avoir rien fait de sérieux pour régler le problème, et surtout quand une ancienne cadre de Facebook, à l’origine de ces fuites, a témoigné devant le Parlement américain (qui n’aime pas Facebook) pour confirmer tout ça et comparer le réseau social à l’industrie de tabac, mon biais de confirmation a tourné à plein régime. J’ai même écrit un billet très indigné que les algorithmes de LinkedIn (qui n’aiment pas Facebook ?) ont visiblement beaucoup apprécié. Sauf que…

Je suppose, au passage, qu’il y a de fortes chances que tu aies eu la même réaction que moi. Facebook c’est le mal. Affirmation qui se conjugue parfois avec une autre certitude : les gens sont cons et manipulables (sous-entendu : les gens = les autres, mais pas moi).

Alors aujourd’hui, on va faire un exercice, si tu le veux bien. Une sorte de yoga de l’information : on va tourner notre cerveau dans tous les sens pour essayer de défendre Facebook. Et, tu vas voir, ça va peut-être nous faire du bien.

Attention, je ne dis pas que ces accusations sont erronées. J’avais déjà expliqué le fonctionnement biaisé de l’intelligence artificielle de Facebook dans cette lettre il y a quelques mois. Je dis juste que quand on tourne son esprit à droite, il faut aussi penser à le tourner à gauche. C’est juste une question d’hygiène, si tu veux. Comme au yoga avec la colonne vertébrale.

On va commencer par une petite « posture du pigeon ». Je suis nul en yoga mais on va faire comme si. Et j’ai choisi cette posture parce que j’ai justement horreur des pigeons (si ça te dit, un jour je te raconterai ma théorie sur la conspiration des pigeons pour détruire l’humanité).

Donc, posture du pigeon assortie d’une légère torsion vers la gauche : est-il vrai que les algorithmes de Facebook favorisent la polarisation des opinions (et par conséquent la propagation de fausses informations) ? Alors la réponse est oui. Au delà des études, qui sont pléthoriques, il y a les témoignages de l’intérieur : par exemple selon un ancien directeur de l’intelligence artificielle (arrivé chez Facebook en 2018), cité dans une enquête journalistique de la MIT Technology Review, pour optimiser l’engagement de ses utilisateurs (et donc les revenus publicitaires), les modèles de « machine learning » ont appris à nourrir l’utilisateur de contenus de plus en plus extrêmes, ce qui favorise leur polarisation. « Au fil du temps », raconte-t-il, « les utilisateurs se polarisaient de façon mesurable ». Voilà pour la torsion à gauche.

Bien, maintenant opérons une légère torsion, mais vers la droite, et posons la question à l’envers (tu peux t’amuser à le faire sur Google Scholar par exemple) : Est-il vrai que les algorithmes de Facebook n’ont rien à voir avec la polarisation des opinions ? Et que c’est peut-être même le contraire ? Alors la réponse est également oui. Je vais te citer deux études : la première a été mise en avant par Yann LeCun. Le patron des chercheurs en intelligence artficielle chez Facebook en a marre que l’on tape sur son entreprise. Il est donc, j’imagine, lui aussi victime d’un biais de confirmation, mais dans l’autre sens. Tu peux lire son billet énervé ici.

L’étude pointée par LeCun montre que désactiver Facebook peut avoir a un effet négatif sur la cohabitation entre communautés : les gens ayant moins d’accès aux infos, cela laisse plus de place à l’imagination.

Bon, l’étude a été réalisée dans un contexte très particulier : celui d’un territoire traumatisé par des guerres ethniques (la Bosnie-Herzégovine). Ce qui fait dire aux chercheurs que « nos résultats suggèrent que le simple fait de désactiver les médias sociaux n’est pas une panacée à la polarisation ethnique, surtout si l’environnement hors ligne offre peu ou pas d’opportunités de contacts positifs entre les groupes ». On peut aussi en conclure que : tant que les gens se parlent encore, Facebook accentue leur polarisation, et dès qu’ils ne se parlent plus, alors il redevient utile. Hum.

Alors ce n’est pas complètement idiot en fait. Une autre étude montre en effet que si la création de chambres d’écho (c’est à dire des espaces numériques où des gens du même avis ne se parlent qu’entre eux et s’excitent tout seuls) favorise la haine et la circulation de fausses informations, on pourrait réhumaniser les discussions en créant des passerelles entre ces pages Facebook pour que les gens se parlent directement. L’étude montre que dès que c’est le cas, la discussion prend un autre ton.

Ces deux études plus ou moins favorables à Facebook contredisent néanmoins Yann LeCun lorsqu’il déclare qu' »il y a des problèmes sociétaux majeurs dans de nombreux pays auxquels le réseau social ne peut rien faire« .

Alors je te propose d’accentuer la torsion. Peut-on dire que la technologie est neutre et que c’est l’humain qui est con par exemple ?

Alors si tu me demandes mon avis, je te répondrais qu’on ne peut pas dire ça. Pourtant, une autre étude va plus ou moins dans ce sens. A partir de l’analyse de données de plusieurs millions d’utilisateurs, des chercheurs ont montré que ce n’est ni la nature de l’information (ici « info conspirationniste » ou « info scientifique » selon un classement un peu binaire mais qui fonctionne pour ce genre d’exercice) ni la nature du réseau social (Youtube et Facebook dans ce cas) qui influe sur la polarisation. Les données recueillies révèlent que les dynamiques de polarisation sont les mêmes. En synthèse, l’étude suggère que, avant même les algorithmes qui s’en nourrissent, ce sont nos biais cognitifs qui sont les principaux moteurs de la polarisation.

Un autre travail de recherche à peu près équivalent dans la méthode nuance tout de même cette analyse : les personnes interagissant positivement avec des informations scientifiques sur Facebook ont un peu plus tendance à diversifier leurs lectures (10% de leurs lectures) et à moins les partager, que ceux qui apprécient et partagent les infos dites « conspirationnistes » (1% de diversification !). Mais la différence reste faible. Ce qui peut te permettre de dire que quand tu es dans une chambre d’écho tu y restes, même s’il y a des chambres d’écho plus fermées et virales que d’autres.

Ça va ? On continue ou tu as juste envie de m’envoyer ton smartphone à la figure ?

Allez, deuxième exercice. Posture du lézard ! J’aime bien celle-là parce que lézards ont l’air super cool et que l’objectif de cette pose est de s’ouvrir. Donc… ouvrons.

Selon les recherches internes chez le méchant Facebook, révélées par le gentil Wall Street Journal, le méchant Instragam a des effets désastreux chez les gentils adolescents. Yann LeCun dit que ces recherches disent le contraire. Qui croire ? En fait, si tu prends le temps de lire jusqu’au bout, le Wall Street Journal dit à peu près la même chose, tout dépend des chiffres que l’on isole et de ce qu’on en fait en cherchant à simplifier.

Selon cette étude, 21% des adolescents britaniques (et 19% des américains) disent qu’Instagram aggrave la mauvaise image qu’ils ont d’eux-mêmes. Ok, ça craint. Sauf que si tu le prends dans l’autre sens, ça fait 80% qui trouvent qu’Instagram améliore cette image.

Entrons dans le détail des chiffres : « Nous aggravons les problèmes d’image corporelle pour une adolescente sur trois », indique une présentation interne de 2019, résumant les recherches sur les adolescentes qui connaissent ces problèmes. (…) « Parmi les adolescents qui ont déclaré avoir des pensées suicidaires, 13% des utilisateurs britanniques et 6% des utilisateurs américains ont retracé le désir de se tuer sur Instagram », a montré une autre présentation.

Ces derniers chiffres disent qu’Instagram pourrait être tenu pour responsable de 6 à 13% des pensées suicidaires de celles et ceux qui ont déjà des pensées suicidaires. Cela pose évidemment un problème de responsabilité, qui doit être pris en compte, mais ce n’est pas la même chose que de dire qu’Instagram pousse les adolescents à se suicider.

Un autre article de la NPR (la radio nationale américaine) relativise également ces chiffres : selon la coautrice d’une étude menée en 2015 et publiée en 2020 « si vous demandez aux adolescents s’ils sont dépendants/harmonisés par les médias sociaux ou leurs téléphones, la grande majorité d’entre eux disent oui. Mais si vous faites réellement des recherches et que vous reliez leur utilisation à des mesures objectives… il y a très peu ou pas de lien. »

Voilà ! Fin du yoga du cerveau ! Comment tu te sens ?

Du coup tu vas me demander : mais alors qui a raison ? Tout le monde. La vie,n c’est compliqué. C’est pour ça qu’il faut écouter dans les deux sens et ne pas chercher absolument la certitude.


Pourquoi c’est important ? Parce que si tu veux trouver des solutions, il faut analyser l’ensemble du problème. Se laisser entrainer par ses biais de confirmation est le meilleur moyen de faire des erreurs. Par exemple, on parle beaucoup de la responsabilité de Facebook, et on a certainement raison, mais on parle moins de la responsabilité de la télévision dans l’amplification des fake news. Ce qui a pourtant été démontré à de nombreuses reprises, notamment aux Etats-Unis. Tu peux écouter à ce propos l’analyse du sociologue Dominique Cardon. Pour ce qui concerne la France, interroge-toi sur la montée de la popularité d’Eric Zemmour par exemple. Télé ou Facebook ? Ou les deux ? Je te laisse y réfléchir tranquillement en faisant ton yoga.

Et si tu veux continuer l’exercice sous ta douche, amuse-toi aussi à jongler avec ces questions : qu’est-ce qui est à l’origine de la montée des extrêmes dans l’Europe de l’entre-deux guerres ? Ou lors du génocide au Rwanda dans les années 90 ? Pourquoi les dictatures ont-elles une fâcheuse tendance à vouloir interdire les réseaux sociaux dans leur pays ?

Ne pas se focaliser sur un seul coupable/responsable permet de mieux comprendre les dynamiques à l’origine d’une crise, et d’être en mesure d’y répondre. Cette règle est aussi applicable en famille et en entreprise. En fait, c’est justement pour ça que nous avons créé Flint : faciliter la diversité des sources d’information pour nous aider à prendre des décisions plus éclairées.

🤔 Des algorithmes de l’incertitude ?

J’aimerais que cette lettre soit la première étape d’une quête dans laquelle je voudrais t’emmener avec moi.

En quoi la façon dont nous consommons l’information nous pousse-t-elle à prendre de mauvaises décisions ? Il y a assez peu de recherches sur le sujet. Tu as des choses à partager ? Je suis preneur ! Commençons par cette question simple : qu’est-ce qu’une mauvaise information ? Je te propose deux premières réponses, tu me donneras les tiennes :

– Quand nos sources d’information ne sont pas assez diversifiées.

– Et quand le trop plein d’informations ne nous laisse pas le temps de creuser les problèmes dans toutes leurs dimensions.

Nous avons besoin d’algorithmes et de méthodes qui nous aident à cultiver l’incertitude. Incertitude, le mot fait peur… Et pourtant : notre pire ennemi dans nos prises de décisions, c’est notre incontrôlable besoin de certitude. Qu’est-ce que ça veut dire ? Je t’en parlerai dans les prochaines éditions de cette lettre. Tu verras, nous ne sommes pas au bout de nos surprises !

[DÉBUT DE L’AUTOPROMO !] D’ailleurs, c’est dans cette même idée qu’on a lancé il y a quelques semaines une plateforme Flint pour les entreprises. Avec de nouveaux robots explorateurs qui jouent toujours plus sur la diversité des sources et le gain de temps. Si tu veux m’aider dans ce combat valeureux, tu peux faire découvrir Flint Business autour de toi. Pourquoi ? Parce que c’est utile, et que c’est aussi le plus court chemin pour continuer à rendre Flint indépendant ! [/ FIN DE L’AUTOPROMO ! ]

❤️ Partageons !

Tu peux aussi partager cette lettre à la gloire de l’esprit critique autour de toi (sur LinkedIn par exemple 😁), c’est le meilleur moyen pour m’aider à faire connaître Flint !

Et tu peux également continuer cette conversation en rejoignant la communauté Flint sur Discord ! Nous sommes 995 à y discuter quotidiennement ! Bientôt 1000 ! Je passerai peut-être ce soir vers 18h pour discuter en vocal avec toi si tu es dans le coin !

♻️ Les articles Flint à conserver sur le même sujet :

Bon dimanche et à bientôt !