Flint

Flint Production

Modération : les fake news, la politique et Facebook

Modération : les fake news, la politique et Facebook

Avec 2,8 milliards d’utilisateurs actifs chaque mois, Facebook est le plus grand rĂ©seau social du monde, devant Youtube, devant WeChat. Qui dit beaucoup d’utilisateurs dit beaucoup de contenu publiĂ©, donc beaucoup de propos Ă  surveiller. Les rĂ©centes rĂ©vĂ©lations de la lanceuse d’alerte Frances Haugen reviennent braquer le projecteur sur les actions rĂ©alisĂ©es ou non par le rĂ©seau de Mark Zuckerberg pour modĂ©rer les propos Ă©lĂ©ments publiĂ©s sur sa plateforme.   

💡 Pourquoi c’est intĂ©ressant ? Parce que chaque plateforme a ses propres rĂšgles, et que s’intĂ©resser Ă  chacune au cas par cas permet de mieux saisir les enjeux spĂ©cifiques de leur modĂ©ration, humaine comme algorithmique. AprĂšs ce second Ă©pisode, il sera dĂ©jĂ  possible de comparer les problĂ©matiques auxquelles Facebook doit rĂ©pondre avec celles de Twitter, dont nous parlions la semaine derniĂšre

En bref : 

Petit Ă©tat des lieux : Facebook est le plus gros rĂ©seau social au monde et son modĂšle Ă©conomique repose sur la publicitĂ© ciblĂ©e. Il fait face au vieillissement et Ă  la rĂ©duction progressive des activitĂ©s de ses utilisateurs, ce qui explique ses tentatives de maintenir l’engagement. 

Quelles critiques visent sa modĂ©ration ? Comme Twitter, Facebook est Ă  la fois accusĂ© de ne pas en faire assez pour modĂ©rer les fausses informations, les manipulations politiques, la violence, mais aussi d’en faire trop en supprimant du contenu de maniĂšre parfois incohĂ©rente.  

Comment (rĂ©)agit Facebook ? L’entreprise de Zuckerberg ne chĂŽme pas. Elle a triplĂ© son nombre de modĂ©rateurs humains entre 2017 et 2020, lancĂ© des programmes dĂ©diĂ©s Ă  la lutte contre les fausses informations, modifiĂ© ses algorithmes de modĂ©ration et d’ordonnancement du fil d’actualitĂ©, entre autres. NĂ©anmoins, le problĂšme porte sur l’efficacitĂ© rĂ©elle de ces mesures (et leurs buts : prĂ©server la paix sociale ou maximiser l’engagement ? Les deux peuvent-ils aller de pair ?)

Que soulignent les Facebook Files ? Les documents dĂ©voilĂ©s par la lanceuse d’alerte Frances Haugen remettent de l’eau au moulin de la critique. Ils montrent que l’immense majoritĂ© des efforts de modĂ©ration sont rĂ©servĂ©s aux pays occidentaux voire aux États-Unis. Ils soulignent que certaines modifications algorithmiques cherchaient peut-ĂȘtre trop Ă  servir des intĂ©rĂȘts Ă©conomiques, et illustrent, entre autres, la maniĂšre dont ces technologies peuvent Ă©chapper Ă  leurs crĂ©ateurs.

Les faits : 

📇 Un instantanĂ© de Facebook

Traçons d’abord les contours du rĂ©seau du jour. LancĂ© en 2004 par Mark Zuckerberg et deux autres Ă©tudiants d’Harvard sous forme de trombinoscope, Facebook devient un rĂ©seau social public en septembre 2006. Selon la Revue des mĂ©dias, Facebook truste la place de rĂ©seau le plus populaire du monde depuis 2009. Au dĂ©but des annĂ©es 2010, il est vu comme vecteur d’une plus grande discussion dĂ©mocratique, notamment grĂące aux Printemps Arabes. En 2011, rappelle le journaliste Ryan Broderick🇬🇧, il met en place sa premiĂšre version d’un algorithme de tri des actualitĂ©s remontĂ©es dans le fil d’actualitĂ© (plutĂŽt qu’un ordonnancement chronologique des publications). Puis, la montĂ©e de l’alt-right amĂ©ricain et l’arrivĂ©e du Brexit soulĂšvent des inquiĂ©tudes croissantes envers la manipulation de l’information, la distorsion du discours public et la violence qui dĂ©coulent de l’usage de la plateforme. 

MalgrĂ© tout, au premier trimestre 2021, Facebook rassemble chaque jour 1,88 milliard de personnes, ou 2,85 milliards par mois. Cela le place derriĂšre Youtube en nombre d’utilisateurs quotidiens, mais devant en nombre d’utilisateurs mensuels (Journal du net, Statista). Facebook dĂ©clare ĂȘtre disponible dans 100 langues diffĂ©rentes (Le Monde €). Son modĂšle Ă©conomique repose trĂšs majoritairement sur la publicitĂ© ciblĂ©e : l’entreprise vend aux annonceurs des espaces publicitaires auprĂšs d’utilisateurs dont le rĂ©seau a dĂ©veloppĂ© une connaissance trĂšs fine (Brief.eco). L’entreprise gĂšre au total quatre rĂ©seaux : Facebook, Messenger (anciennement entiĂšrement intĂ©grĂ© Ă  Facebook), WhatsApp et Instagram. Nous ne nous pencherons que sur le premier ici.


đŸ§‘â€đŸ€â€đŸ§‘ Qui sont ses utilisateurs ? À l’échelle de la France, 45,9 millions de visiteurs uniques se rendaient sur Facebook chaque mois en juin 2020 (Proinfluent, agence spĂ©cialisĂ©e dans le marketing digital). 43% sont des femmes dans le monde (51% en France) (Digimind). Les utilisateurs de Facebook sont globalement plus ĂągĂ©s que ceux d’autres plateformes – 32% ont entre 25 et 34 ans et 25% entre 35 et 54 ans – ce qui l’inquiĂšte (Junto, The Verge 🇬🇧, Bloomberg 🇬🇧). Selon le Pew Research Center 🇬🇧, aux États-Unis, il y a presque autant de DĂ©mocrates que de RĂ©publicains qui utilisent Facebook (chose rare sur les autres principaux rĂ©seaux sociaux) et ils sont davantage diplĂŽmĂ©s que la population globale. Depuis 2016, Facebook fait face Ă  la chute de l’engagement de ses utilisateurs (Social Media Today 🇬🇧, Mobile Monkey 🇬🇧, Forbes 🇬🇧). 

⚙ Pas assez de modĂ©ration ? 

  • fausses informations 

Le mensonge, la manipulation et la propagande ont toujours existĂ©. Mais Ă  l’échelle de l’humanitĂ©, la notion de “fake news” telle qu’on l’utilise aujourd’hui, trĂšs liĂ©e Ă  et amplifiĂ©e par le monde numĂ©rique, date d’hier. Selon cette histoire dressĂ©e par la BBC 🇬🇧 en 2018, elle remonte Ă  2016 et Ă  la campagne qui vit Donald Trump accĂ©der Ă  la prĂ©sidence des États-Unis (pour replacer les fausses infos dans le temps long : News Decoder 🇬🇧, Center for information, technology and society 🇬🇧, The Guardian 🇬🇧). 2016, c’est l’époque du Pizzagate, thĂ©orie d’un complot supposĂ© entre Hillary Clinton et des rĂ©seaux pĂ©dophiles, que l’on retrouve aujourd’hui dans les thĂšses du mouvement QAnon. Les États-Unis sont aussi la terre natale de Facebook, rĂ©seau via lequel beaucoup de fausses informations sont diffusĂ©es. 

  • usages et pressions politiques 

Aux États-Unis, Facebook est accusĂ© d’ĂȘtre “une quasi-branche du Parti dĂ©mocrate” (LifeSite 🇬🇧) ou au contraire “le rĂ©seau social de la droite” (Vanity Fair 🇬🇧, The New York Times 🇬🇧). En rĂ©alitĂ©, Facebook est aussi populaire chez les dĂ©mocrates que les rĂ©publicains. Mais ces oppositions – et le fait qu’Andrew Bosworth, responsable de la rĂ©alitĂ© augmentĂ©e et virtuelle chez Facebook, confesse lui-mĂȘme que la plateforme “a contribuĂ© Ă  l’élection de Trump” en 2016 grĂące aux algorithmes publicitaires ultra-efficaces de Facebook (BuzzFeedNews 🇬🇧, Ouest-France) – traduisent les fortes pressions politiques que subit le rĂ©seau. 

Au fil des ans, une sĂ©rie de lanceurs d’alertes ont mis en lumiĂšre les effets dĂ©vastateurs de Facebook pour le tissu social et dĂ©mocratique, sur le territoire amĂ©ricain comme ailleurs. Christopher Wylie, par exemple, l’a fait dans l’affaire Cambridge Analytica (Mindfuck €, Le Monde, Le Monde), tandis que la data scientist Sophie Zhang regrettait publiquement dĂ©but 2021 n’avoir pas pu modĂ©rer les publications violentes et fausses, notamment dans des pays autoritaires (The Guardian 🇬🇧, Le Monde €). Les contenus faux Ă©tant plus clivants que le reste, ils suscitent aussi plus d’engagement et de temps passĂ© sur la plateforme, ce qui, Ă©conomiquement, est intĂ©ressant pour Facebook (MĂ©dia+). 

On peut aussi intĂ©grer la notion d’astroturfing (que l’on dĂ©finissait ici) Ă  la dĂ©finition de la fausse information : en faisant gonfler artificiellement le nombre de likes, de commentaires et de re-publications, cette pratique donne l’impression que tel ou tel contenu a un succĂšs bien plus large que dans la rĂ©alitĂ©. Selon Sophie Zhang, dont le mĂ©mo interne est citĂ© dans Buzzfeed news 🇬🇧, cela a participĂ© Ă  manipuler l’opinion en Inde, en Bolivie, en Espagne, en Équateur, etc.

  • violence

ProblĂšme : ces pratiques engendrent parfois trĂšs directement des violences. Facebook sait depuis 2016 qu’il pousse des utilisateurs Ă  la radicalisation : un document interne montrait Ă  l’époque que 64% des gens qui rejoignaient des groupes extrĂ©mistes sur le rĂ©seau le faisaient via ses propres outils de recommandations (The Wall Street Journal 🇬🇧). “Je sais que j’ai du sang sur les mains”, Ă©crivait 4 ans plus tard Sophie Zhang, regrettant l’absence de moyens et de soutien pour modĂ©rer les contenus haineux qu’elle dĂ©couvrait partout dans le monde. Facebook est par exemple pointĂ© pour son rĂŽle dans le gĂ©nocide des Rohingyas en Birmanie (Reuters 🇬🇧, La Tribune), dans la violence politique et humaine en Inde (Le Monde), en Éthiopie (CNN Business 🇬🇧), etc.

Outre les nombreux cas portĂ©s par des forces politiques, Facebook est visĂ© depuis longtemps par des critiques sur sa gestion laxiste des contenus violents. Cela a Ă©tĂ© le cas pour la diffusion en direct d’attaques et de propagande terroristes (Numerama, Le Monde), de meurtres (Le Figaro, Le Point, Paris Match), de violences contre les femmes voire d’agressions sexuelles (Terrafemina, 20minutes, SecNews). Certains pans de la population souffrent plus que d’autre des failles de modĂ©ration : en octobre 2020, une enquĂȘte menĂ©e par l’ONG Plan International Ă  travers 22 pays a montrĂ© que c’était sur Facebook que les jeunes femmes (12-25 ans) Ă©taient le plus victimes de cyberharcĂšlement (The Guardian 🇬🇧, L’ADN).

⚙ Trop de modĂ©ration ? 

Mais rien n’est simple. Comme Twitter et d’autres rĂ©seaux, Facebook est aussi pointĂ© pour des excĂšs de modĂ©ration. En 2017, plusieurs collectifs fĂ©ministes critiquaient le double standard qui permet aux contenus purement sexistes ou au revenge porn de rester sur la plateforme tandis que des pages dĂ©diĂ©es Ă  dĂ©noncer les violences conjugales Ă©taient suspendues (LibĂ©ration). Autre exemple, en mai 2021 : alors que les affrontements entre IsraĂ«l et Palestine redoublent, Facebook est accusĂ© de censurer la parole en supprimant des comptes et publications de soutien Ă  la Palestine (NBC News 🇬🇧, France 24). Entre le 6 et 19 mai, une Ă©tude de l’organisme 7amleh-The Arab Center for Social Media Advancement 🇬🇧 a recensĂ© 500 signalements de violation des droits numĂ©riques des Palestiniens sur les rĂ©seaux sociaux, dont plus d’un tiers sur Facebook. 

Qu’il modĂšre ou pas, la maniĂšre dont Facebook ordonne et prĂ©sente l’information qui arrive sur les fils de ses utilisateurs a un effet sur le monde rĂ©el. Yann LeCun, directeur de la recherche en intelligence artificielle chez Facebook, pointe par exemple que selon certaines Ă©tudes (et certains contextes sociopolitiques), couper l’accĂšs Ă  la plateforme ne rĂ©soudrait rien puisque la population deviendrait encore plus polarisĂ©e. Sophie Zhang soulignait de son cĂŽtĂ© que les hĂ©sitations de Facebook dans les cas de communications politiques avaient des effets trĂšs directs dans la manipulation, la production de fausses informations voire la vie hors ligne (Le Monde €). C’est arrivĂ© aux États-Unis avec Trump, en Inde avec le Bharatyia Janata Party (The New York Times 🇬🇧, The Guardian 🇬🇧), en AzerbaĂŻdjan, oĂč les trolls du gouvernement n’ont quasiment pas Ă©tĂ© ralentis (The Guardian 🇬🇧) et au Honduras, oĂč le prĂ©sident a faussement grossi sa popularitĂ© Ă  la veille des Ă©lections de 2017 (The Guardian 🇬🇧), entre autres exemples.

👼 Mais que fait la police Facebook ? L’entreprise est justement au cƓur d’une nouvelle tempĂȘte mĂ©diatique depuis le 13 septembre 2021, au sujet (entre autres) de sa modĂ©ration. La lanceuse d’alerte Frances Haugen, ancienne ingĂ©nieure du dĂ©partement “intĂ©gritĂ© civique” de Facebook, a transmis au CongrĂšs amĂ©ricain et au Wall Street Journal 🇬🇧 les Facebook Files, des milliers de documents qui permettent d’en savoir plus sur ce qu’il se passe Ă  l’intĂ©rieur de l’entreprise. Mais remontons d’abord un peu dans le temps, car Facebook n’est pas restĂ© inactif : 

🧰 À quoi ressemble l’attirail de modĂ©ration de Facebook ? 

Comme chez Twitter, la modĂ©ration de Facebook est le fruit d’une association entre humains et algorithmes. Depuis 2016, au moins, l’entreprise a des Ă©quipes “intĂ©gritĂ©â€, mais selon plusieurs ex-employĂ©s, il leur Ă©tait relativement difficile de savoir quand prioriser la sĂ©curitĂ© des utilisateurs, quand choisir les objectifs techniques et commerciaux (Protocol 🇬🇧). 

En 2017, Facebook employait 4 500 modĂ©rateurs de contenus pour le monde entier, et prĂ©voyait d’en embaucher 3 000 de plus (Le Figaro). Ceux-ci ont pour mission d’analyser chaque publication signalĂ©e et de juger si elle viole les rĂšgles d’utilisation de Facebook. La mĂȘme annĂ©e, The Guardian 🇬🇧 publiait le guide interne de modĂ©ration du rĂ©seau : des centaines de documents pour savoir comment gĂ©rer les discours haineux, les images et vidĂ©os violentes, la pĂ©dophilie en ligne, la nuditĂ© et la sexualitĂ©, le contenu terroriste ou anti-migrant. Leur Ă©tude rĂ©vĂ©lait l’incohĂ©rence et la complexitĂ© de certaines rĂšgles, mais aussi la surcharge de travail incombant aux modĂ©rateurs. ThĂ©oriquement, ceux-ci devaient modĂ©rer une publication toutes les 10 secondes (LibĂ©ration). 

À partir de lĂ , le rĂŽle des robots a Ă©tĂ© accru. En 2018, au motif que les modĂ©rateurs se trompaient “dans un cas sur 10”, Facebook a dĂ©veloppĂ© une intelligence artificielle pour Ă©liminer les contenus contraires aux rĂšgles du rĂ©seau. RĂ©sultat, rapporte l’entreprise, 97% des contenus haineux sont supprimĂ©s avant d’avoir Ă©tĂ© signalĂ©s, contre 60% avant l’introduction du nouvel algorithme (Les Echos €). Selon les Facebook Files, ce chiffre est nĂ©anmoins contestĂ© par des groupes de dĂ©fenses des droits civiques et par les propres ingĂ©nieurs de Facebook, qui Ă©voquent une surestimation (the Wall Street Journal 🇬🇧). 

Mais restons en 2018 : empĂȘtrĂ© dans le scandale Cambridge Analytica, Facebook prĂ©sente aussi le combat contre la dĂ©sinformation comme l’une de ses prioritĂ©s (Les Echos). Elle crĂ©e une war room contre les fausses infos, qu’elle rĂ©active pour les Ă©lections des pays occidentaux (The Guardian 🇬🇧, Le Figaro). Depuis, l’entreprise multiplie les initiatives : elle dĂ©veloppe des outils de sensibilisation (20 minutes), travaille sur les contenus politiques (Europe 1), sur le rĂ©chauffement climatique (Sud Ouest), sur le sujet des vaccins (La Tribune)… En aoĂ»t 2020, une Ă©tude de l’association Avaaz 🇬🇧 estimait pourtant ces efforts insuffisants. Seulement 16% de tous les contenus erronĂ©s relatifs Ă  la santĂ© publique portaient une Ă©tiquette d’avertissement de Facebook, par exemple (Les NumĂ©riques).

En 2018, toujours, Facebook modifie aussi l’algorithme responsable de l’ordre des publications affichĂ©es dans le newsfeed. L’entreprise prĂ©sente cela comme un moyen d’amĂ©liorer le bien-ĂȘtre des internautes (en interne, rĂ©vĂšlent les Facebook Files, elle s’inquiĂšte surtout de la baisse d’engagement des utilisateurs). L’expĂ©rience a rapidement montrĂ© que cette Ă©volution Ă©tait contre-productive en matiĂšre de modĂ©ration : elle poussait en fait encore plus de contenus violents, toxiques et faux en avant (Technology Review 🇬🇧, the Wall Street Journal 🇬🇧, Clubic, Le Monde€). 

Mais Facebook continue de tester. Fin 2019, la sociĂ©tĂ© de Mark Zuckerberg dĂ©cide de lancer son propre comitĂ© de surveillance indĂ©pendant, le Facebook Oversight Board (Le Monde). The Conversation en prĂ©cise la composition : “des journalistes mais aussi des usagers et des personnalitĂ©s, pas tous de nationalitĂ© amĂ©ricaine, dont l’intĂ©gritĂ© morale est incontestable”. Juriste spĂ©cialiste de la rĂ©gulation des discours en ligne, Evelyn Douek 🇬🇧 qualifie ce board de “l’un des projets constitutionnels les plus ambitieux de l’Ăšre moderne et un moment clĂ© dans l’histoire de la gouvernance de la libertĂ© d’expression en ligne”. À l’inverse, et mĂȘme si les dirigeants de Facebook ont insistĂ© sur le caractĂšre indĂ©pendant du Board, la professeure des sciences de l’information et de la communication Divina Frau-Meigs estime qu’“il s’agit d’une confiscation du juridique par une instance qui n’a de valeur que celle que lui reconnaĂźt Facebook”. Elle rappelle que la sociĂ©tĂ© a financĂ© ce conseil Ă  hauteur de 130 millions de dollars et a choisi les 20 membres constitutifs. 

Depuis au moins 2020, le nombre de modĂ©rateurs avancĂ© par Facebook est de 15 000 dans le monde, rĂ©partis sur 20 sites et parlant 70 langues (Venture Beat 🇬🇧). C’est plus qu’en 2017, mais ça laisse 30 langues sans gestion. Sans parler de celles qui, comme l’arabe, troisiĂšme langue la plus utilisĂ©e sur le rĂ©seau, est en fait un groupe de langues dont les diffĂ©rentes variations ne sont pas comprĂ©hensibles par tous les locuteurs. Facebook est incapable de gĂ©rer correctement les publications dans ces diffĂ©rents dialectes prĂ©cisĂ©ment parce que ses modĂ©rateurs parlent quasi uniquement l’arabe marocain, trĂšs diffĂ©rent, par exemple, de celui d’Irak ou de Lybie (Le Monde €). 

đŸ—„ïž Qu’ont montrĂ© les Facebook Files ? 

Un tas de trucs (on en parlait ici) !

📁 Citons ici l’existence du programme XCheck qui offre un traitement privilĂ©giĂ© Ă  des millions d’utilisateurs “VIP” en les exonĂ©rant des rĂšgles d’utilisation de Facebook (The Wall Street Journal🇬🇧). Cela signifie que si une star du foot affiche des photos d’une femme nue sans son consentement, ou qu’un PrĂ©sident appelle Ă  la violence, leurs publications seront modĂ©rĂ©es moins vite qu’un utilisateur lambda (alors que ces comportements sont interdits dans le rĂ©glement de Facebook). Les documents illustrent aussi l’ampleur des manquements de Facebook en matiĂšre de modĂ©ration, face aux publications des cartels de drogue au Mexique, des trafiquants d’ĂȘtres humains du Moyen-Orient, de groupes armĂ©es en Éthiopie, ou mĂȘme des militants amĂ©ricains anti-vaccins qui ont pu semer de fausses informations sur la vaccination en toute libertĂ© (the Wall Street Journal 🇬🇧, the Wall Street Journal 🇬🇧, Flint). AuprĂšs de 60 Minutes (🇬🇧), Frances Haugen explique avoir Ă©tĂ© tĂ©moin de “conflits d’intĂ©rĂȘts rĂ©currents” entre ce qui est bon pour le grand public et les intĂ©rĂȘts de Facebook. Selon l’ingĂ©nieure, l’entreprise prĂ©fĂšre toujours son propre intĂ©rĂȘt Ă  la rĂ©duction d’engagement que crĂ©erait, par exemple, la modĂ©ration de contenus violents, conflictuels, dĂ©primants.

📁 Parmi les Ă©lĂ©ments relatifs, encore, Ă  la modĂ©ration, Frances Haugen a aussi accusĂ© Facebook d’avoir contribuĂ© aux Ă©vĂ©nements du Capitole en janvier 2021 (CBS News 🇬🇧) : durant la campagne prĂ©sidentielle amĂ©ricaine, Facebook avait reconfigurĂ© ses algorithmes pour limiter la diffusion de fake news. Selon la lanceuse d’alerte, l’entreprise a rĂ©tabli les rĂ©glages habituels aussitĂŽt l’élection passĂ©e, “pour prioriser la croissance plutĂŽt que la sĂ©curitĂ©â€ (voir aussi Le Monde €).

📁 Les documents soulignent Ă  nouveau Ă  quel point la qualitĂ© de la modĂ©ration varie d’un pays Ă  l’autre. En 2020, 87% du temps passĂ© Ă  entraĂźner des algorithmes de dĂ©tection de la dĂ©sinformation a Ă©tĂ© consacrĂ© Ă  des publications amĂ©ricaines, laissant 13% du temps au reste du monde. Une grosse problĂ©matique pointĂ©e par de multiples articles de presse porte sur les fonds et le temps accordĂ© aux diffĂ©rentes langues. Pour les logiciels de dĂ©tection des contenus haineux, 26% du temps a Ă©tĂ© consacrĂ© Ă  l’anglais, 8% Ă  l’espagnol, 7% Ă  l’arabe, 4% au français. Les 96 autres langues ont dĂ» se rĂ©partir les 65% de temps restant (lire, par exemple, Rest of World 🇬🇧).

📁 Les pays les plus instables politiquement sont aussi, souvent, ceux pour lesquels Facebook ne dispose d’aucun outil de modĂ©ration performant, ni de modĂ©rateur humain parlant la ou les langues. Les contenus haineux qui y sont dĂ©versĂ©s sans surveillance participent aussi Ă  renforcer les instabilitĂ©s politiques (lire, par exemple, Affordance). 

📁 Les documents sont aussi intĂ©ressants en ce qu’ils illustrent comme les dĂ©cisions algorithmiques peuvent Ă©chapper Ă  leurs constructeurs. La question avait dĂ©jĂ  Ă©tĂ© abordĂ©e par la Technology Review 🇬🇧 (ici dans Flint), mais les Facebook Files l’éclairent diffĂ©remment. Le Washington Post 🇬🇧 s’intĂ©resse par exemple Ă  certaines dĂ©cisions forcĂ©ment un peu arbitraires incluses dans ces mĂ©caniques technologiques et Ă  leurs effets sur l’information reçue (comme le fait de donner plus de poids Ă  l’emoji “colĂšre”. RĂ©sumĂ© trĂšs grossiĂšrement, le rĂ©sultat est nĂ©cessairement plus clivant et rageant que si on avait surpondĂ©rĂ© l’émoji “like”, “j’adore” ou “solidaire”) (voir aussi Le Monde €).

đŸ€– Nos kits sur la mĂȘme thĂ©matique : 

Épisode 1 : RĂ©seaux sociaux et modĂ©ration, quel est le souci ?

Épisode 2 : La cyberviolence, la politique et Twitter

Épisode 4 : ModĂ©ration : la dĂ©sinformation, la violence et YouTube

Épisode 5 : ModĂ©ration de Tik Tok : dĂ©sinformation, pornographie et censure

Épisode 6 : Telegram et la modĂ©ration, entre sĂ©curitĂ© et libertĂ©

Épisode 7 : Spotify et le nouvel enjeu de modĂ©ration

> 5 infos pour réfléchir à la problématique de la modération

Sur l’algorithme de promotion des publicitĂ©s de Facebook : “Peut-on rendre l’IA de Facebook moins sexiste ?” 

Sur l’astroturfing et ses dĂ©rives : « Faut-il se fier aux likes et aux retweets ?« 

Et pour ne pas s’enfermer dans la critique absolue et sans retour de Facebook : “Facebook c’est bien”

Sujets Ă  venir :  

→ Le cas Telegram

Pour complĂ©ter ou corriger cet article, 📝 rendez-vous sur sa version participative ou venez 💬 en discuter avec nous sur Discord