Flint

Flint Production

Modération : la désinformation, la violence et YouTube

Modération : la désinformation, la violence et YouTube

YouTube, repère d’influenceurs, YouTube, deuxième site le plus visité, deuxième réseau au monde, YouTube, plateforme qui supprime les vidéos du président brésilien, car celui-ci diffuse de fausses informations… Mercredi, la plateforme annonçait supprimer le compteur de dislikes afin de réduire la violence qui se déverse quelquefois contre ses vidéastes. Mais que fait-elle d’autre pour protéger ses utilisateurs des contenus faux, violents, agressifs ? En fait-elle trop ? Le fait-elle bien ? Quatrième épisode de notre série sur la modération : plongeons dans le rabbit hole* 🇬🇧 des vidéos hébergées par Google. 

💡 Pourquoi c’est intéressant ? YouTube est une plateforme sociale un peu différente des réseaux que nous avons étudiés jusqu’ici : tout repose sur la vidéo, l’algorithme de recommandation tient une place spécifique et surtout, des vidéastes vivent quelquefois du contenu qu’ils y publient. Étudier la modération de la plateforme et ses critiques, c’est s’interroger sur les enjeux particuliers que cela soulève et les particularités des discours et de l’information que les utilisateurs y reçoivent. 

En bref : 

Cartographie de YouTube : Propriété de Google depuis 2006, YouTube est aujourd’hui le plus grand réseau social au monde en nombre d’utilisateurs mensuels. Si certains considèrent la plateforme comme une alternative à la télévision ou aux sites de streaming vidéo et audio, elle fait aussi partie intégrante de l’économie de passion en permettant à des milliers de créatrices et créateurs de vivre du contenu qu’ils partagent.

Une modération trop timide ? Les publications contrevenant aux règles d’utilisation de YouTube sont minoritaires par rapport à la production quotidienne de ses utilisateurs. Néanmoins, la plateforme est accusée de laisser-faire sur les questions de violence, de pédocriminalité, de haine en ligne. Pour la désinformation, certains pointent une forme de laxisme, d’autres soulignent la propension de son algorithme de recommandation à pousser des informations fausses et/ou complotistes. 

Une modération déséquilibrée ? D’autres critiques s’attachent à ce qu’ils considèrent comme une modération inégalitaire : des chaînes de créateurs LGBTQ démonétisées alors que celles de leurs collègues hétérosexuels ne le sont pas, des bords politiques (notamment extrêmes) plus recommandés que d’autres, etc. Dans certains cas, la modération de YouTube est carrément perçue comme abusive.

Comment YouTube modère-t-elle ? La plateforme s’appuie sur des modérateurs professionnels, mais aussi amateurs, ainsi que sur des algorithmes qui se montrent parfois excessifs. Récemment, YouTube a multiplié les mesures contre la désinformation autour de sujets d’actualité comme le Covid-19 ou le réchauffement climatique, allant de la démonétisation à la suppression totale des publications.

Quelles améliorations ? C’est l’enjeu pour toute les plateformes, et YouTube n’y coupe pas : intensifier la lutte contre la cyberviolence, garantir une modération équitable ou encore réduire les effets parfois néfastes de la recommandation sont autant de sujets qui occupent YouTube et ses observateurs extérieurs.  


Les faits : 

📓 Cartographie de Youtube

À la différence de Twitter ou de Facebook, YouTube n’est pas toujours considérée comme un réseau. Ce peut être le cas en raison de ses nombreuses fonctionnalités sociales (abonnements, likes, commentaires, le fait de pouvoir créer une communauté, la production de contenu à destination d’abonnés, le modèle de revenus qu’on peut en dégager) (MakeUseOf 🇬🇧, Social media magazine 🇬🇧). Mais YouTube peut aussi être perçue comme une alternative à la télévision ou aux plateformes de streaming musical et vidéo (20 minutes).

En 2005, Chad Hurley, Steve Chen et Jawed Karim, trois anciens employés de Paypal, lançaient le réseau de partage de vidéos en ligne. Un an plus tard, le géant du numérique Google rachète YouTube pour 1,65 milliard de dollars (Proinfluent). Le modèle économique de la plateforme est basé sur la publicité, explique le consultant en acquisition de trafic Josselin Leydier. En 2007, YouTube lance son programme de partenariats avec les créateurs de vidéos, ce qui lui permet de placer des spots publicitaires dans les publications, dont les gains sont partagés entre elle et les vidéastes. Adsense, la régie publicitaire de Google, permet aussi à la plateforme de proposer des publicités ciblées et d’en dégager des revenus. À partir de 2015, l’entreprise lance son offre payante, YouTube Red (futur YouTube premium, explique Clubic). En 2020, Alphabet, maison-mère de Google et YouTube, révèle pour la première fois les revenus que la plateforme engrange : 15 milliards de dollars sur l’année 2019 (The Verge 🇬🇧). 

Qui sont ses utilisateurs ? En février 2021, YouTube reste la plus grande plateforme en ligne au monde, avec 2,291 milliards d’utilisateurs par mois selon Statista (49,6 millions en France), dont 38% de femmes (Global Media Insight 🇬🇧). Plus de 90 000 vidéos sont visionnées chaque seconde (Le Blog du modérateur). La plateforme est distribuée dans 100 pays, et disponible dans 80 langues différentes.

En 2021, la société annonce aussi avoir permis la création de 394 000 emplois dans le monde grâce à ses programmes de soutien aux créateurs. Elle contribuerait à l’économie française à hauteur d’un demi-milliard d’euros (ZDNet, Les Échos). En cela, elle fait partie intégrante de l’économie de la passion, que nous évoquions dans ce kit sur Onlyfans, puisqu’elle permet à des créateurs et créatrices de vivre des vidéos qu’ils y postent. Les plus suivis d’entre eux se nomment PewDiePie (Felix Kjellberg), MrBeast (Jimmy Donaldson) ou Yuga (Mariand Castrejon Castañeda) dans le monde, Squeezie, Cyprien ou Norman fait des vidéos en France (Forbes 🇬🇧, L’ADN).

😳 Une modération trop timide ?

Entre 16 et 18 vues sur 10 000 concernent des vidéos qui enfreignent les règles d’utilisation, selon les chiffres avancés par la plateforme en avril 2021. C’est ce que YouTube appelle le taux de vues incorrectes, en baisse de 70% par rapport à 2017. Autre chiffre avancé par la filiale d’Alphabet : 3 contenus jugés problématiques sur 4 sont retirés de la plateforme avant d’avoir atteint les 10 vues (le Journal du Geek). Historiquement, cela dit, YouTube a été plus laxiste que Facebook ou Twitter dans la modération des contenus publiés chez elle. Comme les autres, la plateforme est accusée de laisser-faire, notamment sur la désinformation, la protection des mineurs, la violence. Comme Facebook, elle est aussi accusée d’offrir un régime de modération préférentiel à certaines personnalités (en l’occurrence, les youtubeurs les plus suivis). En plus de cela, YouTube doit gérer des problématiques récurrentes de violation des droits d’auteurs (reprise et remix non autorisés de films, musiques, etc – Frenchweb). 

→ Sur la violence, YouTube fait des allers-retours. En 2012, quand des activistes de pays du Moyen-Orient illustraient en vidéo les violences policières vécues sur place, YouTube avait assoupli ses règles en matière de représentations violentes. Deux ans plus tard, elle revient en arrière, alors que la propagande islamiste devient un enjeu de modération à part entière (Checkstep 🇬🇧). Autre enjeu : les contenus haineux envers des communautés spécifiques. En 2017, Numerama détaillait par exemple comment les contenus menaçants, harcelants, homophobes ou sexistes, proliféraient, sous couvert de trolling 🇬🇧 (comportement propre à internet, qui vise à créer des polémiques, souvent pour la blague), de gags, d’humour. Des débats entourent aussi la violence des jeux vidéos, dont des bandes annonces ou des extraits sont parfois retransmis sur YouTube, et pour lesquels cette dernière a assoupli ses règles en 2019. Selon la filiale de Google, la violence des jeux vidéos est différente de celle “de la vraie vie”, y compris lorsqu’il y a représentation d’armes à feux (Numerama). 

→ La Fondation des femmes et Sciences Po ont publié fin août 2021 un rapport sur la représentation des femmes dans les vidéos Youtube. En analysant les 200 vidéos les plus vues en France entre 2019 et 2020, l’étude amène plusieurs conclusions accablantes : 35% des vidéos présentent une image “dégradée” de la femme (“harcèlement de rue, gros plan sur leur poitrine ou leurs hanches, culture du viol”), 20% les sexualisent (Auféminin). C’est aussi depuis YouTube que certaines campagnes de cyberharcèlement violentes sont lancées – l’un de ses archétypes en France étant probablement celle initiée par le Raptor Dissident et son public contre la vidéaste Marion Seclin à partir de 2016 (Madmoizelle, Franceinfo).

→ En 2017, le Times 🇬🇧 et la BBC 🇬🇧 publient chacun une enquête qui dénonce le développement d’un réseau pédocriminel sur YouTube à travers les commentaires (Telerama). La filiale de Google décide alors de désactiver les commentaires sous 625 000 vidéos et d’en supprimer 150 000, sous la pression des annonceurs qui menacent de quitter le service (Franceinfo). YouTube a également supprimé la publicité sur plus de deux millions de vidéos et 50 000 chaînes concernées par ces agissements. Deux ans plus tard, retour à la case départ : le blogueur américain Matt Watson signale (dans cette vidéo 🇬🇧) que des internautes laissent des commentaires pédophiles sous des vidéos d’enfants totalement anodines (faisant de la gymnastique, du yoga…), sans qu’aucune modération ne soit faite (Usbek & Rica, The Wired 🇬🇧). Matt Watson met également en cause l’algorithme de recommandation de YouTube, qui favorise selon lui la diffusion de vidéos à caractère pédophile. Suite à ces nouvelles révélations, YouTube prend la décision radicale de suspendre la possibilité de commenter une grande partie des vidéos où figurent des enfants (Le Figaro). En revanche, elles pourront toujours être monétisées, ce qui pose de nouveau le dilemme entre parvenir à une plateforme saine ou maximiser ses revenus publicitaires. 

→ YouTube est visée depuis longtemps par des critiques sur sa gestion des fausses informations. En 2017, son ancien développeur devenu fondateur de l’association AlgoTransparency Guillaume Chaslot calculait par exemple que des contenus promouvant la théorie de la Terre plate étaient 10 fois plus recommandés que d’autres détaillant la réalité scientifique (Guillaume Chaslot, Le Point, RawStory 🇬🇧). Ceci s’expliquait par un raisonnement simple : l’algorithme est construit de manière à ce que les utilisateurs passent le plus de temps possible sur la plateforme, or certains contenus faux et/ou allant à l’encontre de la doxa mainstream retiennent souvent plus longuement l’attention, donc, en gros, l’algorithme opte pour les recommander.

Par ailleurs, YouTube agit souvent en décalé ou à rebours des autres réseaux sur les vidéos ouvertement fausses ou violentes. Pendant la campagne présidentielle américaine de 2020, explique Slate, YouTube s’est par exemple contentée d’apposer une “étiquette d’information” à chaque vidéo relative aux élections, sans différencier les contenus trompeurs des autres (contrairement à Facebook ou Twitter). Le réseau a aussi attendu un mois avant de mettre en place une modération des vidéos dénonçant une fraude électorale, ce qui a laissé le temps à certaines d’être largement diffusées (CNN Business 🇬🇧). The New York Times 🇬🇧 et Plateformer 🇬🇧 expliquent en partie ce retard par un défaut d’anticipation. En décembre 2020, l’entreprise a bien annoncé avoir supprimé plus de 8 000 chaînes et des milliers de vidéos trompeuses sur les élections (77% l’ont été avant d’atteindre les 100 vues). Le 6 janvier 2021, en revanche, alors que le Capitole était envahi, YouTube a été la dernière plateforme à censurer Donald Trump (CNBC 🇬🇧). Après deux suspensions consécutives d’une semaine, Youtube a finalement suspendu l’ancien président pour une durée indéterminée (Le Monde). 

En 2019, onze modérateurs de Youtube révèlent les travers de la modération de la plateforme au Washington Post 🇬🇧. Selon eux, YouTube offre un traitement privilégié aux plus gros créateurs de vidéos, sous la forme d’une modération plus souple de leurs contenus. Une des explications avancées : supprimer des vidéos qui cumulent des millions de vues, ou supprimer les publicités autour de cette vidéo reviendrait à priver YouTube de ses revenus. Alors qu’il s’était filmé à côté de cadavres, Logan Paul, 20 millions d’abonnés à l’époque, avait par exemple reçu une sanction légère (deux semaines sans publicité) au regard des règles normales d’utilisation (Le Figaro). La direction de la plateforme affirme l’inverse : la modération est selon elle plus stricte pour les créateurs sources de revenus de Youtube.

⚖️ Une modération déséquilibrée ?

Pour d’autres sujets, souvent à portée politique, YouTube est accusée de manquer de neutralité. Ce peut-être dans ses recommandations : parce qu’elles hiérarchisent les sujets, elles ne sont pas neutres. Ce peut aussi être dans la gestion de la modération au sens strict.

Sur le biais politique, l’ONG AlgoTransparency montrait par exemple en 2017 que les algorithmes de YouTube préféraient François Asselineau à Benoît Hamon, ou encore Jean-Luc Mélenchon et Marine Le Pen à tous les autres candidats à la présidentielle française. Or le CSA, qui veille au respect du temps de parole des candidats aux élections, ne régule que les médias traditionnels et pas les plateformes numériques (Le Monde, Numerama – lire aussi notre article sur la place des extrêmes dans le paysage médiatique). Des chaînes conservatrices et indépendantes (qui accusent alors YouTube de favoriser le discours progressiste) et des contenus à caractère religieux sont aussi supprimés au grand dam de ceux qui les postent (Forbes 🇬🇧, Daily Caller 🇬🇧, Townhall 🇬🇧).

→ Sur les fausses informations ou certaines théories du complot, une étude menée par des scientifiques de l’Université Texas Tech en 2019 a révélé le rôle joué par l’algorithme de recommandation de YouTube dans la formation des opinions. Sur 30 personnes croyant que la Terre était plate, 29 d’entre elles ont témoigné avoir décidé d’y croire “grâce” à YouTube. En laissant se diffuser des vidéos défendant cette thèse, ainsi qu’en proposant sans cesse le même type de contenu, YouTube participe à la formation des bulles de filtre (Le Temps, The Guardian 🇬🇧). Ceci dit, la plateforme travaille à réduire l’audience de ce type de théories en les rendant plus difficiles à trouver. Elle relativisait d’ailleurs leur nombre en 2020, expliquant que les nouvelles mesures anti-recommandation qu’elle allait appliquer aux contenus complotistes ne concernait dans les faits que moins de 1% du contenu publié chez elle (The New-York Times 🇬🇧).

En 2017, de nombreux créateurs LGBTQ accusent la plateforme de suspendre ou démonétiser leurs vidéos (Autostraddle 🇬🇧, exemple ici 🇬🇧 ou encore 🇬🇧) alors que des contenus similaires mais hétérosexuels ne sont pas affectés 🇬🇧. Quelques mois plus tôt, le mode “Contrôle parental” de YouTube avait déjà bloqué plusieurs contenus de YouTubers gays, bisexuels ou transgenres alors que ceux-ci n’enfreignaient en rien les conditions d’utilisation de la plateforme (CNN 🇬🇧). En 2018, nouveau scandale : au mois de juin, mois des fiertés LGBTQ+ aux États-Unis, de nombreux utilisateurs américains se plaignent (ici, ici ou ) de la présence de publicités anti-LGBT sur des vidéos (The Verge 🇬🇧). YouTube s’excuse alors “d’avoir laissé tomber la communauté LGBTQ” (USA Today 🇬🇧). En août 2019, YouTube est poursuivie en justice par plusieurs créateurs LGBTQ pour “discrimination supposée” : leurs vidéos, jugées “inappropriées” et “sexuellement explicite” étaient démonétisées et soumis à une restriction d’âge, limitant ainsi leur diffusion (CNN Business 🇬🇧, The Guardian 🇬🇧, Slate). En septembre 2019, The Verge 🇬🇧 publiait une enquête prouvant que les robots de modérations de YouTube démonétisaient automatiquement les contenus employant une terminologie LGBTQ comme “gay” ou “lesbienne”.

On tombe ici dans l’un des travers de la modération automatique : la communauté LGBTQ s’est appropriée plusieurs insultes qui lui sont fréquemment adressées pour en faire des signes de fierté. Le contexte aide généralement un humain à savoir si un même terme est utilisé à des fins insultantes ou de fierté. Mais les algorithmes ont énormément de mal à faire cette différence. Consciente du nombre conséquent de vidéos homophobes présentes sur YouTube, sa présidente Susan Wojcicki déclarait en 2019, que “si l’on supprime ces contenus, le problème, c’est qu’il y aura tellement d’autres contenus qu’il faudra supprimer” et que cela ferait perdre à la plateforme “beaucoup de diversité d’opinions” (Numerama). 

→ Sur les propos racistes, sexistes, homophobes, la plateforme semble de toute manière hésitante. Le 4 juin 2019, par exemple, elle donne raison au YouTubeur conservateur Steven Crowder, accusé de harcèlement raciste et homophobe contre l’animateur vidéo du média Vox Carlos Maza (Business Insider 🇬🇧). Au nom de la liberté d’opinion et d’expression qu’elle promeut, la filiale de Google décide de ne retirer aucune des vidéos incriminées, estimant que les propos du Youtubeur, bien que “blessants”, ne violent pas ses conditions d’utilisation (sur Twitter 🇬🇧, The Verge 🇬🇧). 24h plus tard, renversement de situation : YouTube annonce la démonétisation temporaire de la chaîne de Steven Crowder, pour la raison qu’une “série d’actions flagrantes a nui à la communauté au sens large et est contraire aux politiques de notre programme Partenaire YouTube” (The Verge 🇬🇧). Aucune suspension cependant, alors que le règlement de YouTube sur les questions d’incitation à la haine (mis à jour le… 5 juin 2019) stipule que tout contenu véhiculant un discours de haine (dont emploi d’insultes) sur la base d’une orientation sexuelle doit être supprimé. En avril 2021, Recode pointait encore l’aspect très fluctuant de certaines règles de modérations parmi les problématiques que devaient régler YouTube.

‼️ Une modération abusive ?

En 2019, YouTube décide d’intensifier sa lutte contre les contenus haineux en interdisant toute vidéo prônant la discrimination ou la ségrégation, ou remettant en cause l’existence d’événements violents dont la réalité a été avérée, comme l’Holocauste (Ouest-France). Quelques semaines plus tard, des créateurs spécialisés dans les contenus pédagogiques et des professeurs d’histoire accusent YouTube de censure : la plateforme a supprimé du contenu éducatif qui constituait la base de leur travail à destination des enfants et adolescents. L’historien ​​Richard Jones-Nerzic évoque même une forme de négationnisme de la part de Youtube (RTBF).

En 2020, la YouTubeuse chinoise Jennifer Zeng accuse 🇬🇧 YouTube de supprimer automatiquement certains commentaires critiques envers le gouvernement chinois (The Verge 🇬🇧). La critique est reprise par le militant @ChowTart 🇬🇧, proche du mouvement pro démocratie à Hong-Kong, ou par Palmer Luckey 🇬🇧, fondateur de l’entreprise Oculus VR et figure de la droite dure américaine (Les Echos). Google, propriétaire de YouTube, a justifié ces suppressions par un “bug”, rectifié depuis (Libération). 

En avril 2021, la Russie (en quête d’une souveraineté numérique depuis 2012, selon The Conversation) décide d’ouvrir une enquête contre YouTube pour “abus de position dominante”. En cause : la suppression de contenus et de comptes défendant les intérêts russes, sans aucun avertissement ni justification, selon le Service fédéral antimonopole (FAS). La Russie critique plus largement la modération, politique notamment, des grandes plateformes américaines (Facebook, Twitter, YouTube) et chinoise (TikTok) sur son territoire (Le Monde).

⚙️ Comment YouTube modère-t-elle ?

Dans une longue enquête, The Verge 🇬🇧 dresse un historique de la progression de la modération chez Youtube. Parmi les points récents les plus saillants, citons le programme “YouTube Heroes”, déjà existant sur Google Maps (Numerama). Les utilisateurs membres de ce dispositif ont pour mission de signaler aux modérateurs de YouTube tout contenu ou commentaire inappropriés, mais aussi de proposer des sous-titres aux vidéos pour une meilleure accessibilité, ou d’aider les internautes qui le demandent dans les commentaires. En échange de ces services, YouTube propose plusieurs récompenses à ces utilisateurs engagés, réparties en cinq niveaux, allant de nouveaux outils de modération à des ateliers de formation (Journal du Geek, Numerama). 

En 2017, YouTube annonçait augmenter son nombre de modérateurs et modératrices à 10 000 personnes d’ici l’année suivante, selon Le Figaro. À notre connaissance, c’est le dernier chiffre connu sur le sujet. Comme auprès des autres réseaux, ces travailleurs sont confrontés aux violences et aux contenus les plus nocifs qu’on puisse imaginer – une partie d’entre eux a témoigné dans certaines des enquêtes qui ont permis de lever le voile sur les difficultés du travail de modérateur (The Verge🇬🇧, CNBC🇬🇧, La Revue des Médias).

En 2018, YouTube publie son premier rapport sur la modération des contenus violant ses règles. Elle le présente comme une manière d’apporter la transparence demandée par de nombreux observateurs extérieurs (TechCrunch 🇬🇧). YouTube adopte aussi une règle inexistante ailleurs, à notre connaissance, en limitant le temps d’exposition de ses modérateurs aux contenus les plus violents à quatre heures par jour (The Verge 🇬🇧). Parmi les aléas que ne résout pas ce nouveau rapport trimestriel, notons tout de même le fait que des youtubeurs peinent à trouver des annonceurs lorsqu’ils traitent de sujets sensibles – par exemple politiques – alors que des médias qui abordent les mêmes thématiques y parviennent. En 2019, Susan Wojcicki a déclaré s’attaquer au problème en faisant évoluer le système de modération et de démonétisation (YouTube, Clubic). 

La même année en Inde, YouTube testait une manière de cacher les commentaires par défaut pour faire refluer la violence (plutôt que de les faire apparaître sous les vidéos) (Le Figaro). Ne pas montrer les commentaires est l’une des stratégies déjà employée pour lutter contre la pédocriminalité (TechCrunch 🇬🇧). Si YouTube continue de cacher certains commentaires pour effacer ce qui s’apparente à du spam, comme l’explique Tubefluence 🇬🇧, à notre connaissance, le projet de les cacher par défaut n’a pas été poursuivi.

Après avoir annoncé une plus grande automatisation de sa modération lors du premier confinement en 2020, YouTube a enregistré un record de suppression de vidéos au 2e trimestre (11,4 millions contre 9 millions sur la même période l’année précédente). En contrepartie, les procédures d’appels ont aussi bondi – de 166 000 contestations de modération au premier trimestre à 325 000 au second (Les Numériques). Résultat, Youtube a fait marche arrière (Le Monde). Neal Mohan, l’un des dirigeants de Youtube, estime que les modérateurs humains “prennent des décisions plus nuancées, notamment quand il s’agit de discours haineux, de désinformation médicale ou de harcèlement”. Ce risque de sur-censure avait été expliqué en 2016 par Monika Bickert, directrice de la politique des contenus de Facebook, au Figaro €. 

Plus récemment, YouTube a démonétisé les contenus anti-vaccins et climatosceptiques promus sur sa plateforme. Pour les seconds, le réseau se sert des travaux du GIEC pour fixer sa ligne de conduite (L’Usine digitale). En août 2021, elle déclarait avoir supprimé plus d’un million de contenus publiant “de la désinformation dangereuse” sur le coronavirus, selon le Journal de Montréal. Ces derniers mois, YouTube a aussi renforcé sa modération contre la désinformation autour de sujets comme le coronavirus (Le Figaro) ou, encore, le réchauffement climatique (Les Echos, PhoneAndroid, Clubic). La plateforme est allée jusqu’à supprimer une vidéo du président brésilien Jair Bolsonaro relayant de la désinformation autour des vaccins contre le Covid. Elle a suspendu sa chaîne pour une semaine (Libération).

Ce 10 novembre, enfin, YouTube annonçait supprimer le compteur de dislikes sous les vidéos afin de réduire certaines des campagnes de harcèlement lancées contre des créateurs (Phonandroid, Le blog du modérateur). Il sera tout de même possible de « ne pas aimer » une vidéo, mais le décompte du nombre de personnes qui l’auront fait ne s’affichera plus (Polygon). Le réseau explique avoir constaté que ce bouton était utilisé de manière disproportionnée contre les vidéos les moins vues et les chaînes les plus récentes. Il a testé au printemps la disparition du compteur de dislikes et déclare l’expérimentation un succès, rapporte Axios.

👍 Comment faire mieux ? 

Voilà une question que se posent toutes les plateformes et bon nombre de leurs utilisateurs. À force d’être confronté à de la violence en ligne, Google travaille à des outils de lutte contre ces phénomènes. Comme Perspective API, système construit pour estimer la toxicité des contenus et des commentaires, dont l’efficacité est discutée ici 🇬🇧 par deux chercheurs spécialistes des médias numériques. Si elle est largement attaquée sur le fonctionnement de son algorithme de recommandation, la plateforme se défend aussi 🇬🇧, déclarant travailler à ce qu’il ne survalorise ou dévalorise personne en fonction de son identité, de son orientation sexuelle ou de son bord politique (The Verge 🇬🇧 2017, Venture Beat 🇬🇧 2019, Hootsuite 🇬🇧 2021, YouTube 🇬🇧).

Des pistes viennent aussi de l’extérieur. De nombreux créateurs se sont attelés à la tâche de déconstruire certaines théories du complot ou fausses informations fréquentes sur YouTube, rapporte Le Monde. Des associations et des organisations à but non-lucratif testent aussi des manières d’améliorer l’écosystème de la plateforme. En 2020, par exemple, la fondation Mozilla a construit une extension lui permettant de s’appuyer sur l’intelligence collective pour analyser les recommandations de YouTube, explique 20 Minutes : avec RegretsReporter, l’internaute peut lui signaler en un clic une vidéo indésirable arrivée dans son fil. 

Pour une meilleure modération des contenus véhiculant stéréotypes, misogynie et violence, les autrices du rapport co-signé par la Fondation des Femmes et Sciences Po proposent plusieurs solutions : donner plus de pouvoir au CSA pour un meilleur contrôle de ces plateformes, responsabiliser les organismes tels que le Centre du cinéma ou celui de la musique sur le financement de contenus “sexistes, dégradants ou stéréotypés, écrire une charte de bonne conduite pour ces plateformes, pour un meilleur contrôle du contenu qu’elles hébergent… Des pistes à relier à celles proposées pour améliorer les publications sur les autres réseaux sociaux et les autres plateformes vidéos.

* Le rabbit hole, ou trou du lapin, c’est une référence au monde d’Alice aux pays des merveilles qui sert à qualifier la tendance des algorithmes à emmener l’internaute dans des spirales toujours plus précises – parfois extrêmes – de contenus.

🤖 Nos kits sur la même thématique : 

Épisode 1 : Réseaux sociaux et modération, quel est le souci ? 

Épisode 2 : La cyberviolence, la politique et Twitter

Épisode 3 : Modération : les fake news, la politique et Facebook

Épisode 5 : Modération de Tik Tok : désinformation, pornographie et censure

Épisode 6 : Telegram et la modération, entre sécurité et liberté

Épisode 7 : Spotify et le nouvel enjeu de modération

> 5 infos pour réfléchir à la problématique de la modération

Voir aussi :

Pourquoi les influenceurs d’extrême-droite font-ils polémique ?

Extrême-gauche, extrême-droite, quelle place dans le paysage médiatique ?

👉 Pour aller plus loin :

– Une vidéo de 14 minutes de la youtubeuse Amy Plant pour mieux comprendre comment fonctionne l’algorithme de recommandation de la plateforme. 

– Les 8 épisodes de Rabbit Hole 🇬🇧, le podcast du New-York Times, et deux des enquêtes écrites qui l’ont alimenté : celle sur un youtubeur devenu QAnon et une autre sur le parcours du plus gros youtubeur 🇬🇧 au monde, PewDiePie. 

The Terror Queue, une enquête long format de The Verge sur la violence à laquelle les modérateurs humains doivent faire face pour aider YouTube à rester un espace relativement sain – certains de ceux employés par Google souffrent de stress post-traumatique après avoir travaillé à ce poste.

– Une réflexion du Nieman Lab 🇬🇧 sur la manière dont la recherche perpétuelle d’engagement rend vulnérable à de la mauvaise information sur les réseaux sociaux.

Mathilde Saliou et Tanguy Oudoire

Pour compléter ou corriger cet article, 📝 rendez-vous sur sa version participative ou venez 💬 en discuter avec nous sur Discord

As you know, Flint is free. How do we finance ourselves?
By offering a great service for companies: creating intelligent newsletters in a few minutes, automatically filled with quality content, to make employees or their community aware of the real trends that matter.
To request a 30-day free trial, you can go here! Recommendation is our main source of income.
Thank you thank you!



To read also...

La société NetDragon a-t-elle vraiment embauché une intelligence artificielle comme CEO ?

La société NetDragon a-t-elle vraiment embauché une intelligence artificielle comme CEO ?

By

 

Benoit Raphaël

Les bonnes sources d’info pour débattre du lancer de soupe à la tomate contre un tableau de Van Gogh

Les bonnes sources d’info pour débattre du lancer de soupe à la tomate contre un tableau de Van Gogh

By

 

Benoit Raphaël

Peut-on dire que « rien n’est fait » sur le climat ?

Peut-on dire que « rien n’est fait » sur le climat ?

By

 

François Gemenne

See more articles
Flint