#états-unis
Tous nos articles portants sur les États-Unis
28-10
Flint Production
🔎 Avec 2,8 milliards d’utilisateurs actifs chaque mois, Facebook est le plus grand réseau social du monde. Les récentes révélations de la lanceuse d’alerte Frances Haugen reviennent braquer le projecteur sur les actions réalisées ou non par le réseau de Mark Zuckerberg pour modérer les propos éléments publiés sur sa plateforme.
📇 Petit état des lieux : Facebook est le plus gros réseau social au monde et son modèle économique repose sur la publicité ciblée. Il fait face au vieillissement et à la réduction progressive des activités de ses utilisateurs, ce qui explique ses tentatives de maintenir l’engagement.
⚙️ Quelles critiques visent sa modération ? Comme Twitter, Facebook est à la fois accusé de ne pas en faire assez pour modérer les fausses informations, les manipulations politiques, la violence, mais aussi d’en faire trop en supprimant du contenu de manière parfois incohérente.
🧰 Comment (ré)agit Facebook ? L’entreprise de Zuckerberg ne chôme pas. Elle a triplé son nombre de modérateurs humains entre 2017 et 2020, lancé des programmes dédiés à la lutte contre les fausses informations, modifié ses algorithmes de modération et d’ordonnancement du fil d’actualité, entre autres. Néanmoins, le problème porte sur l’efficacité réelle de ces mesures (et leurs buts : préserver la paix sociale ou maximiser l’engagement ? Les deux peuvent-ils aller de pair ?)
📁 Que soulignent les Facebook Files ? Les documents dévoilés par la lanceuse d’alerte Frances Haugen remettent de l’eau au moulin de la critique. Ils montrent que l’immense majorité des efforts de modération sont réservés aux pays occidentaux voire aux États-Unis. Ils soulignent que certaines modifications algorithmiques cherchaient peut-être trop à servir des intérêts économiques, et illustrent, entre autres, la manière dont ces technologies peuvent échapper à leurs créateurs.
21-10
Flint Production
Ce matin, Tanguy Oudoire et Mathilde Saliou se penchent sur Twitter et ses problématiques de modération :
1️⃣ D’abord, quelques chiffres-clés : au premier trimestre 2021, Twitter comptait plus de 206 millions d’utilisateurs journaliers actifs dans le monde, dont 36% de femmes. En France, 4 millions de visiteurs uniques se rendent quotidiennement sur le réseau.
2️⃣ Ensuite, un récap’ de l’état de la violence dans le débat public en ligne : elle vise en priorité les femmes et toutes les minorités. Twitter, lui, a mis 7 ans avant de proposer sa première fonctionnalité de modération et reste critiqué pour sa faible modération des violences sexistes et sexuelles, du racisme, des discours homophobes et handiphobes.
3️⃣ Cet état des lieux posé, vient la grande question : comment Twitter organise sa modération ? Des algorithmes trient la plus grande partie des tweets, mais des êtres humains s’occupent de modérer les cas les plus graves. Entre 2013 et 2021, la plateforme a fait évoluer ses fonctionnalités, sans jamais parvenir à créer l’unanimité.
4️⃣ Ça s’explique notamment parce qu’un autre grand pôle de critique se plaint d’un excès de modération, craignant que Twitter n’abime la liberté d’expression. Pour évoquer cela, on se penche sur le cas américain, où la plateforme est régulièrement accusée de biais pro-démocrates par les Républicains. La suppression du compte de Donald Trump, le 8 janvier 2021, a enflammé les débats : était-ce de la censure ? Était-ce une manière d’appliquer enfin les règles d’utilisation de la plateforme ? Impossible de trancher (d’ailleurs, on rajoute de l’huile sur le feu en mentionnant tout un tas de campagnes d’astroturfing à visée politique qui ne sont pas modérées).
5️⃣ Quelles solutions pour cette modération ? Certaines expérimentations tendent vers une modération plus collaborative, avec les utilisateurs. Mais certains voient cela comme une manière pour Twitter de se décharger de ses responsabilités de modération, alors même que différentes associations de protection de la liberté d’informer militent pour une meilleure gestion des discours sur la plateforme sociale.