10-03
Flint Production
Quand les réseaux font disparaître des publications
As-tu déjà vu disparaître de ton fil Instagram un compte que tu avais l’habitude de suivre ? Si tu suivais tel compte populaire d’éducation à la sexualité, ou tel autre qui partagent des actualités sur l’écologie, as-tu constaté qu’ils n’apparaissaient brusquement plus dans ton fil d’actualités ? Plus directement, connais-tu le terme de shadow ban ? Littéralement “bannissement de l’ombre”, il s’agit d’une technique de modération qui réduit la portée d’un compte ou d’une publication sur un réseau social. Problème : comme elle est utilisée sans le dire, il est bien compliqué de la repérer.
Pourquoi c’est intéressant ? Le shadow ban est une pratique généralement niée par les plateformes sociales, mais aux effets dénoncés par différentes communautés ou groupements politiques en ligne. Il a donc un rôle direct sur ton accès à certains types d’information.
Les faits :
Quelques définitions
– Le shadow ban consiste à réduire la portée d’une publication sans priver le ou la propriétaire du compte d’accès à la plateforme concernée.
– Si la pratique est généralement niée par les plateformes, on en trouve des suspicions sur Instagram, LinkedIn, YouTube, Twitter… à peu près sur tous les réseaux sociaux (blog e-reputation).
– En pratique, imagine avoir un compte suivi par 10 000 personnes. D’habitude, tes publications sont vues par 4 000 à 6 000 d’entre elles. Si, du jour au lendemain, celles-ci tombent à 200 vues alors que tu n’as rien changé, tu peux te demander si l’algorithme de promotion des publications de la plateforme que tu utilises a changé… ou si tu es victime de shadow ban. Mais avant de tirer cette dernière conclusion, laisse-moi t’en dire un peu plus :
Usage de modération ou légende urbaine ?
– Du point de vue des plateformes, le shadow ban permet deux choses : d’assainir la conversation, car c’est un outil parmi tant d’autres dans la panoplie des techniques de modération. Il s’agit aussi de satisfaire la vision de l’entreprise ou les annonceurs, explique Le Monde, puisque c’est grâce à la publicité que fonctionnent un Facebook ou un Instagram (tous les deux propriétés du groupe Meta). Malgré cela, les plateformes sociales se défendent généralement d’appliquer ce genre de semi-exclusion qui ne dit pas son nom, invoquant plutôt des bugs techniques ou des incompréhensions des règles d’usage de leurs services.
– Chez Twitter, un hack a tout de même permis de mettre en valeur l’existence de listes noires dans laquelle certains profils utilisateurs se retrouvent rangés, sans nécessairement en avoir conscience (Vice) Des chercheurs français se sont aussi penchés sur la question pour Twitter, démontrant que les cas de shadow ban avait plus de chance de toucher des groupes spécifiques d’utilisateurs que d’être de réels bugs.
– Le Wall Street Journal est aussi revenu sur plusieurs suppressions incompréhensibles de publications sur Facebook, calculant que le réseau créé par Mark Zuckerberg réalisait quelque chose comme 200 000 erreurs de modération par jour.
– Chez Instagram, la plateforme a même fini par s’excuser pour certains shadow ban – en 2019, sous la pression de plusieurs gros comptes dédiés au pole dance, la filiale du groupe Meta a admis avoir bloqué certains hashtags et certains types de contenus. En face, les créateurs de contenus se plaignent tout de même de l’incapacité du réseau à faire la différence entre des contenus sexuels et artistiques (bloggeronpole).
Quelques effets sur la liberté d’informer
– Point de vue utilisateur, il s’agit bien sûr d’éviter le shadow ban : a priori, si tu postes quelque chose en ligne, c’est pour que ce soit vu, lu, entendu, pas pour que ce soit renvoyé aussi sec dans les limbes du web. Pour celles et ceux qui en sont victimes, en particulier s’ils vivent des créations diffusées sur Instagram, YouTube ou ailleurs, c’est très déstabilisant : l’internaute se retrouve seul face à son incapacité de toucher la communauté qu’il ou elle a construite en ligne, sans vrai possibilité de recours puisqu’il ne peut jamais être vraiment sûr d’être tombé dans ce genre de bannissement inavoué.
– L’un des problèmes que pose cette pratique est donc l’obscurité dans laquelle sont laissés les internautes sur les règles de modération, qu’ils et elles soient simplement consommateurs ou créateurs de contenu. À chacun de tester et de tenter de comprendre, à l’aide des règles présentées par les plateformes et de la pratique, quelles sont les directives à suivre (Arrêt sur Image).
– Certains sujets sont aussi beaucoup plus visés que d’autres. Tout ce qui touche à la sexualité, par exemple, est très surveillé. Cela conduit parfois à la censure de publications purement artistique (une manière simple de l’expliquer est que les algorithmes ne savent pas ou mal faire la différence entre des contenus présentant de la nudité à des fins oppressives ou celle de peintures comme l’Origine du monde de Gustave Courbet, Le Monde) ou à celle de contenus éducatifs.
– Il y a aussi une dimension politique à ces bannissements non-annoncés. Un ancien modérateur de TikTok a par exemple témoigné dans Compléments d’Enquête de l’usage de cette technique pour limiter la visibilité de publications relatives aux manifestations de Hong-Kong sur le réseau chinois. Des publications relatives au mouvement Black Lives Matter ont subi le même sort. Algorithm Watch rapporte aussi le désarroi d’activistes du climat essayant de faire connaître l’ampleur de la fuite de pétrole en Équateur, début janvier, ou celle de la pollution plastique dans l’océan, lorsqu’ils voient le nombre de vues de leurs comptes Instagram chuter drastiquement.
– Pour faire face, les internautes inventent toutes sortes de techniques. Dans Féminisme et réseaux sociaux, l’activiste et créatrice du compte Clit Revolution Elvire Duvelle-Charles explique comment des créatrices de comptes d’éducation sexuelle se sont mises en réseau. Lorsque l’une d’elle se retrouve bannie par Instagram, les autres ont désormais l’habitude d’intimer à leurs communautés respectives d’aller commenter les publications de la première, ou de suivre son compte de secours.
– Autre recours : la justice. En mars 2021, 14 créatrices de ce même type de compte ont ainsi saisi la Défenseure des droits pour obliger Instagram à donner plus de précision sur ses directives de modération (Le Parisien).
– Parmi elles, certaines cherchent aussi à se désengager d’une plateforme trop opaque pour se tourner vers des plateformes comme Patreon, qui permet à leurs communautés de payer directement les créatrices qu’elles apprécient pour continuer de recevoir leurs publications (Le Parisien). Voilà que le shadow ban aurait pour résultat la création de quasi-médias… quoique les créatrices y soient suivies par des public souvent moins larges que les communautés qu’elles se sont construites sur les réseaux sociaux classiques.
Pour compléter ou corriger cette série d’articles et apporter vos sources, 📝 rendez-vous sur sa version participative ou venez 💬 en discuter avec nous sur Discord.