#reseauxsociaux

Facebook, YouTube, Twitch, TikTok, WhatsApp, Instagram, Tumblr, Tinder et tous les autres... Ici sont rassemblés tous nos articles relatifs aux réseaux sociaux et à ce qu'on y fait :


Mathilde Saliou

Flint Production

Telegram et la modération, entre sécurité et liberté

Telegram et la modération, entre sécurité et liberté

❓ Qu’est-ce que Telegram ? C’est un service de messagerie, lancé en 2013 par les frères russes Durov. Le cadet, Pavel Durov, est un acteur de la résistance face à Vladimir Poutine. Il présente Telegram comme un outil particulièrement sécurisé, et figure de l’indépendance numérique en Russie. 

🦾 Une sécurité vraiment solide ? Un service de messagerie est sécurisé grâce au chiffrement des données, c’est-à-dire que personne ne peut avoir accès à vos données, à moins d’avoir accès à votre téléphone. Contrairement à Whatsapp ou Signal, qui ont implanté ce chiffrement par défaut, sur Telegram ce n’est qu’une option, que l’utilisateur peut activer ou non, s’il en a connaissance. 

👥 Telegram, une application “sociale” ? L’utilisateur de Telegram peut rejoindre des conversations publiques, les chaînes, ou des salons privés, sur invitation. En profitant des dernières polémiques autour de Meta, Telegram rassemble aujourd’hui plus de 500 millions d’utilisateurs, dont 41% sont des femmes. 

👮 Telegram et modération, quels enjeux ? La confidentialité qu’offre Telegram est la bienvenue chez les militants de tous bords, chez les journalistes, ou tout autre profil nécessitant de prendre un soin particulier de ses échanges. Les fonctionnalités de Telegram, notamment les groupes privés, réduisent les capacités de modération, ce qui pose problème dans de nombreux pays : en Chine, en Iran, en Russie, à Hong-Kong ou en Biélorussie. 

🗯️ Quelles critiques envers Telegram ? Le manque de modération entraîne également des dérives sur des groupes privés. Certains y échangent des contenus violents voire terroristes, illicites (pédopornographie, revenge porn, piratage informatique, drogue). De plus, plusieurs événements ont montré que la sécurité de Telegram n’était pas si infaillible que ça. 

⚖️ Modération d’une messagerie, paradoxale ? Pour Pavel Durov, Telegram doit être un “outil de résistance” pour échapper au contrôle judiciaire et fiscal des États. Les groupes privés n’ont jamais fait l’objet d’une quelconque modération, même lorsque ceux-ci atteignent des centaines de milliers de membres. Et Pavel Durov s’est toujours montré très prudent sur la modération des chaînes publiques. 

Lire la suite

Tanguy Oudoire

Flint Production

Modération de Tik Tok : désinformation, pornographie et censure

Modération de Tik Tok : désinformation, pornographie et censure

Comment ça se passe, la modération à la chinoise ? La gestion des publications sur les réseaux sociaux asiatiques a-t-elle quelque chose à voir avec les Facebook, les Twitter qui nous viennent d’Amérique ? Le fait d’avoir une audience plus jeune que la plupart des autres plateformes change-t-il la donne ? Ce matin, continuons notre série sur la modération en nous penchant sur le cas de TikTok, le réseau où l’on publie des vidéos courtes.

📜 Un peu d’histoire : Propriété de la société chinoise ByteDance, TikTok est apparue en Chine en 2016 sous le nom de Douyin, pour ensuite s’exporter partout dans le monde. Son développement connaît une forte croissance, notamment en 2020, où les confinements successifs ont entraîné des téléchargements massifs. La spécificité de TikTok : son audience est plus jeune que la plupart des autres réseaux sociaux. 

😨 TikTok est-elle un problème politique ? Seul réseau social chinois ayant réussi à séduire aussi bien en Asie qu’en Amérique ou en Europe, TikTok inquiète par sa faculté à diffuser le soft power chinois. L’Inde en a interdit le téléchargement, les États-Unis de Trump ont essayé de le faire à plusieurs reprises, en vain, l’Égypte et le Pakistan s’en méfient… En Europe, plusieurs plaintes ont été déposées au sujet de la sécurité des consommateurs et de leurs données. 

⚙️ En pratique, comment TikTok modère-t-elle ? Contrairement aux autres plateformes sociales, TikTok n’a pas déployé de modération automatique généralisée. Si l’application a créé un comité d’expert extérieur afin d’analyser le travail des modérateurs, le régime chinois n’est jamais loin pour dicter quoi garder et quoi supprimer… 

🤔 Une modération trop laxiste ? Comme pour les autres plateformes, la gestion de la désinformation est un enjeu de taille pour TikTok. Les contenus (pédo)pornographiques et promouvant la consommation de drogues sont un autre problème, tout comme ceux vantant des idéaux de beauté, par la chirurgie plastique et les filtres de beauté. 

🤐 Une modération trop forte ? L’intervention du régime de Pékin dans la modération de TikTok n’est plus un secret. Tout vocabulaire renvoyant à des minorités, tout contenu à charge contre Pékin sont supprimés de la plateforme. Par ailleurs, TikTok adopte ses propres règles, comme la suppression des publications d’utilisateurs jugés “laids” ou “pauvres”.

❓Quelles améliorations imaginer ? Lutter contre la désinformation et protéger les plus jeunes sont les deux défis que veut relever TikTok : étiqueter les contenus faux, concevoir des programmes pédagogiques ou instaurer une fonction de contrôle parental sont des exemples d’actions mises en place. 

Lire la suite

Victor Baissait

Flint Production

Comment repérer un faux compte sur Twitter

Comment repérer un faux compte sur Twitter

Chez Flint, on te parle souvent des réseaux sociaux, de leurs problèmes de modération. En juin, on t’expliquait aussi les tenants et aboutissants de l’astroturfing, cette technique qui consiste à faire croire qu’une publication a eu beaucoup plus de succès que dans la réalité. Ce matin, on laisse la plume à Victor Baissait, qui explique de manière très pragmatique comment reconnaître de faux comptes sur Twitter et quelques autres réseaux. Car se doter d’outils pratiques, c’est une manière supplémentaire de s’armer face aux aléas de l’information partagée sur les réseaux.

Lire la suite

Mathilde Saliou

Flint Production

Modération : la désinformation, la violence et YouTube

Modération : la désinformation, la violence et YouTube

❓ Que fait YouTube pour protéger ses utilisateurs des contenus faux, violents, agressifs ? En fait-elle trop ? Le fait-elle bien ? Quatrième épisode de notre série sur la modération : plongeons dans le rabbit hole des vidéos hébergées par Google, ou la tendance des algorithmes à emmener l’internaute dans des spirales toujours plus précises – parfois extrêmes – de contenus.

Cartographie de YouTube : Propriété de Google depuis 2006, YouTube est aujourd’hui le plus grand réseau social, en nombre d’utilisateurs mensuels. Si certains considèrent la plateforme comme une alternative à la télévision ou aux sites de streaming vidéo et audio, elle fait aussi partie intégrante de l’économie de passion, permettant à des milliers de créatrices et créateurs de vivre des vidéos qu’ils y publient.

Une modération trop timide ? Les publications contrevenant aux règles d’utilisation de YouTube sont minoritaires par rapport à la production quotidienne de ses utilisateurs. Néanmoins, la plateforme est accusé de laisser-faire sur les questions de violence, de pédocriminalité, de haine en ligne. Pour la désinformation, certains pointent une forme de laxisme, d’autres soulignent la propension de son algorithme de recommandation à pousser des informations fausses et/ou complotistes.

Une modération déséquilibrée ? D’autres critiques s’attachent à ce qu’ils considèrent comme une modération inégalitaire : des chaînes de créateurs LGBTQ démonétisées alors que celles de leurs collègues hétérosexuels ne le sont pas, des bords politiques (notamment extrêmes) plus recommandés que d’autres, etc. Dans certains cas, la modération de YouTube est carrément perçue comme abusive. 

Comment YouTube modère-t-elle ? La plateforme s’appuie sur des modérateurs professionnels, mais aussi amateurs (avec le programme YouTube Heroes) et des algorithmes (qui se montrent parfois excessifs). Récemment, YouTube a multiplié les mesures contre la désinformation autour de sujets d’actualité comme le Covid-19 ou le réchauffement climatique, allant de la démonétisation à la suppression totale du contenu.

Quelles pistes d’amélioration ? C’est l’enjeu pour toute les plateformes, et YouTube n’y coupe pas : intensifier la lutte contre la cyberviolence, garantir une modération équitable ou encore réduire les effets parfois néfastes de la recommandation sont autant de sujets qui occupent YouTube et ses observateurs extérieurs. 

Lire la suite

Tanguy Oudoire

Flint Production

Modération : les fake news, la politique et Facebook

Modération : les fake news, la politique et Facebook

🔎 Avec 2,8 milliards d’utilisateurs actifs chaque mois, Facebook est le plus grand réseau social du monde. Les récentes révélations de la lanceuse d’alerte Frances Haugen reviennent braquer le projecteur sur les actions réalisées ou non par le réseau de Mark Zuckerberg pour modérer les propos éléments publiés sur sa plateforme.   

📇 Petit état des lieux : Facebook est le plus gros réseau social au monde et son modèle économique repose sur la publicité ciblée. Il fait face au vieillissement et à la réduction progressive des activités de ses utilisateurs, ce qui explique ses tentatives de maintenir l’engagement. 

⚙️ Quelles critiques visent sa modération ? Comme Twitter, Facebook est à la fois accusé de ne pas en faire assez pour modérer les fausses informations, les manipulations politiques, la violence, mais aussi d’en faire trop en supprimant du contenu de manière parfois incohérente.  

🧰 Comment (ré)agit Facebook ? L’entreprise de Zuckerberg ne chôme pas. Elle a triplé son nombre de modérateurs humains entre 2017 et 2020, lancé des programmes dédiés à la lutte contre les fausses informations, modifié ses algorithmes de modération et d’ordonnancement du fil d’actualité, entre autres. Néanmoins, le problème porte sur l’efficacité réelle de ces mesures (et leurs buts : préserver la paix sociale ou maximiser l’engagement ? Les deux peuvent-ils aller de pair ?)

📁 Que soulignent les Facebook Files ? Les documents dévoilés par la lanceuse d’alerte Frances Haugen remettent de l’eau au moulin de la critique. Ils montrent que l’immense majorité des efforts de modération sont réservés aux pays occidentaux voire aux États-Unis. Ils soulignent que certaines modifications algorithmiques cherchaient peut-être trop à servir des intérêts économiques, et illustrent, entre autres, la manière dont ces technologies peuvent échapper à leurs créateurs.

Lire la suite

Mathilde Saliou

Flint Production

Les mots de l’info : extrême-gauche, extrême-droite, quelle place dans le paysage médiatique ? (2/2)

Les mots de l’info : extrême-gauche, extrême-droite, quelle place dans le paysage médiatique ? (2/2)

Hier, nous discutions de qui sont les extrêmes, à droite comme à gauche. Aujourd’hui, il s’agit de se pencher sur ce qu’ils font ou ce qu’ils sont dans les médias :

1️⃣ Une re-définition du vocabulaire, car le flou est décidément de mise : des termes comme “droite dure”, opposée à une droite républicaine ou modérée, ou “libertaires” sont parfois détachés, dans leurs usages médiatiques, des réalités conceptuelles des sciences politiques.

2️⃣ Qui promeut les discours extrêmes : les politiques ? Les médias ? La société dans son ensemble ? La fenêtre d’Overton qualifie les concepts et les idées que la société accepte d’entendre discutées. Elle semble s’être ouverte vers l’extrême-droite, sous la pression conjuguée des politiques puis des couvertures médiatiques, mais cette idée reste débattue. 

3️⃣ Les extrêmes en ligne : si leurs audiences restent limitées, les courants d’extrême-droite ont développé une vraie maîtrise des usages numériques, que ce soit en créant des contenus drôles, jeunes, radicaux, ou en se faisant passer pour des sites d’information. Cette logique semble moins présente à gauche en France. 

4️⃣ Radicalisations connectées : amateurs de contenus clivants et violents, qui nous gardent “engagés”, les algorithmes des réseaux sociaux ont aussi leur rôle dans la radicalisation des discours et l’ambiance explosive des débats en ligne.

Lire la suite

Tanguy Oudoire

Flint Production

La cyberviolence, la politique et Twitter

La cyberviolence, la politique et Twitter

Ce matin, Tanguy Oudoire et Mathilde Saliou se penchent sur Twitter et ses problématiques de modération :

1️⃣ D’abord, quelques chiffres-clés : au premier trimestre 2021, Twitter comptait plus de 206 millions d’utilisateurs journaliers actifs dans le monde, dont 36% de femmes. En France, 4 millions de visiteurs uniques se rendent quotidiennement sur le réseau.

2️⃣ Ensuite, un récap’ de l’état de la violence dans le débat public en ligne : elle vise en priorité les femmes et toutes les minorités. Twitter, lui, a mis 7 ans avant de proposer sa première fonctionnalité de modération et reste critiqué pour sa faible modération des violences sexistes et sexuelles, du racisme, des discours homophobes et handiphobes.

3️⃣ Cet état des lieux posé, vient la grande question : comment Twitter organise sa modération ? Des algorithmes trient la plus grande partie des tweets, mais des êtres humains s’occupent de modérer les cas les plus graves. Entre 2013 et 2021, la plateforme a fait évoluer ses fonctionnalités, sans jamais parvenir à créer l’unanimité. 

4️⃣ Ça s’explique notamment parce qu’un autre grand pôle de critique se plaint d’un excès de modération, craignant que Twitter n’abime la liberté d’expression. Pour évoquer cela, on se penche sur le cas américain, où la plateforme est régulièrement accusée de biais pro-démocrates par les Républicains. La suppression du compte de Donald Trump, le 8 janvier 2021, a enflammé les débats : était-ce de la censure ? Était-ce une manière d’appliquer enfin les règles d’utilisation de la plateforme ? Impossible de trancher (d’ailleurs, on rajoute de l’huile sur le feu en mentionnant tout un tas de campagnes d’astroturfing à visée politique qui ne sont pas modérées). 

5️⃣ Quelles solutions pour cette modération ? Certaines expérimentations tendent vers une modération plus collaborative, avec les utilisateurs. Mais certains voient cela comme une manière pour Twitter de se décharger de ses responsabilités de modération, alors même que différentes associations de protection de la liberté d’informer militent pour une meilleure gestion des discours sur la plateforme sociale. 

Lire la suite

Benoit Raphaël

Flint Production

Facebook c'est bien

Facebook c'est bien

Cher(e) toi,

Tiens, aujourd’hui je vais prendre la défense de Facebook. Ça va te changer un peu.

Mais pourquoiiii ? Vas-tu me demander ?

Eh bien, comme tu as pu le remarquer (enfin si tu t’intéresses à ce qu’il se passe sur Internet), les médias n’y sont pas allés de main morte avec Facebook ces dernières semaines. Il est vrai que les témoignages (et désormais les documents internes) s’accumulent pour accuser ses algorithmes de recommandation de nous enfermer dans des bulles, de nous diviser, et de nous rendre dépressifs. Certes. Sauf que.

Lire la suite

Tanguy Oudoire

Flint Production

Réseaux sociaux et modération, quel est le souci ?

Réseaux sociaux et modération, quel est le souci ?

1️⃣ Les réseaux sociaux ont transformé l’accès à l’information et nos possibilités de pouvoir discuter en public. Ce que nous y recevons et la manière dont nous le recevons est régi par des algorithmes, qui s’adaptent à nos comportements.
2️⃣ Si les États-Unis ont une perception très large de la liberté d’expression, en France, cette dernière n’est pas absolue. Or, assurée par des humains et des robots, les décisions de modération entrent quelquefois en contradiction avec des discours de défense de la liberté d’expression.
3️⃣ C’est le paradoxe de la gestion des contenus sur les réseaux. Si les outils et les algorithmes de modération propres à chaque plateforme se développent depuis plusieurs années, des critiques subsistent : gestion insuffisante des fausses informations, des contenus clivants et haineux, notamment envers les femmes et les minorités, persistance de contenus pédocriminels, accusations de biais politiques ou discriminants…

Lire la suite

Romain Llapasset

Flint Production

Greta Thunberg, le charbon et la manipulation d’image

Greta Thunberg, le charbon et la manipulation d’image

Ce matin, on laisse la plume à Romain Llapasset, qui nous explique certains effets de l’usage du charbon en Allemagne et illustre un cas de distorsion du discours de Greta Thunberg par ses critiques.

Lire la suite