Flint

Flint Production

Le moteur de recherche Google est-il neutre ?

Le moteur de recherche Google est-il neutre ?

Des rĂ©sultats de recherche Google, c’est un peu comme l’ADN : ils peuvent ĂŞtre très similaires entre deux personnes, mais personne n’a exactement les mĂŞmes. Pourquoi le plus grand moteur de recherche du monde ne renvoie-t-il pas les mĂŞmes rĂ©ponses Ă  chacun ? Tu vas voir, c’est encore et toujours une histoire d’algorithmes et de profits. 

đź’ˇ Pourquoi c’est intĂ©ressant ? En ayant conscience de la partialitĂ© dont fait preuve Google dans ses rĂ©sultats, on peut rĂ©flĂ©chir plus sereinement Ă  l’impact des technologies sur nos vies et sur l’information que l’on reçoit. 

Les faits : 

đź’» Comment Google fonctionne-t-il vraiment ?

Qu’est-ce qu’il se passe lorsque tu effectues une recherche sur Google ? Comment le moteur de recherche parvient-il Ă  t’afficher des millions de rĂ©sultats en quelques centièmes de secondes ? En fait, tu peux voir Google comme une bibliothèque gĂ©ante, gĂ©rĂ©e par un bibliothĂ©caire très efficace : l’algorithme PageRank (tu peux Ă©couter l’histoire de sa crĂ©ation sur France Inter ou un dĂ©tail de son fonctionnement dans le JDN). 

En 2021, la “bibliothèque” Google contenait 130 000 milliards de pages web, ce qui en fait la plus grande base de donnĂ©es jamais rassemblĂ©e. Ă€ chaque recherche, l’algorithme de Google parcourt l’index des pages web Ă  la recherche de publication en lien avec le(s) mot(s) demandĂ©(s), puis trie les pages trouvĂ©es selon des centaines de critères : affichage de la page, mots-clĂ©s, pertinence, expertise, date de publication… Google communique très peu d’informations concernant cet algorithme (BDM, Journal du geek, Junto). 

On sait tout de mĂŞme que, comme beaucoup d’algorithmes, celui de Google se nourrit des recherches dĂ©jĂ  effectuĂ©es par les utilisateurs : plus le site A est recherchĂ© par les visiteurs, plus il a de chance d’être prĂ©sentĂ© haut lors d’une nouvelle requĂŞte. La logique d’autoritĂ© entre aussi en compte. Comme l’explique Dominique Cardon dans son ouvrage Culture NumĂ©rique, si le site A, bien classĂ©, adresse un lien vers un site B, qu’importe le contexte, l’algorithme de Google considère que le site A accorde de l’importance au site B, qui mĂ©rite donc d’apparaĂ®tre plus haut dans les rĂ©sultats. C’est grâce Ă  cet entraĂ®nement permanent qu’il affine les rĂ©sultats de ta recherche. Google assure qu’aucun humain n’intervient dans cette curation. 

🤖 Un algorithme uniquement robotisé, vraiment ?

Trier des tas de donnĂ©es, c’est l’essentiel du travail d’un moteur de recherches. Il te permet d’avoir accès Ă  un grand choix de documentations diverses, très rapidement, de manière hiĂ©rarchisĂ©e. Mais dans le cas de Google, une enquĂŞte de 2019 du Wall Street Journal rĂ©vèle que ces choix de curations de l’algorithme, façonnĂ© initialement par des ingĂ©nieurs, sont influencĂ©s par des interventions rĂ©gulières de ces mĂŞmes ingĂ©nieurs. L’algorithme du moteur de recherche n’est donc pas strictement automatisĂ©. 

L’enquĂŞte rĂ©vèle les travers de Google Suggest, la fonctionnalitĂ© de saisie semi-automatique qui prĂ©dit des mots lors d’une recherche, pour aller plus vite. Depuis 2010, de nombreux exemples illustrent ces dĂ©rives : en 2012, plusieurs associations françaises de lutte antiraciste signalent que le mot “juif” est très souvent proposĂ© en prĂ©diction lorsque le nom d’une personnalitĂ© est recherchĂ©e, dĂ©nonçant un fichage Ă©thnique illĂ©gal en France. La mĂŞme annĂ©e, on apprend que l’outil suggĂ©rerait rapidement des termes discriminants, racistes ou insultants pour des personnalitĂ©s, mais aussi pour des expressions comme “les noirs” ou “les juifs”. En 2013, une campagne de l’ONU met en lumière des prĂ©dictions homophobes et misogynes gĂ©nĂ©ralisĂ©es lorsqu’on Ă©crit “Les gays devraient” ou “Les femmes devraient” (Le Monde, Slate, Pink News). 

Dans le mĂŞme temps, Google Suggest lisse certaines prĂ©dictions : pour Ă©viter les polĂ©miques, la fonctionnalitĂ© propose des prĂ©dictions moins virulentes que d’autres moteurs de recherche. C’est notamment le cas lorsqu’on recherche “Joe Biden is” ou “Donald Trump is”, dont les prĂ©dictions relèvent plus de l’information que du jugement (L’ADN). 

Le Wall Street Journal dĂ©voile aussi que Google a recours Ă  des “listes noires” de sites Ă  ne pas remonter en première page, voire Ă  ne pas montrer du tout. On apprend Ă©galement que sur le moteur de recherche Google, les plus grandes entreprises (comme eBay, Facebook, Amazon) sont favorisĂ©es par rapport aux plus petites, en apparaissant plus souvent en premières dans les rĂ©sultats (01Net). 

🏳️ Une neutralitĂ© impossible Ă  atteindre ? C’est lĂ  tout le dĂ©bat. 

Pour Guillaume Sire, maĂ®tre de confĂ©rences Ă  l’Institut français de presse, “la neutralitĂ© n’existe pas pour les moteurs de recherche”. Il compare un moteur de recherche Ă  un titre de presse : de la mĂŞme manière que les journalistes qui doivent faire des choix Ă©ditoriaux, l’algorithme de Google traite l’information selon les paramètres choisis par les ingĂ©nieurs. Tout dĂ©pend du point de vue que l’on adopte : considère-t-on Google comme un relais passif d’information ou bien comme un Ă©diteur actif ? Dans le second cas, la partialitĂ© est de mise, pour le meilleur comme, parfois, pour le pire. 

Selon Guillaume Sire, cinq controverses autour du traitement de l’information par Google demeureront sans rĂ©ponse consensuelle, mais mĂ©ritent d’être dĂ©battues : la neutralitĂ© Ă©ditoriale de l’algorithme, l’intervention humaine dans cet algorithme, sa transparence, le favoritisme pour certains services et la personnalisation des rĂ©sultats. Les connaĂ®tre, c’est aussi utiliser l’outil avec une pensĂ©e critique (INA, Cairn, The Verge). 

Dominique Cardon, sociologue spĂ©cialisĂ© dans les questions autour du numĂ©rique, prĂ©fère parler d’une nĂ©cessaire “loyauté” des plateformes, plutĂ´t que d’une promesse de neutralitĂ© de leur part. LoyautĂ© qui passe par une rĂ©elle transparence dans la prĂ©sentation du fonctionnement des algorithmes aux utilisateurs (Cairn). 

đźš« Google et le conflit d’intĂ©rĂŞt 

Revenons-en à Google. Depuis son lancement en 1998, l’entreprise est devenue bien plus qu’un moteur de recherche. Déjà experte dans la curation en ligne, elle a étendu ses compétences dans d’autres domaines : la cartographie (Google Maps), le mail (Gmail), la culture (Google Livre, Google Play, YouTube) le commerce (Google Shopping), les réseaux sociaux (Google+) et des outils collaboratifs (Google Drive, Google Agenda, Google Meets, Google Workspace, Google Chat) (Wikipédia). À partir de là, difficile de prôner la neutralité dans le choix des contenus remontés. Google possédant le monopole de la recherche en ligne, son algorithme fait automatiquement remonter ses services en haut des pages de requêtes, ce qui lui a déjà valu plusieurs sanctions.

Dès 2017, la Commission europĂ©enne amende Google Ă  hauteur de 2,4 milliards d’euros, pour avoir favorisĂ© son service Google Shopping et rĂ©trogradĂ© les sites concurrents. La pratique est jugĂ©e anticoncurrentielle. Un an plus tard, l’institution revient Ă  la charge avec une amende record de 4,34 milliards d’euros pour Google et Android, le premier se servant du second pour renforcer la position dominante de son moteur de recherche. Enfin, en 2019, Bruxelles inflige une troisième amende Ă  Google, de 1,49 milliards d’euros, une nouvelle fois pour abus de position dominante, Ă  travers cette fois sa rĂ©gie publicitaire AdSense (Challenges, Capital, Les Echos). 

La mĂŞme annĂ©e, l’AutoritĂ© de la concurrence (organisme national indĂ©pendant surveillant le marchĂ© français) sanctionne Ă  son tour Google d’une amende de 150 millions d’euros pour “abus de position dominante” : les règles de son service publicitaire Google Ads, sont “opaques et difficilement comprĂ©hensibles” et s’appliquent de manière “inĂ©quitable et alĂ©atoire” aux annonceurs, qui peuvent ĂŞtre exclus de la plateforme. Puis en juin 2021, elle sanctionne de nouveau la firme amĂ©ricaine pour avoir favorisĂ© ses services et particulièrement DFP (le serveur publicitaire) et AdX (qui organise la vente des espaces publicitaires en temps rĂ©el), pĂ©nalisant les Ă©diteurs de sites et d’applications mobiles (Le Monde, NextInpact). 

🌍 Plusieurs Google ? 

En juillet 2021, Rodrigo Ochigame et Katherine Ye, respectivement chercheurs et chercheuses au MIT et à la Carnegie Mellon University de Pittsburgh, développent l’outil Search Atlas (pas encore disponible pour le grand public). Leur constat : selon la zone géographique dans laquelle l’utilisateur se trouve et selon la langue de la recherche, les résultats affichés par Google sont totalement différents, ce qui façonne des “frontières de l’information”. Search Atlas invite à dépasser ces frontières virtuelles, en permettant à l’utilisateur de faire des recherches à travers différentes langues et pays et de les comparer. Par exemple, si tu cherches “avortement” sur Google en France, Google en Albanie et Google en Pologne, seuls les deux premiers vont te fournir des informations pertinentes sur l’avortement. En Pologne, Google n’affiche que les résultats traitant de fausses couches (le gouvernement polonais est ouvertement anti-avortement) (Numerama, Le Monde).

Bon Ă  savoir : Google et la question de l’avortement, c’est une longue histoire. En 2014, le moteur de recherche Ă©tait vivement critiquĂ© pour laisser se diffuser des publicitĂ©s pour des centres anti-avortement. Deux ans plus tard, c’est l’algorithme de curation de Google qui est pointĂ© du doigt, pour mettre en avant un site et un numĂ©ro vert hostile Ă  l’IVG. Enfin, en 2019, The Guardian rĂ©vèle que Google avait offert 150 000 dollars de publicitĂ© gratuite pour le groupe anti-avortement Obria (The Washington Post, Le Monde, The Guardian). MĂŞme en France, des luttes ont lieu Ă  rĂ©pĂ©tition pour Ă©viter que des sites d’apparence sĂ©rieuse mais pilotĂ©s par des groupuscules anti-avortements se retrouvent au-dessus des informations certifiĂ©es du gouvernement ou du Planning Familial (en 2013, Le Parisien, en 2016, Journal des Femmes). 

L’avortement n’est qu’un exemple des multiples sujets sur lesquels se livrent des formes de luttes numĂ©riques – les vaccins, certaines thĂ©ories du complot, des dĂ©bats politiques de toutes sortes suscitent les mĂŞme tentatives de manipulation des rĂ©sultats de recherche. Pour la prĂ©sidentielle 2022, rapporte France Info, la guĂ©rilla est largement ouverte. 


→ Si tu veux approfondir tes réflexions sur ce sujet, je te (re)conseille le livre de Dominique Cardon, Culture Numérique. Tu peux aussi feuilleter les études du CSAlab, Le rôle des données et des algorithmes dans l’accès aux contenus et de l’Institut Montaigne Algorithmes : contrôle des biais SVP. 

[Modifications 14.03.2022 : ajout du terme « index » dans le deuxième paragraphe de la partie Comment Google fonctionne-t-il vraiment ? sur recommandation de l’internaute JM Brodu]

Pour complĂ©ter ou corriger cette sĂ©rie d’articles et apporter vos sources, đź“ť rendez-vous sur sa version participative ou venez đź’¬ en discuter avec nous sur Discord

As you know, Flint is free. How do we finance ourselves?
By offering a great service for companies: creating intelligent newsletters in a few minutes, automatically filled with quality content, to make employees or their community aware of the real trends that matter.
To request a 30-day free trial, you can go here! Recommendation is our main source of income.
Thank you thank you!



To read also...

La société NetDragon a-t-elle vraiment embauché une intelligence artificielle comme CEO ?

La société NetDragon a-t-elle vraiment embauché une intelligence artificielle comme CEO ?

By

 

Benoit Raphaël

Les bonnes sources d’info pour dĂ©battre du lancer de soupe Ă  la tomate contre un tableau de Van Gogh

Les bonnes sources d’info pour dĂ©battre du lancer de soupe Ă  la tomate contre un tableau de Van Gogh

By

 

Benoit Raphaël

Les bonnes sources d’information pour comprendre le rachat de Twitter par Elon Musk

Les bonnes sources d’information pour comprendre le rachat de Twitter par Elon Musk

By

 

Benoit Raphaël

See more articles
Flint