L'intelligence artificielle pourrait-t-elle détruire l'humanité plus vite que les humains ?


Cher(e) toi,

Au moment où je t'écris (c'est à dire hier), je suis embarqué dans un train magique à destination de Yogyakarta, au coeur de l'île de Java, première étape avant mon retour à Bali. Je dis "magique" parce que, tu vois, embarquer dans ce vieux train tout en métal, et quitter la gare de Jakarta dans un long coup de sifflet assourdissant, c'était pour moi comme me retrouver devant les trains électriques de mon enfance.

Alors je me suis mis sur mon 31 pour prendre le train.

Ça va te paraître idiot. Mais avec mon accoutrement je me suis senti comme le héros de mon propre livre d'images.



Et puis pouvoir travailler sur Flint tout en regardant défiler les paysages incroyables de l'île de Java, quel bonheur insolite !  Je crois que c'est pour cela que je suis parti vivre quelques temps à Bali, et c'est aussi pour cela que je me suis dit, "tiens, et si je terminais le périple en train ?". Tu travailles mieux quand ton coeur se remplit de rêves.

❤️ Avant de commencer, si tu ne me connais pas, je me présente : je suis Benoît Raphaël, co-fondateur de Flint. Et un dimanche sur deux, je réfléchis avec toi sur la façon dont nous pouvons parvenir à penser par nous-mêmes dans le chaos de l'info. D'ailleurs, si on t'a fait passer cette lettre, tu peux t'abonner ici.
Dans cette édition,
tu vas enfin savoir si l'IA va détruire l'humanité oui ou non. Mais aussi à quoi sert l'IA (ou pas). Et nous aurons une petite pensée pour Pierre Haski. ❤️


Je commence à me demander dans quelle mesure je ne pourrais pas essayer de faire Paris-Bali en train la prochaine fois (c'est à dire dans un an), haha. Non, c'est vrai.

Bon, j'ai regardé, c'est un peu compliqué : la meilleure option étant le Transibérien qui part de Moscou jusqu'en Chine. Et il faut donc d'abord aller à Moscou en train, voilà... Si tu as d'autres idées, je prends.

Il faudrait développer des alternatives à l'avion. Si l'on peut travailler depuis n'importe où, pourquoi ne pas imaginer des trains ou des bateaux qui feraient le tour du monde en quelques jours pour un prix raisonnable ? Ça ralentirait le temps et ça ouvrirait le monde à nouveau. On retrouverait les émotions voyageuses du poète Gérard de Nerval. Son "Voyage en Orient" (tu connais ?) est resté longtemps mon livre de chevet.



Bon, sinon, aucun rapport, cette semaine tu as peut-être entendu parler de la nouvelle tribune sur l'intelligence artificielle.

J'avais déjà exploré avec toi les dessous de la précédente tribune, tu sais, celle qui était à l'initiative d'Elon Musk. Elle demandait une pause de 6 mois dans le développement des technologies d'IA (enfin surtout ChatGPT). Le texte était un peu compliqué et avait suscité beaucoup de polémiques.

Cette fois, histoire d'éviter les éclaircissements post-publication du type "je ne suis pas d'accord avec tout ce qui est dit mais..." les instigateurs de la tribune (une association appelée "Center for Safety AI") ont choisi un format beaucoup plus court.

Vraiment plus court.
 
En fait, la tribune tient en une phrase. 

Donc ce n'est pas vraiment une tribune, disons que c'est une phrase-tribune.  

Quoi qu'il en soit, elle a le mérite d'être claire et facile à comprendre. 

"L'atténuation du risque d'extinction lié à l'IA devrait être une priorité mondiale, au même titre que d'autres risques sociétaux tels que les pandémies et les guerres nucléaires."

Voilà. 



Cette mini-tribune anti "extinction de l'humanité" est signée par des personnalités et des chercheurs de renom. On compte parmi elles Bill Gates, mais aussi Sam Altman (le patron de ChatGPT qui n'avait pas signé la première tribune parce qu'il avait moyennement envie de faire une pause, vois-tu) et deux des trois "parrains" de l'IA, comme on les appelle : Yoshua Bengio et Geoffrey Hinton.

Le troisième parrain est Français, il s'appelle Yann LeCun. Mais lui a refusé de soutenir la mini-tribune.

Cette controverse autour du thème "l'IA va-t-elle détruire l'humanité oui ou non?" est intéressante. En particulier parce qu'elle oppose les trois fondateurs de l'IA moderne.

Bengio, LeCun et Hinton ont reçu ensemble le prix Turing pour leur découvertes sur le "deep learning" dans les années 90, une technologie clé à la base d' IA comme ChatGPT.



Yann LeCun serait-il favorable à l'extinction de l'humanité ? Non, mais il estime, tout comme un autre de ses compatriotes chercheurs, François Chollet que cet appel ne repose sur aucune réalité scientifique. 

"Pour être clair, à l'heure actuelle et dans un avenir prévisible, il n'existe aucun modèle ou technique d'IA susceptible de représenter un risque d'extinction pour l'humanité. Pas même sous une forme naissante, et pas même si l'on extrapole les capacités loin dans l'avenir par le biais des lois d'échelle." (François Chollet sur Twitter)

Pour rappel, François Chollet est chercheur. chez Google et Yann LeCun travaille pour Meta. Mais sachant que d'autres scientifiques de chez Google ont, à l'inverse de François Chollet, signé la tribune en question, on pourrait être en droit de se demander qui a raison.

Alors qui a raison ?

Eh bien après avoir fouillé Internet pendant des jours entièrs à la recherche des indices sur un éventuel projet secret de meurtre de l'humanité par l'intelligence artificielle, je suis désormais en mesure te répondre.

Tiens toi bien, je vais simplifier pour toi.

Tout le monde a raison. 

Mais comment ça ? Tout le monde a raison de dire que l'IA pourrait un jour détruire l'humanité ?  Et tout le monde aurait AUSSI raison de dire que ces thèses alarmistes s'appuient moins sur la science que sur la science-fiction ?

Oui.

Mais le débat est néanmoins éclairant.

D'ailleurs si tu veux mon avis personnel, moi je suis bien content d'avoir d'un côté un Geoffrey Hinton qui nous fait peur sur les risques  liés à l'IA et, de l'autre, son ancien copain Yann LeCun qui essaie de lui remettre les pieds sur la planète Descartes.

Si tu veux creuser un peu le sujet;, tu peux lire l'article de la revue du MIT qui expose les arguments contraires de nos trois frères Dalton de l'IA.

Tous les trois nous parlent, à leur manière, de vigilance.

Hinton et Bengio nous invitent à anticiper de potentielles catastrophes à venir, LeCun nous invite à ne pas tout mélanger.

La bonne nouvelle est que tu n'es pas obligé(e) de choisir ton camp.

Pour que tu t'y retrouves un peu, j'ai classé pour toi plusieurs typologies d'approches sur les risques liés à l'IA.

Aucune d'entre-elles ne repose sur des études scientifiques. La seule étude scientifique capable de prédire la dégradation probable du sort de l'humanité si l'on ne fait rien est celle du GIEC, et elle concerne le dérèglement climatique.



La première approche apocalyptique est celle de la science-fiction : elle consiste à imaginer l'émergence d'une sorte de super-intelligence autonome qui échapperait au contrôle de l'humanité et déciderait, en gros, de vivre sa vie et de faire de son développement personnel une priorité N°1. Comme par exemple, assurer son alimentation en énergie "quoi qu'il en coûte". Et ce au détriment de l'humanité. Une sorte de parasite.

Pour parvenir à cette situation hautement désagréable, il faudrait qu'une  IA soit capable de faire ce que, pour l'instant, aucun humain, ni aucun gouvernement n'est capable de faire.

Je crois que le président de la Corée du Nord (qui est lui même aussi une sorte de parasite) aimerait bien y arriver un jour lui aussi, grâce à son armée de hackers. Mais le chemin pour y parvenir est tellement complexe qu'on ne sait même pas s'il y a un chemin.

Une professeure de philosophie s'est toutefois essayé à l'exercice avec un spécialiste des menaces géopolitiques.  L'article, publié dans le Wall Street Journal, n'a rien de scientifique, mais il te donnera une vision très illustrée du cauchemar absolu que pourrait provoquer, selon l'imagination fertile des deux auteurs, non pas l'émergence d'une super-intelligence, mais d'un "mega-système" de super-intelligences complètement psychopathes.

Tu vas me répondre : oui mais si jamais ça arrivait ?  Oui bien sûr. Il faudrait beaucoup de "si", en fait. Dont certains sont de vraies inconnues. Mais il est toujours intéressant de prévoir le pire comme par exemple la chauve-souris qui pourrait un jour taper par hasard le code de ta porte d'entrée pour t'attaquer chez toi (source : Jean-Marie Bigard).

La seconde approche est celle du risque lié à l'IA dite "autonome". C'est à dire une IA qui prendrait toute seule ses décisions.

Pour que le risque existe, pas besoin que l'IA soit très intelligente d'ailleurs. Une IA autonome complètement stupide ferait sans doute beaucoup plus de dégats qu'une IA raisonnable.

C'est la raison pour laquelle le chercheur Yoshua Bengio propose d'interdirre carrément toutes les IA autonomes. Bah oui, pourquoi s'emmerder ?

Alors il y a des limites à ce scénario.

Enfin, tout dépend de la façon dont on comprend l'adjectif "autonome".

Par exemple, imagine une voiture complètement  autonome qui te répondrait "nan, moi je vais aller à Dijon" quand tu lui demanderais de te conduire à Marseille. Relou.

"Euh... oui, mais quel intérêt aurions-nous à créer une telle machine ?" s'interroge le chercheur français Jean-Gabriel Ganacsca.

Mais je chipote.

Imaginons donc une IA vraiment autonome, mais pas trop. Comment la sécuriser ? C'est là que le débat devient fascinant. 

C'est en réfléchissant à cette question que des chercheurs de Berkeley en sont venus à proposer leur idée de doter les agents autonome d'une "conscience artificielle".

C'est à dire ?

Eh bien, tu vois, sur le schéma ci-dessous, les scientifiques proposent des notations différentes en fonction des réactions du robot.

Par exemple, s'il venait à découvrir le corps de son patron ensanglanté dans le bureau.

Que doit faire le robot ?

Appeler la police (bieeeen !) ou faire le ménage (pas bieeeen !) ? Chaque notation est représentée par une tête de Jimminy Cricket qui fait la gueule ou qui est content.



Une troisième approche, plus terre à terre si j'ose dire, consiste à s'inquiéter non pas de ce que l'IA pourrait faire toute seule (si nous décidions un jour d'arrêter de la contrôler), mais de ce que les humains pourraient en faire.

Bienvenue dans la team "L'IA c'est comme le nucléaire", portée par Geoffrey Hinton. 

Bon, Hinton ne propose pas vraiment de solutions. Mais il a un argument massue qui fait peur : 

"Ne pensez pas un instant que Poutine ne fabriquerait pas des robots hyperintelligents dans le but de tuer des Ukrainiens.Il n'hésiterait pas. Et si vous voulez qu'ils soient bons dans ce domaine, vous ne voulez pas les micro-gérer, vous voulez qu'ils trouvent comment le faire".

Cette analogie avec le nucléaire est intéressante
, si l'on met de côté le fait qu'aujourd'hui, contrairement au nucléaire, TOUT LE MONDE a accès aux technologies d'IA.

Et si l'on met également de côté le fait qu'il n'existe pas d'IA capable de détruire un pays comme serait capable de le faire une bombe H. Ni même ton appartement d'ailleurs. Mais imaginons que ça soit un jour possible.

Cette approche imaginaire met donc l'accent sur un usage potentiellement léthal de l'IA par les humains, plus que sur son autonomie putative (même si, comme nous venons de le lire, selon Hinton, le choix de rendre l'IA autonome est aussi une forme d'usage).

Par exemple, plutôt que d'imaginer une IA Poutine devenue folle au point de détrure l'humanité (ce qui n'est pas l'objectif de Poutine, enfin je crois), l'exercice consiste à  réfléchir à comment empêcher le VRAI président russe d'utiliser l'IA pour "tuer plus d'Ukrainiens", comme dit Hinton.

Encore faudrait-il d'abord définir comment on pourrait tuer plus de gens avec les technologies actuelles qu'avec un missile nucléaire, tu me diras, mais imaginons...

La chauve-souris.

Bon.

On pourrait donc, en prévision de cet événement apocalyptique qui n'a pas encore eu lieu, suggérer à ce qui reste du Conseil de sécurité de l'ONU de se mettre d'accord sur une sorte de gouvernance globale de l'IA, au cas où. À défaut d'en limiter la prolifération (puisque sur ce point, c'est déjà trop tard).

Des accords internationaux pourraient-ils aider l'humanité à maîtriser cette (éventuelle) course à l'armement ?

Alors pour aider le conseil de sécurité à gérer ce risque putatif, le chercheur à Harvard, Yonadav Shavit suggère de "surveiller le matériel informatique" utilisé par les gouvernements  pour l'entraînement des IA à grande échelle. Objectif : contrôler l'équipement des pays en puces électroniques par exemple, afin de s'assurer du respect de ces potentiels accords internationaux. Accords qui n'existent pas encore, je le rappelle, vu qu'il n'existe pas non plus d'arme algorithmique équivalente à l'arme nucléaire.

Mais au delà de cette possible (ou pas) apocalypse militaire, il y a, disons... tout le reste.

Et là il est vrai que dès que l'on se met à réfléchir aux usages potentiellement catastrophiques que l'humain con pourrait inventer avec ces IA (intelligentes ou pas on l'a vu), on entre dans un trou de lapin aussi infini que l'imagination de Tim Burton : manipulation des humains par des IA génératives de textes ou de vidéos, cyber-attaques, biais idéologiques... sans compter les bugs techniques et humains qui devraient égayer la chronique des robots écrasés des journalistes du futur.

Par exemple cet humain qui est mort parce qu'il jouait un à jeu captivant sur son mobile après avoir mis sa Tesla en autopilote, au lieu de regarder lui aussi la route.



Ou encore cet avocat qui a eu l'idée stupide de faire faire sa plaidorie à ChatGPT sans réaliser que l'IA avait inventé la jurisprudence sur laquelle sa défense reposait. Ah, ces humains...

Au-delà de cette règle de bon sens que nous pourrions tous adopter (ne pas faire confiance à 100% dans l'IA, surtout si elle tient le volant), les chercheurs de Deepmind (Google) ont proposé la semaine dernière la mise en place de technologies ou de protocoles permettant d'anticiper les risques potentiels, liés au développement de nouvelles intelligences artificielles par des ingénieurs un peu trop enthousiastes.

Ceci afin de sécuriser ce qu'on appelle "l'allignement".

Si tu ne connaissais pas le mot, l'allignement correspond à la capacité d'une IA à répondre correctement à la requête d'un humain sans faire n'importe quoi.




De son côté, OpenAI propose de créer une sorte d'équivalent de l'Agence Mondiale de l'énergie atomique, adaptée à l'IA, pour en "limiter les risques existentiels, pas pour définir ce qu'elle devrait dire ou ne pas dire". Oui, OpenAI est pour la règlementation, mais pas trop. Par exemple son PDG, Sam Altman, s'est énervé contre l'Europe.

Que propose l'Europe ?

Eh bien l'Europe (toujours la première à dégainer en matière de règlementation, à défaut de pouvoir entrer dans la compétition), suggère d'imposer des engagements de sécurité et de transparence aux créateurs de certaines IA dites "à haut risque".

C'est l'objectif, entre autres, de l'"AI act", en cours de vote au parlement européen, qui fait un timide pas dans ce sens.

Un pas timide... et encore flou. Mais bon c'est normal.

Pourquoi c'est flou ?

Parce qu'anticiper scientifiquement les risques, c'est un peu ce qui manque au débat actuel
, vois-tu.

Et c'est d'ailleurs pour cela que tout le monde a un peu tort et raison à la fois.

Il nous faudrait peut-être un GIEC de l'IA, histoire de mettre tout ce beau monde d'accord.

Bon et sinon, que dit Yann Lecun sur tout ça ?

Exactement le contraire de ses amis.

Il estime, en substance, que l'on a pas besoin d'être super-intelligent pour être un risque pour l'humanité, que les êtres humains se débrouillent déjà très bien tout seul.

LeCun voit dans l'IA une solution plutôt qu'un problème. Lui aussi a un argument massue (et tout aussi non scientifique que celui de Hinton) : 

"Même au sein de l'espèce humaine, les plus intelligents d'entre nous ne sont pas ceux qui dominent le plus. Et les plus dominateurs ne sont certainement pas les plus intelligents. Nous en avons de nombreux exemples en politique et dans le monde des affaires".

Ceci-dit, il n'a pas tort non plus.

Par exemple contre les fake news, il pense que l'IA va plutôt nous aider : 

"Imaginez un avenir dans lequel votre interaction quotidienne avec le monde de l'information est médiatisée par un assistant IA. Cet assistant serait comme un référentiel actif de toutes les connaissances humaines. Il deviendrait votre meilleur rempart contre la désinformation"   

Une IA gentille pour nous protéger des méchants humains ?

Et à trop anticiper et réglementer sans savoir, ne risque-t-on pas de restreindre l'innovation et la recherche ? Je veux dire celle qui va dans le "bon sens" ? (Bon là tu vas me dire : "c'est quoi le bon sens" et je vais te répondre "écoute, laisse tomber pour cette fois veux tu ? Sinon on ne va pas s'en sortir").

Je te laisse avec cette réflexion de Kyunghyun Cho, chercheur à l'Université de New-York :



"J'ai un immense respect pour Yoshua et Geoff, ainsi que pour Yann [LeCun], je les connais tous assez bien, j'ai étudié sous leur direction et j'ai travaillé avec eux. Mais voici comment je vois les choses : Bien sûr, les individus - scientifiques ou non - peuvent avoir leur propre évaluation des types de choses qui ont le plus de chances de se produire, des types de choses qui ont le moins de chances de se produire, des types de choses qui sont plus dévastatrices que d'autres. Le choix de la distribution de ce qui va se produire dans le futur et le choix de la fonction d'utilité qui est attachée à chacun de ces événements ne sont pas comme les sciences exactes ; il y a toujours de la subjectivité là-dedans. C'est tout à fait normal. 
(...) 
Ce qui est regrettable, c'est que les scientifiques et les décideurs politiques, les personnes qui prennent les décisions ou qui créent ces avancées, ne font que s'enthousiasmer, positivement ou négativement, pour ces avancées, sans faire preuve d'esprit critique à leur égard. Notre travail en tant que scientifiques, mais aussi en tant que décideurs politiques, est de faire preuve d'esprit critique à l'égard de bon nombre de ces avancées apparentes qui peuvent avoir des effets tant positifs que négatifs sur la société. Mais pour l'instant, [l'avénement d'une hypothétique "super-intelligence"] est une sorte de baguette magique que l'on essaie d'agiter pour hypnotiser les gens et les empêcher de faire preuve d'esprit critique à l'égard de ce qui se passe."


Voilà. Tu sais à peu près tout sur l'état du débat.

Si tu as eu la flemme de lire jusqu'ici... 


... ou si tu n'as rien compris, voici ce que tu peux retenir de tout ça sans trop te mouiller : 

  • Le débat sur une extinction possible de l'humanité causée par l'IA n'est pas un débat scientifique, même s'il oppose des scientifiques. On appelle ça le biais d'autorité.

  • Que dit la science sur le sujet ? Qu'elle ne sait pas, vu qu'on ne lui a pas encore apporté d'exemple d'IA dangereuse.

  • D'où l'adage "quand on ne sait pas, on imagine". 

  • Le débat n'en est pas moins utile, et c'est sans doute ce qui a manqué à l'Internet des débuts : il est philosophique et politique (enfin surtout géopolitique), plus que technique.

Et un peu financier tout de même, parce que même quand on a peur de l'IA, c'est toujours bon pour les acteurs de l'IA, n'est-ce pas ? 

C'est la raison pour laquelle Sam Altman n'a pas hésité à signer cette tribune. Parce que si ça fait peur c'est que ça vaut certainement le coup d'investir !

Allez, bon dimanche quand même, camarade humain !
🤔 BON ET SINON À QUOI ÇA SERT L'IA ?

A quoi sert l'IA ?


(Image réalisée avec l'IA par l'artiste ARTIV3RSE)

Alors se poser cette question revient en gros à se poser la question du bénéfice/risque, tout en sachant que, de toute façon, personne ne maîtrise vraiment la situation. Ce qui n'empêche pas de le faire, ne serait-ce que pour tenter de limiter les risques actuels et à venir.

Tout bien réfléchi, on aurait pu aussi se poser la question à chaque étape majeure de l'innovation technologique de l'humanité. À chaque fois l'humanité a perdu et gagné quelque chose, sauras-tu le découvrir ?  

A quoi sert l'agriculture ?
A quoi sert l'écriture ?
A quoi sert l'horlogerie ?
A quoi sert l'imprimerie ?
A quoi sert l'électricité ?
A quoi sert Internet ?
A quoi sert la blockchain ? (bon pour celui-là on ne sait pas encore)

💡 QUELQUES USAGES INTÉRESSANTS ET RÉCENTS
linkedin.com  -   4 juin
Permettre à un paraplégique de marcher à nouveau
Une innovation française dont on a beaucoup parlé ces derniers jours.
linkedin.com  -   4 juin
Réaliser un doublage instantanément avec TA voix et dans plusieurs langues
Attention, démonstration bluffante !
nature.com  -   4 juin
🇬🇧 Comment l'IA aide la science à avancer
Un article super intéressant de la revue Nature sur comment l'IA aide et peut aider la science à mieux comprendre le monde et à avancer. Et ça commence par être capable d'expliquer les décisions de l'IA.
🎙 LES GUERRES DE L'INFO
🇬🇧 Enquête : La moitié des journalistes de presse écrite travaillent déjà "activement" avec l'IA générative
pressgazette.co.uk - 31 mai
🇬🇧 Enquête : La moitié des journalistes de presse écrite travaillent déjà "activement" avec l'IA générative

Un nouveau sondage mené par l'Association mondiale des éditeurs de journaux (WAN-IFRA) indique que la moitié des salles de rédaction travaillent activement avec des outils d'intelligence artificielle générative tels que ChatGPT. Environ 49% des personnes interrogées ont répondu oui à la question : "Votre salle de rédaction travaille-t-elle activement avec des outils d'IA générative comme ChatGPT ? Problème : le sondage a également révélé que seulement 20% des personnes interrogées travaillant dans des organisations de presse disposent de lignes directrices sur l'utilisation de l'IA

🙈 DES NOUVELLES DE SAPIENS
L'IA est-elle vraiment intelligente ?
youtube.com -  3 juin
L'IA est-elle vraiment intelligente ?

La réponse est non, mais ce documentaire (en anglais) du média allemand DW fait parler les plus grands spécialistes de l'IA sur l'état de l'art. Pour la petite histoire, l'un des journalistes à l'origine de ce documentaire s'appelle Jean-Christoph ROBOT... ça ne s'invente pas.

🗣 CONSTRUISONS CETTE LETTRE ENSEMBLE !

Dans le secret des salons parisiens 

J'ai reçu beaucoup de réactions à ma dernière lettre ("La vérité sur la désinformation") dans laquelle je partageais avec toi un certain nombre de réflexions et d'expériences dans les coulisses du "pouvoir". Notamment celle de Faustine, qui nous raconte son expérience au service information du gouvernement. Passionnant ! 

"Lire ton aventure me ramène quelques années en arrière. A l’époque où je travaillais au Service d’Information du Gouvernement.

On venait de créer le département de veille d’opinion, sous l’ère Sarkozy justement. Officiellement, c’était le PM le patron. Mais avec Sarkozy, c’est le PR et son équipe qui reprenaient la main. Un autre style de « patron ». Il faut dire que j’avais commencé sous l’ère Chirac-De Villepin.

Avec le changement de patron au château, il y a eu aussi un changement de patron au SIG, compatible politiquement avec le nouveau PR et fondateur d’une agence de com’ également très marquée politiquement. Tout n’était plus que communication autant en direction des citoyens qu’à l’intérieur même des services : l’avènement du story telling.
Désormais, les internautes étaient des « crétins ». Les prémices des « Gaulois réfractaires », donc.

Il fallait vendre les réformes donc créer de l’événement. Je n’ai jamais vu le service « Campagnes » aussi débordé. Ça allait dans tous les sens, tout le temps.

Et mon service ? Eh bien un peu comme les sondages, tu sais ceux dont il s’est agi en justice. Il fallait tout savoir, tout le temps. En particulier sur les questions d’image, même de la part des « crétins ». Oui oui, c’est comme ça que le patron du SIG les appelaient. Je le revois m’accueillir en réunion me disant « ah oui, et vos crétins, que disent-ils ? ».

J’ai connu les « Grenelle » et « Etats généraux » de tout et n’importe quoi. Avec les notes de veilles qui vont avec. Comme sous la pandémie H1N1, où il était question de convaincre les fameux « crétins » que l’investissement dans les vaccins était signe de la bonne gestion et du sérieux du Gouvernement. Des notes tous les jours, analysant des centaines de commentaires dans des forums de discussions. Avant que Twitter et Facebook fassent la loi dans l’esprit des dirigeants.

Ce que tu as vécu au ministère, je l’ai vu des dizaines de fois. Jamais en tant qu’experte, bien sûr, mais en tant qu’observatrice. Les courbettes dignes de scènes de films, les concours d’éloquence où l’un parle bruyamment et où les autres acquiescent en hochant la tête. Ce qui m’avait surprise - j’étais toute jeune - c’était que tout ce beau monde, qui semblait tant en désaccord face caméra, était en général tellement « en accord » une fois dans les salons de Matignon ou d’une des dépendances. Tout le monde se tapait dans le dos, ou presque.

Tout cela servait-il aux ministres à comprendre ou prendre acte ? A mon humble avis, non. Juste à communiquer sur la réalisation du rassemblement au moins en interne.
Les réunions dont on n’entendait pas parler, celles-là avaient une réelle utilité à mon sens. Mais là, il n’y avait pas de photo ni de jolies tables et, souvent, pas de ministre non plus.
Ça fait peut-être un peu « vieux machin désabusé », je m’en rends compte. Mais attends.

Donc les internautes étaient des crétins et internet un repaire de conspirationnistes, et mon job était de produire des notes de veille d’opinion à foison, sur tout et n’importe quoi. De plus en plus sur l’image de l’équipe gouvernementale et de moins en moins sur le sociétal, ce qui commençait à me chauffer sérieusement.

Tout s’est fini un jour où on a appelé ma N+1 - avec qui j’avais fondé le département - pour lui demander de me faire censurer l’une de mes notes « parce que le destinataire ne pouvait pas lire ça ». Évidemment, ce n’était pas la forme qui gênait mais le fonds.
Elle l’a fait elle-même et j’ai posé ma démission dans l’heure en disant tout le bien que je pensais de leur conception de l’information. Oui, j’étais jeune mais je crois que je ferais la même chose aujourd’hui, enfin je l’espère.
"

A propos de Pierre Haski et des sandwichs au saumon

J'ai aussi reçu un message fâché du journaliste Pierre Haski que j'évoquais dans mon récit d'une réunion sur la désinformation avec la ministre, et qui a eu l'impression que je le faisais passer pour un "abruti" : 

"Je me [serais] contenté de venir manger un sandwich au saumon (le saumon est une circonstance aggravante?) sans rien dire - peut-être aurais tu pu préciser que j’avais un engagement professionnel avant et qu’arriver au milieu d’une réunion rend assez difficile de s’insérer dans les débats.. Non tu as préféré le bon mot…"

Bon, sur ce coup j'étais vraiment chagriné. Me moquer du chroniqueur "international" des matinales France Inter n'était pas du tout mon intention, c'était même le contraire. Voici donc ce que je lui ai répondu : 

"J’avais justement fait très attention à anonymiser la reunion, l’objet de ce billet, n’ayant aucun rapport avec [l'association organisatrice], dont je respecte l’action. L’idée était d’évoquer la dynamique qu’il se crée en présence d’un ministre, et d’augmenter la chronique de beaucoup d’autodérision (mon côté un peu autiste quand il s’agit de réunions de ce type, ou je me retrouve rapidement perdu par manque de codes).

J’ai laissé ton nom, après y avoir pas mal réfléchi, parce que, dans mon esprit, je te présentais plutôt comme une sorte de sage un peu détaché de tout ça.

Bon voilà. Au temps pour moi. Ça m'a aussi fait réfléchir sur le biais que l'on peut avoir quand on veut raconter une histoire. On biaise parfois un peu la réalité pour lui donner plus de sens... 
🤗 PARTAGE OU ABONNE-TOI !
🥳 Vous avez été 10052 à avoir lu la dernière lettre. Sur un total de 20391 abonnés francophones ! Merci !

💌 Si tu veux partager cette lettre, tu peux renvoyer vers ce lien.

📩 Si on t'a transféré cette lettre, tu peux aller t'abonner ici !

📭 Si tu veux lire les précédentes lettres, c'est par là !

🦾 Si tu veux découvrir la version pro de Flint, c'est ici.

🤗 Et tu peux aussi me rejoindre sur Instagram ou sur Linkedin !

🤫 Je te souhaite un beau dimanche, où que tu sois. 

Si tu veux partager tes réflexions, réponds à cette lettre ou écris-moi à benoit @ flint.media !

💚 Benoît
Flint

Cette lettre a été réalisée par Flint Business. Flint utilise l'intelligence artificielle pour te permettre de créer des newsletters intelligentes en moins de 5 minutes afin de partager les meilleurs contenus d'information trouvés sur Internet, et d'y apporter (si tu veux) ton expertise. Tu peux tester ce nouveau service pendant 30 jours en cliquant sur le logo Flint ci-dessus ! ☝️