Une femme portant un sweat à capuche pour la théorie du complot QAnon le 11 octobre 2020 à Ronkonkoma, New York.
/ Une femme portant un sweat à capuche pour la théorie du complot QAnon le 11 octobre 2020 à Ronkonkoma, New York.

Stephanie Keith | Getty Images

La croyance dans les théories du complot est omniprésente, particulièrement aux États-Unis, où certaines estimations suggèrent qu’environ 50 % de la population croirait en au moins une affirmation extravagante. Et ces croyances sont notoirement difficiles à déconstruire. Si l’on confrontait un adepte convaincu d’une théorie du complot avec des faits et des preuves, il aurait généralement tendance à s’arc-bouter sur sa position—un phénomène que les psychologues attribuent habituellement au raisonnement motivé, c’est-à-dire une manière biaisée de traiter l’information.

Un nouvel article publié dans la revue Science remet cependant en question cette sagesse conventionnelle. Des expériences où un chatbot IA a engagé des conversations avec des personnes croyant à au moins une théorie du complot ont montré que l’interaction réduisait significativement la force de ces croyances, même deux mois plus tard. Le secret de son succès : le chatbot, grâce à son accès à une vaste quantité d’informations sur une multitude de sujets, pouvait adapter précisément ses contre-arguments à chaque individu.

“Ce sont les résultats les plus fascinants que j’ai jamais vus,” a déclaré Gordon Pennycook, co-auteur et psychologue à l’Université Cornell, lors d’un point presse. “Ce travail remet en question beaucoup de nos idées sur les complots, selon lesquelles ils seraient le résultat de divers motifs et besoins psychologiques. [Les participants] ont été remarquablement réactifs aux preuves. On a beaucoup parlé de vivre dans un monde post-truth. Il est vraiment rassurant de savoir que les preuves comptent. Nous pouvons agir de manière plus adaptative en utilisant cette nouvelle technologie pour présenter de bonnes preuves aux gens, qui sont spécifiquement pertinentes par rapport à ce qu’ils pensent, ce qui en fait une approche beaucoup plus puissante.”

Lorsqu’ils sont confrontés à des faits qui remettent en question une croyance profondément ancrée, les gens cherchent souvent à la préserver plutôt qu’à mettre à jour leurs croyances (selon le jargon bayésien) à la lumière de nouvelles preuves. Ces dernières années, il y a eu beaucoup de pessimisme concernant la possibilité d’atteindre ceux qui se sont profondément enfoncés dans le monde des théories du complot, qui sont notoirement persistantes et “représentent une menace sérieuse pour les sociétés démocratiques”, selon les auteurs. Pennycook et ses collègues ont élaboré une explication alternative pour cette persistance obstinée de la croyance.

Contre-arguments personnalisés

Le problème est que “les théories du complot varient beaucoup d’une personne à l’autre,” a déclaré Thomas Costello, co-auteur et psychologue à l’Université Américaine, également affilié au MIT. “Elles sont assez hétérogènes. Les gens croient à un large éventail de théories et les preuves spécifiques utilisées pour soutenir une seule théorie peuvent différer d’une personne à l’autre. Ainsi, les tentatives de déconstruction où l’on essaie d’argumenter de manière générale contre une théorie du complot ne seront pas efficaces car les gens ont différentes versions de cette théorie en tête.”

En revanche, un chatbot IA serait capable d’adapter ses efforts de déconstruction à ces différentes versions d’une théorie du complot. En théorie, un chatbot pourrait donc s’avérer plus efficace pour convaincre quelqu’un de renoncer à sa théorie du complot favorite.

Pour tester leur hypothèse, l’équipe a mené une série d’expériences avec 2 190 participants persuadés d’une ou plusieurs théories du complot. Les participants ont eu plusieurs “conversations” personnelles avec un modèle de langage large (GT-4 Turbo) dans lesquelles ils partageaient leur théorie du complot de prédilection et les preuves qui soutenaient cette croyance. Le LLM répondait en offrant des contre-arguments factuels et basés sur des preuves adaptés à chaque participant. Les réponses de GPT-4 Turbo étaient vérifiées par des professionnels, montrant que 99,2 % des affirmations faites étaient vraies, avec seulement 0,8 % qualifiées de trompeuses, et zéro comme fausse. (Vous pouvez essayer d’interagir avec le chatbot de déconstruction ici.)

Capture d'écran de la page d'accueil du chatbot posant des questions pour préparer une conversation
/ Capture d’écran de la page d’accueil du chatbot posant des questions pour préparer une conversation

Thomas H. Costello

Les participants ont d’abord répondu à une série de questions ouvertes sur les théories du complot auxquelles ils croyaient fortement et les preuves sur lesquelles ils s’appuyaient pour soutenir ces croyances. L’IA a ensuite produit un résumé en une phrase de chaque croyance, par exemple, “Le 11 septembre était un travail interne parce que X, Y et Z.” Les participants ont évalué l’exactitude de cette affirmation par rapport à leurs propres croyances et ont ensuite rempli un questionnaire sur d’autres complots, leur attitude envers des experts de confiance, l’IA, les autres personnes dans la société, etc.

Il était ensuite temps d’engager des dialogues individuels avec le chatbot, que l’équipe avait programmé pour être aussi persuasif que possible. Le chatbot avait également été alimenté par les réponses ouvertes des participants, ce qui lui permettait de mieux adapter ses contre-arguments à chaque individu. Par exemple, si quelqu’un pensait que le 11 septembre était un travail interne et citait comme preuve le fait que le kérosène ne brûle pas assez chaud pour faire fondre l’acier, le chatbot pourrait rétorquer avec, disons, le rapport NIST montrant que l’acier perd de sa résistance à des températures beaucoup plus basses, suffisantes pour affaiblir les structures des tours afin qu’elles s’effondrent. Quelqu’un qui pensait que le 11 septembre était un travail interne et citait des démolitions comme preuve aurait reçu une réponse différente adaptée à cela.

Les participants ont ensuite répondu à la même série de questions après leurs dialogues avec le chatbot, qui duraient en moyenne huit minutes. Costello et al. ont constaté que ces dialogues ciblés entraînaient une réduction de 20 % des croyances erronées des participants—une diminution qui persistait même deux mois plus tard lors d’une nouvelle évaluation des participants.

Comme l’ont noté Bence Bago (Université de Tilburg) et Jean-François Bonnefon (CNRS, Toulouse, France) dans une perspective accompagnante, cet effet est substantiel comparé à la baisse de 1 à 6 % des croyances obtenue par d’autres interventions. Ils ont également jugé la persistance de l’effet digne d’intérêt, tout en mettant en garde que deux mois est “insuffisant pour complètement éliminer les croyances erronées liées aux théories du complot.”

En tant que journaliste, je suis fasciné par les implications de cette étude. Elle montre que, malgré la résistance souvent observée face à des informations contradictoires, un dialogue personnalisé et basé sur des preuves pourrait ouvrir la voie à une moins grande polarisation et à une meilleure compréhension mutuelle. D’un point de vue médiatique, cela soulève des questions importantes sur notre approche des théories du complot et sur les outils que nous pourrions utiliser pour engager un public toujours plus méfiant envers les sources d’information traditionnelles. Quelle place l’IA pourrait-elle réellement occuper dans notre quête d’une information plus précise et la lutte contre la désinformation ?

Publications similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *