Il est dit qu’un mensonge peut faire le tour du monde avant que la vérité n’enfile ses bottes. Cette lutte contre les fausses informations en ligne a pris une tournure plus complexe cette semaine, alors que la maison mère de Facebook, Meta, a annoncé son intention de mettre fin à son programme de vérification des faits, établi en 2016, qui rémunère des groupes indépendants pour évaluer certains articles et publications.
L’entreprise a justifié sa décision par des allégations de biais politique et de censure de la part des vérificateurs de faits. « Les experts, comme tout un chacun, ont leurs propres partis pris et perspectives. Cela s’est manifesté dans les choix effectués concernant ce qu’il convenait de vérifier et comment », a déclaré Joel Kaplan, directeur des affaires mondiales de Meta, le 7 janvier.
Nature a interrogé des chercheurs en communication et en désinformation sur la valeur de la vérification des faits, l’origine des biais perçus et les implications de cette décision de Meta.
Une influence positive
En matière de conviction concernant la véracité et la fiabilité des informations, « la vérification des faits fonctionne », affirme Sander van der Linden, psychologue social à l’université de Cambridge au Royaume-Uni, qui a été conseiller bénévole sur le programme de vérification des faits de Facebook en 2022. « Les études montrent des preuves très cohérentes que la vérification des faits réduit au moins partiellement les malentendus concernant des affirmations fausses. »
Par exemple, une méta-analyse de 2019, portant sur plus de 20 000 personnes, a mis en évidence une « influence globale significativement positive sur les croyances politiques »1.
« Idéalement, nous souhaiterions empêcher les gens de former des malentendus dès le départ », ajoute van der Linden. « Mais si nous devons composer avec le fait que les gens y sont déjà exposés, réduire cette exposition est presque aussi efficace que possible. »
La vérification des faits est moins efficace lorsqu’une question est polarisée, indique Jay Van Bavel, psychologue à l’université de New York. « Si vous vérifiez des faits autour du Brexit au Royaume-Uni ou de l’élection aux États-Unis, c’est là que les vérifications ne fonctionnent pas très bien », explique-t-il. « En partie parce que les partisans ne souhaitent pas croire des choses qui peuvent nuire à leur parti. »
Cependant, même lorsque les vérifications ne semblent pas changer les mentalités sur des sujets controversés, elles peuvent rester utiles, selon Alexios Mantzarlis, ancien vérificateur de faits et directeur de l’Initiative de sécurité, confiance et sécurité à Cornell Tech à New York.
Sur Facebook, les articles et publications jugés faux par les vérificateurs sont actuellement signalés par un avertissement. Ils sont également diffusés à un nombre d’utilisateurs réduit par les algorithmes de recommandation de la plateforme, explique Mantzarlis, et les utilisateurs sont plus enclins à ignorer le contenu signalé qu’à le lire et le partager.
La signalisation des publications comme problématiques pourrait également avoir des conséquences indirectes sur d’autres utilisateurs qui ne sont pas captées par les études de l’efficacité des vérifications, ajoute Kate Starbird, informaticienne à l’université de Washington à Seattle. « Mesurer l’effet direct des étiquettes sur les croyances et les actions des utilisateurs est différent de mesurer les effets plus larges d’avoir ces vérifications dans l’écosystème informationnel », précise-t-elle.
Plus de désinformation, plus de drapeaux rouges
Concernant les allégations de biais de Zuckerberg à l’égard des vérificateurs de faits, Van Bavel convient que la désinformation provenant de la droite politique est souvent vérifiée et signalée comme problématique sur Facebook et d’autres plateformes plus fréquemment que celle provenant de la gauche. Mais il propose une explication simple.
« C’est principalement parce que la désinformation conservatrice est la plus répandue », dit-il. « Lorsque qu’un parti, du moins aux États-Unis, diffuse la majorité de la désinformation, les vérifications semblent biaisées, car elles sont concernées bien plus souvent. »
Points à retenir
- Meta a décidé d’abandonner son programme de vérification des faits, suscitant des préoccupations quant à la lutte contre la désinformation en ligne.
- Les recherches démontrent que la vérification des faits peut réduire les malentendus sur des informations fausses, mais elle est moins efficace dans des contextes fortement polarisés.
- Des conséquences indirectes peuvent découler de la signalisation des posts comme faux, potentiellement influençant le comportement des utilisateurs.
En suivant cette évolution, il convient de s’interroger sur les méthodes alternatives pour garantir la véracité des informations en ligne. La préoccupation face à la désinformation n’est pas simplement une question de technologies, mais aussi celle de valeurs et de croyances qui influencent notre rapport à l’information. Comment pouvons-nous mieux sensibiliser et éduquer les utilisateurs pour qu’ils deviennent des consommateurs plus critiques face à l’information qu’ils rencontrent ?
- Source image(s) : www.nature.com
- Source : https://www.nature.com/articles/d41586-025-00027-0
Nos rédacteurs utilisent l'IA pour les aider à proposer des articles frais de sources fiables à nos utilisateurs. Si vous trouvez une image ou un contenu inapproprié, veuillez nous contacter via le formulaire DMCA et nous le retirerons rapidement. / Our editors use AI to help them offer our readers fresh articles from reliable sources. If you find an image or content inappropriate, please contact us via the DMCA form and we'll remove it promptly.