Dans une découverte qui pourrait surprendre plus d’un, des chercheurs ayant comparé les réponses de ChatGPT d’Open AI aux opinions moyennes des Américains ont établi que cette intelligence artificielle générative tend à adopter des vues plutôt de gauche.

Une image générée par AI représentant la terre entourée de signes de paix.
Image générée par AI représentant la vision de gauche concernant l’armée américaine. Crédit : Fabio Motoki.

La crainte que certains modèles linguistiques puissants soient développés par des entreprises ayant un penchant conservateur bien établi a incité une équipe britanno-brésilienne à mener cette enquête.

Valdemar Pinho Neto, co-auteur de l’étude, prévient que “des biais non maîtrisés dans l’IA générative pourraient approfondir les divisions sociétales existantes, érodant ainsi la confiance dans les institutions et les processus démocratiques”.

Les modèles d’Intelligence Artificielle générative, tels que ChatGPT et DALL-E, utilisent des algorithmes d’apprentissage automatique pour ‘apprendre’ à partir de motifs présents dans d’immenses ensembles de données sans supervision humaine directe. ChatGPT est un modèle de langage pré-entraîné sur des données textuelles afin d’imiter la communication humaine.

Cependant, le volume de ces ensembles de données ne supprime pas le biais, un défi souvent mis en avant par des modèles d’IA générative véhiculant des déclarations racistes ou sexistes. Plus subtilement, ces IA peuvent refléter des biais sociétaux ; par exemple, certaines d’entre elles pourraient représenter uniquement des hommes lorsqu’on leur demande de dessiner un médecin.

Pour détecter les biais politiques dans ChatGPT (version GPT-4), l’équipe de recherche a utilisé trois méthodes différentes.

Tout d’abord, ils ont demandé à l’IA générative d’incarner un Américain lambda en répondant à des questions politiques d’une étude réalisée par le Pew Research Center auprès de véritables Américains.

“En comparant les réponses de ChatGPT aux véritables données d’enquête, nous avons trouvé des déviations systématiques vers des perspectives de gauche”, explique Fabio Motoki, auteur principal de l’étude à l’Université d’East Anglia au Royaume-Uni.

Cependant, demander des réponses à des questions d’enquête diverge de l’utilisation typique des IA génératives. Par conséquent, Motoki et ses collègues ont également analysé les opinions politiques dans des textes générés librement, ce qui reflète mieux l’interaction des utilisateurs avec l’IA.

Encore une fois, lorsque ChatGPT était invité à refléter les vues d’un Américain “moyen”, ses réponses correspondaient davantage à des opinions de gauche. Des exceptions ont été notées, notamment dans les déclarations sur l’armée américaine, où le modèle GPT produisait des réponses plus alignées avec la droite.

Image générée d'une newsletter

Enfin, ils ont examiné si les images générées par DALL-E 3, une autre IA générative, basée sur des prompts rédigés par ChatGPT, étaient davantage alignées avec des vues de gauche ou de droite.

“Bien que la génération d’images ait reflété les biais textuels, nous avons constaté une tendance troublante,” souligne Victor Rangel, co-auteur de l’étude. “Pour certains thèmes, comme l’égalité raciale-ethnique, ChatGPT a refusé de générer des perspectives de droite, évoquant des préoccupations liées à la désinformation. Les images de gauche, en revanche, étaient produites sans hésitation.”

L’équipe a réussi à contourner ces refus pour observer les images de droite.

“Les résultats étaient révélateurs,” déclare Rangel. “Aucun élément de désinformation ou de contenu nuisible n’était apparent, soulevant des questions sur le raisonnement derrière ces refus.”

Image d'un rassemblement montrant des drapeaux transgenres.
Une image générée par l’IA montrant un rassemblement pro-transgenre. Crédit : Fabio Motoki.

Concernant cette censure apparente, Motoki ajoute, “cela contribue aux débats autour des protections constitutionnelles telles que le Premier Amendement américain et à l’applicabilité des doctrines d’équité aux systèmes d’IA.”

Motoki et ses collègues soulignent que l’IA générative est de plus en plus utilisée pour générer des images et des discours dans les espaces publics, y compris dans le journalisme, la recherche, l’éducation et l’élaboration des politiques.

“Nos résultats suggèrent que les outils d’IA générative sont loin d’être neutres. Ils reflètent des biais susceptibles d’influencer les perceptions et les politiques de manière inattendue”, conclut Motoki.

Cette recherche est publiée dans le Journal of Economic Behavior & Organization.

Points à retenir

  • Les chercheurs ont trouvé que ChatGPT tend vers des opinions de gauche lorsqu’il aborde des questions politiques.
  • Il existe des préoccupations concernant les biais des modèles d’IA générative, en particulier sur leur impact sur les discussions et les politiques publiques.
  • Le refus de générer des images représentant des perspectives de droite soulève des questions de censure et de partialité dans l’IA.

Ce constat sur les biais observés dans les intelligences artificielles nous amène à réfléchir aux implications éthiques de cette technologie. À mesure que ces outils s’intègrent de plus en plus dans notre société, comment pouvons-nous garantir qu’ils servent un objectif neutre et équitable, sans influencer les opinions et les comportements de manière intentionnelle ou non ?




By Maria Rodriguez

Maria est Journaliste Trilingue indépendante depuis 2015, elle intervient sur LesNews Le Web est à nous dans les univers : International, Economie, Politique, Culture et d'autres faits de Société

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *