La science fabriquée par IA inonde Google Scholar
Crédit : Université de Borås

La recherche générée par l’intelligence artificielle représente une menace pour les connaissances sociales et la confiance du public envers la science. C’est la conclusion d’une étude menée par des chercheurs de l’École suédoise de bibliothéconomie et des sciences de l’information de l’Université de Borås, qui ont récemment identifié plus d’une centaine d’articles suspects générés par IA sur le moteur de recherche Google Scholar.

Leur rapport souligne que des articles scientifiques falsifiés par IA inondent Google Scholar. Ces découvertes sur la science fabriquée par IA soulignent que de fausses recherches peuvent être disponibilisées et diffusées à grande échelle, souvent à coût réduit, par des acteurs malveillants. Cette étude a été publiée dans le journal Harvard Kennedy School Misinformation Review.

Jutta Haider et Björn Ekström, chercheurs associés à l’École suédoise de bibliothéconomie et des sciences de l’information, ainsi que Kristofer Söderström de l’Université de Lund et Malte Rödl de l’Université suédoise des sciences agricoles, mettent en avant les dangers que cela représente tant sur le plan sociétal que pour la communauté scientifique.

Risque accru de manipulation des preuves

Une des préoccupations majeures liée à la recherche générée par IA est le risque de manipulation stratégique des preuves, désigné comme “evidence hacking”.

« Les risques d’un phénomène que nous appelons “evidence hacking” augmentent considérablement avec la diffusion de recherches générées par IA sur les moteurs de recherche. Cela peut engendrer des conséquences réelles, car des résultats erronés peuvent s’immiscer dans la société et dans divers domaines », a déclaré Ekström, titulaire d’un doctorat en bibliothéconomie et sciences de l’information.

Les chercheurs ont déjà observé que ces articles problématiques se sont répandus à d’autres parties de l’infrastructure de recherche en ligne, notamment dans divers archives et sur les réseaux sociaux. La propagation est rapide, et Google Scholar rend ces articles problématiques visibles. Même si ces articles sont retirés, il demeure un risque qu’ils aient déjà eu le temps de se diffuser et de continuer à circuler.

De plus, les recherches fabriquées par IA compliquent encore davantage un système d’évaluation par les pairs déjà sous pression.

Exige une meilleure culture de l’information

La diffusion de recherches générées par IA dans les bases de données des moteurs de recherche impose des exigences accrues aux utilisateurs de ces informations en ligne.

« Si nous ne pouvons pas faire confiance aux recherches que nous consultons, nous risquons de prendre des décisions sur la base d’informations incorrectes. Mais il ne s’agit pas uniquement de la malversation scientifique, c’est aussi une question de culture médiatique et d’information », a ajouté Haider, Professeure de bibliothéconomie et sciences de l’information.

Elle souligne que Google Scholar n’est pas une base de données académique. Bien que le moteur de recherche soit facile à utiliser et rapide, il manque de procédures d’assurance qualité. Cela constitue déjà un problème dans les résultats de recherche standard de Google, mais devient encore plus critique pour l’accessibilité de la science.

« La capacité des personnes à déterminer quels journaux et éditeurs publient principalement des recherches examinées par des pairs est fondamentale pour identifier ce qui constitue une recherche fiable, ce qui est essentiel pour la prise de décision et la formation d’opinion », a conclu Haider.

Plus d’informations :
Jutta Haider et al., GPT-fabricated scientific papers on Google Scholar: Key features, spread, and implications for preempting evidence manipulation, Harvard Kennedy School Misinformation Review (2024). DOI: 10.37016/mr-2020-156

Publié par
Université de Borås

Points à retenir

  • L’étude a identifié une prolifération d’articles scientifiques potentiellement générés par IA sur Google Scholar.
  • La diffusion rapide de ces contenus fausse les résultats des recherches et accroît le risque de manipulation des preuves.
  • Il est crucial d’améliorer la culture de l’information pour discerner la validité des recherches en ligne.

En somme, la prolifération d’articles scientifiques générés par IA soulève des questions fondamentales sur la confiance accordée à la recherche. Comment pouvons-nous renforcer les mécanismes permettant de différencier la science authentique des contenus générés automatiquement ? Cette problématique mérite d’être au cœur des discussions futures pour préserver l’intégrité scientifique.



Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *