Dans de nombreux cas, les intelligences artificielles (IA) sont formées à partir de matériaux créés ou sélectionnés par des humains. Cela peut poser un défi majeur pour empêcher l’IA de reproduire les biais de ces humains et de la société à laquelle ils appartiennent. Les enjeux sont élevés, notamment parce que nous utilisons des IA pour prendre des décisions médicales et financières.
Cependant, des chercheurs de l’Université de Washington à St. Louis ont découvert un aspect supplémentaire dans ces défis : les personnes formant l’IA peuvent potentiellement modifier leur comportement lorsqu’elles savent que cela peut influencer les choix futurs d’une IA. Dans certains cas, elles emportent ces comportements modifiés dans des situations qui n’impliquent pas la formation de l’IA.
Voulez-vous jouer à un jeu ?
Le travail consistait à faire participer des volontaires à une forme simple de théorie des jeux. Les testeurs ont donné à deux participants une somme d’argent—a $10, dans ce cas. L’un des deux a ensuite été invité à offrir une fraction de cet argent à l’autre, qui pouvait choisir d’accepter ou de rejeter l’offre. Si l’offre était rejetée, personne ne recevait d’argent.
Du point de vue économique pur, les gens devraient accepter n’importe quelle offre reçue, puisqu’ils finiraient avec plus d’argent qu’ils n’en auraient autrement. Cependant, en réalité, les gens tendent à rejeter les offres qui s’écartent trop d’une répartition équitable, car ils estiment qu’une division très déséquilibrée est injuste. Leur rejet leur permet de punir la personne ayant fait une offre injuste. Bien qu’il existe des différences culturelles quant à la perception d’une offre injuste, cet effet a été reproduit de nombreuses fois, y compris dans cette étude actuelle.
La particularité de cette nouvelle étude, menée par Lauren Treimana, Chien-Ju Hoa et Wouter Kool, est que certains participants ont été informés que leur partenaire était une IA, et que les résultats de leurs interactions seraient intégrés dans le système afin de former ses performances futures.
Cela rend explicite un élément qui est implicite dans un cadre de théorie des jeux centré sur les offres—le fait que rejeter des offres peut aider les partenaires à comprendre quelles offres sont justes. Les participants, ou du moins le sous-groupe impliqué dans l’expérience, ont pu inférer que leurs actions influenceraient les futures offres de l’IA.
Les chercheurs se sont demandé si cela influencerait le comportement des participants humains, en le comparant à un groupe de contrôle qui a simplement participé au test de théorie des jeux standard.
Former l’équité
Treimana, Hoa et Kool avaient préenregistré diverses analyses multivariées qu’ils prévoyaient d’effectuer avec les données. Toutefois, celles-ci ne produisaient pas toujours des résultats cohérents entre les expériences, possiblement en raison d’un nombre insuffisant de participants pour distinguer des effets relativement subtils avec une confiance statistique et possiblement en raison du nombre relativement élevé de tests qui entraînait l’apparition de quelques résultats positifs par hasard.
Il convient donc de se concentrer sur la question la plus simple posée : le fait d’être informé que l’on formait une IA modifie-t-il le comportement d’une personne ? Cette question a été posée à travers plusieurs expériences très similaires. (Une des principales différences entre elles était la présentation de l’information concernant la formation de l’IA avec une icône de caméra, car les gens ont parfois tendance à changer de comportement s’ils savent qu’ils sont observés.)
La réponse à cette question est un oui clair : les gens changent effectivement leur comportement lorsqu’ils pensent qu’ils forment une IA. Au cours de plusieurs expériences, les participants étaient plus enclins à rejeter des offres injustes s’ils savaient que leurs sessions seraient utilisées pour former une IA. Dans quelques expériences, ils étaient également plus susceptibles de rejeter ce qui était considéré comme des offres équitables (dans les populations américaines, le taux de rejet augmente considérablement lorsqu’une répartition de 70/30 est proposée, c’est-à-dire que $7 va à la personne faisant la proposition dans ces expériences). Les chercheurs soupçonnent que cela est dû au fait que les participants sont plus enclins à rejeter des offres “justes” à la frontière, comme une répartition de 60/40.
Cela se produisait même si rejeter une offre engendre un coût économique pour les participants. Et les gens persistaient dans ce comportement même lorsqu’on leur disait qu’ils n’interagiraient plus jamais avec l’IA après la fin de la formation, ce qui signifie qu’ils ne bénéficieraient pas personnellement des changements dans le comportement de l’IA. Il semblerait donc que les gens fassent des sacrifices financiers pour former l’IA de manière à bénéficier aux autres.
Fait frappant, dans deux des trois expériences qui ont impliqué des tests de suivi, les participants continuaient à rejeter des offres à un taux plus élevé deux jours après avoir participé à la formation de l’IA, même lorsqu’on leur disait que leurs actions n’étaient plus utilisées pour former l’IA. Dans une certaine mesure, participer à la formation de l’IA semble les avoir incités à se former eux-mêmes à un comportement différent.
Évidemment, cela ne s’applique pas à tous les types de formation d’IA, et beaucoup de travail effectué pour produire des matériaux utilisés dans la formation de modèles de grandes langues ne se fait pas avec la conscience qu’il pourrait être utilisé pour former une IA. Cependant, de nombreux cas existent où les humains sont directement impliqués dans la formation, rendant important d’être conscient que cela peut être une autre voie permettant aux biais de s’infiltrer.
PNAS, 2024. DOI : 10.1073/pnas.2408731121 (À propos des DOI).
En tant que journaliste, je trouve passionnant d’explorer de telles dynamiques entre l’humain et la technologie. Réfléchir aux implications de la manière dont nous interagissons avec les IA et comment ces interactions peuvent non seulement influencer leur développement mais aussi notre propre comportement est fascinant. Ces découvertes soulignent l’importance de la conscience éthique dans le développement des intelligences artificielles, car elles agissent comme des miroirs de nos propres valeurs et préjugés.