Une discussion de deux heures avec un modèle d’ intelligence artificielle (IA) suffit pour créer une réplique fidèle de la personnalité d’une personne, ont révélé des chercheurs.
Dans une étude publiée le 15 novembre sur la plateforme de prépublication arXiv, des chercheurs de Google et de l’Université de Stanford ont développé des “agents de simulation” – essentiellement, des répliques IA – de 1 052 individus, à partir d’entretiens de deux heures avec chaque participant. Ces échanges ont servi à entraîner un modèle génératif d’IA conçu pour imiter le comportement humain.
Pour évaluer la précision de ces répliques IA, chaque participant a passé deux séries de tests de personnalité, des enquêtes sociales et des jeux de logique, puis a été invité à recommencer deux semaines plus tard. Lors des mêmes tests, les répliques IA ont reproduit les réponses de leurs homologues humains avec une précision de 85 %.
L’article postule que les modèles d’IA qui imitent le comportement humain pourraient s’avérer utiles dans divers scénarios de recherche, tels que l’évaluation de l’efficacité des politiques de santé publique, la compréhension des réactions aux lancements de produits ou même la modélisation des réactions à des événements sociétaux d’ampleur, qui pourraient être trop coûteux, complexes ou éthiquement délicats à étudier avec des participants humains.
Lié : Un générateur de discours IA “atteint la parité humaine” — mais il est trop dangereux à libérer, affirment les scientifiques
Selon les chercheurs, “la simulation généraliste des attitudes et comportements humains – où chaque personne simulée peut s’engager dans une variété de contextes sociaux, politiques ou informationnels — pourrait permettre aux chercheurs de tester un ensemble vaste d’interventions et de théories.” Ces simulations pourraient également aider à piloter de nouvelles interventions publiques, développer des théories sur les interactions causales et contextuelles et augmenter notre compréhension de l’influence des institutions et des réseaux sur les individus.
Pour créer ces agents de simulation, les chercheurs ont réalisé des entretiens approfondis abordant les histoires de vie, les valeurs et les opinions des participants sur des questions sociétales. Cela a permis à l’IA de saisir des nuances que les enquêtes classiques ou les données démographiques pourraient manquer, ont expliqué les chercheurs. Surtout, la structure de ces entretiens offrait aux chercheurs la liberté de mettre en avant ce qui leur semblait le plus important personnellement.
Les scientifiques ont utilisé ces entretiens pour générer des modèles d’IA personnalisés capables de prédire comment les individus pourraient répondre à des questions d’enquête, à des expériences sociales et à des jeux comportementaux. Cela incluait les réponses à l’Enquête sociale générale, un outil bien établi pour mesurer les attitudes sociales et les comportements ; l’Inventaire de personnalité Big Five ; et des jeux économiques, comme le Jeu du dictateur et le Jeu de la confiance.
Bien que les agents IA aient imité de près leurs homologues humains dans de nombreux domaines, leur précision a varié selon les tâches. Ils ont particulièrement bien performé dans la reproduction des réponses aux enquêtes de personnalité et dans l’évaluation des attitudes sociales, mais ont été moins exacts pour prédire les comportements dans des jeux interactifs impliquant des décisions économiques. Les chercheurs ont expliqué que l’IA a généralement du mal avec les tâches touchant à la dynamique sociale et aux nuances contextuelles.
Ils ont également reconnu le potentiel d’abus de cette technologie. Les IA et les technologies de “deepfake” sont déjà utilisées par des acteurs malveillants pour tromper, usurper, abuser et manipuler d’autres personnes en ligne. Les agents de simulation risquent également d’être détournés, ont averti les chercheurs.
Cependant, ils ont soutenu que cette technologie pourrait permettre d’étudier des aspects du comportement humain d’une manière qui était auparavant impraticable, en offrant un environnement de test hautement contrôlé, sans les défis éthiques, logistiques ou interpersonnels liés à la collaboration avec des personnes.
Dans une déclaration au MIT Technology Review, Joon Sung Park, l’un des auteurs de l’étude et doctorant en informatique à Stanford, a déclaré : “Si vous pouvez disposer d’un ensemble de petits ‘vous’ qui prennent les décisions que vous auriez prises – cela, je pense, est finalement l’avenir.”
Points à retenir
- Les agents de simulation IA ont été créés à partir d’entretiens détaillés visant à dresser un portrait complet des participants.
- La précision de ces répliques IA dans les tests varie selon le contexte, avec une meilleure performance dans les enquêtes de personnalité et des difficultés dans les jeux nécessitant des décisions économiques.
- Les implications éthiques et le risque d’abus de la technologie doivent être soigneusement pesés face à ses avantages potentiels en recherche.
Ce type de recherche ouvre un débat intéressant sur l’avenir de l’interaction entre l’IA et la compréhension humaine. À quel point devons-nous faire confiance à ces modèles pour représenter fidèlement nos comportements et opinions, et jusqu’où sont-ils capables de transcender les limites des simples statistiques ?
- Source image(s) : www.livescience.com
- Source : https://www.livescience.com/technology/artificial-intelligence/just-2-hours-is-all-it-takes-for-ai-agents-to-replicate-your-personality-with-85-percent-accuracy
Nos rédacteurs utilisent l'IA pour les aider à proposer des articles frais de sources fiables à nos utilisateurs. Si vous trouvez une image ou un contenu inapproprié, veuillez nous contacter via le formulaire DMCA et nous le retirerons rapidement. / Our editors use AI to help them offer our readers fresh articles from reliable sources. If you find an image or content inappropriate, please contact us via the DMCA form and we'll remove it promptly.