Un juge fédéral a exprimé une vive réprobation en écartant le témoignage d’un expert en désinformation de Stanford, qui avait soumis un document judiciaire sous peine de parjure contenant de fausses informations dans une affaire de droit électoral du Minnesota.
Jeff Hancock, spécialiste de “la recherche sur l’utilisation de la tromperie avec la technologie,” avait été mandaté par le bureau du procureur général Keith Ellison pour présenter un témoignage d’expert défendant la nouvelle loi du Minnesota interdisant les deepfakes électoraux, adoptée en 2023 et mise à jour l’année suivante.
Après que Hancock a déposé son témoignage écrit en novembre dernier, les avocats des plaignants, la représentante Mary Franson, R-Alexandria, et le YouTuber Christopher Kohls, ont remarqué que le document contenait plusieurs références à des articles académiques inexistants.
Les plaignants ont alors demandé l’annulation du témoignage, et Hancock a ensuite reconnu avoir utilisé une version de ChatGPT pour rédiger son témoignage, qui incluait ces références fictives, connues des chercheurs en IA sous le nom de “hallucinations IA”. Le bureau du procureur général soutenait que Hancock devait être autorisé à déposer une déclaration amendée avec des citations correctes, sans hallucinations.
Cependant, dans un jugement daté du 10 janvier, la juge de district des États-Unis, Laura Provinzino, a fermement désapprouvé cette proposition.
La citation de sources fictives par Hancock “anéantit sa crédibilité auprès de cette Cour”, a écrit Provinzino. Bien qu’elle reconnaisse que les logiciels d’intelligence artificielle puissent avoir des usages légitimes dans les milieux juridiques, elle a conclu que “lorsque les avocats et les experts abandonnent leur jugement indépendant et leurs compétences de réflexion critique au profit de réponses prêtes à l’emploi générées par l’IA, la qualité de notre profession juridique et le processus décisionnel de la Cour en pâtissent.”
La juge a souligné à plusieurs reprises que Hancock avait soumis son document original sous peine de parjure. “Signer une déclaration sous cette condition n’est pas une simple formalité”, a-t-elle écrit, mais représente plutôt une prise de conscience de la “gravité de l’engagement” et un mécanisme pour garantir “la véracité et la fiabilité” ainsi que la confiance.
“Cette confiance a été rompue ici,” a-t-elle ajouté. “Étant donné que les erreurs de la Déclaration de Hancock portent atteinte à sa compétence et à sa crédibilité, la Cour exclura l’examen du témoignage d’expert du professeur Hancock dans le cadre de la motion d’injonction préliminaire des plaignants.”
Provinzino a également rappelé au bureau du procureur général qu’ils ont la responsabilité de “valider la véracité et la raisonnabilité juridique des documents déposés”, et a suggéré qu’à l’avenir, ils devraient demander aux témoins s’ils avaient utilisé l’IA pour produire une partie de leur matériel.
Selon un contrat obtenu par le biais d’une demande de la loi sur les pratiques de données, Hancock facture le bureau du procureur général 600 dollars de l’heure pour ses services, avec un plafond de facturation fixé à 49 000 dollars.
Le bureau du procureur général n’a pas fourni d’informations sur le montant versé dans le cadre de ce contrat jusqu’à présent, ni s’il était au courant à l’avance que Hancock allait utiliser l’IA pour rédiger sa déclaration.
“Le professeur Hancock, expert accrédité sur les dangers de l’IA et de la désinformation, est tombé victime de l’attrait de la dépendance excessive à l’IA — dans une affaire qui tourne autour des dangers de l’IA, tout de même”, a écrit Provinzino. “L’ironie est palpable.”
Points à retenir
- Le témoignage d’un expert en désinformation a été écarté en raison de références fictives dans un tribunal.
- Le juge a souligné l’importance de l’intégrité de la déclaration sous peine de parjure.
- Il existe une inquiétude croissante concernant l’usage de l’IA dans le processus juridique.
L’utilisation croissante de l’intelligence artificielle soulève des questions pertinentes sur son rôle dans des domaines sensibles comme le droit. À mesure que la technologie progresse, il devient crucial de garantir que les mécanismes de vérification de l’information et de responsabilité restent robustes afin de maintenir la confiance dans le système judiciaire. Quelle pourrait être la voie à suivre pour équilibrer innovation technologique et rigueur éthique dans des contextes aussi critiques ?
Nos rédacteurs utilisent l'IA pour les aider à proposer des articles frais de sources fiables à nos utilisateurs. Si vous trouvez une image ou un contenu inapproprié, veuillez nous contacter via le formulaire DMCA et nous le retirerons rapidement. / Our editors use AI to help them offer our readers fresh articles from reliable sources. If you find an image or content inappropriate, please contact us via the DMCA form and we'll remove it promptly.