Ces dernières années, l’essor des intelligences artificielles génératives (IA) a été décrit par certains comme une véritable course spatiale moderne. Le secteur juridique, en particulier les avocats plaidants, n’a pas été épargné. Alors que l’utilisation de l’IA générative devient de plus en plus courante dans la pratique du droit, les tribunaux ont été réticents à encadrer son application en matière de litige. Cependant, une récente décision du tribunal des successions du comté de Saratoga suggère que cette tendance pourrait bientôt changer.

Pour le meilleur ou pour le pire, de nombreux titres concernant l’utilisation de l’IA générative dans les litiges ont mis l’accent sur les aspects négatifs. Par exemple, l’affaire Mata v. Avianca, Inc., 678 F. Supp. 3d 443 (S.D.N.Y. 2023) a suscité beaucoup d’attention après que le juge Kevin Castel, du district sud de New York, a infligé une amende de 5 000 dollars à deux avocats se présentant devant lui pour avoir déposé une motion en citant des affaires fictives. Le tribunal a en effet constaté que les avocats avaient violé la Règle 11 des Règles fédérales de procédure civile en manquant à leur devoir de vigilance, en citant plusieurs affaires inventées par ChatGPT sans les authentifier, puis en essayant de justifier ces citations au lieu de reconnaître leur provenance.

Par ce biais, le tribunal a conclu que les avocats avaient agi de mauvaise foi en raison de leur comportement d’évitement conscient et de leurs déclarations fausses et trompeuses devant le tribunal. En plus des sanctions pécuniaires, le tribunal a également exigé que les avocats notifient par écrit leur client et chaque juge faussement identifié comme ayant rédigé l’une des décisions fictives citées.

En revanche, les tribunaux ont accordé moins d’attention à la manière de gérer l’utilisation de l’IA générative lorsque son utilisation ne présente pas de défaut manifeste. Néanmoins, une récente décision dans l’affaire Matter of Weber, 2024 NY Slip Op 24258, 2024 N.Y. Misc. LEXIS 8609 (Sur. Ct. 10 octobre 2024), aborde cette question de front. Dans cette affaire, le tribunal a entendu une réclamation pour violation du devoir fiduciaire. Dans ce cadre, les deux parties ont présenté des éléments de preuve relatifs à la mesure des dommages, y compris des rapports et des témoignages d’experts en évaluation des dommages. Un des experts a témoigné qu’il avait utilisé Microsoft Copilot, un chatbot d’IA générative, pour vérifier ses calculs d’indemnisation résultant de la prétendue violation.

Bien que le tribunal ait jugé cet expert non crédible, il a également abordé la question de la dépendance à l’égard de l’IA générative. Le tribunal a d’abord noté l’incapacité de l’expert à détailler le processus spécifique par lequel il avait utilisé Microsoft Copilot. Ce dernier ne pouvait pas se souvenir de l’entrée ou du prompt exact qu’il avait utilisé et ignorait quelles sources Microsoft Copilot avait prises en compte ou comment il avait obtenu les résultats exploités par l’expert.

Au vu de l’absence de preuves concernant la fiabilité de Microsoft Copilot en général, ou sur la manière dont il avait été appliqué par l’expert dans cette affaire, et de la volonté du tribunal d’utiliser Microsoft Copilot pour reproduire la conclusion de l’expert, qui avait produit des résultats différents à chaque essai, le tribunal a conclu qu’il ne pouvait pas accepter aveuglément les calculs effectués par l’IA comme étant fiables.

Finalement, le tribunal a souligné que, en raison de l’évolution rapide de l’intelligence artificielle et de ses problèmes de fiabilité inhérents, les avocats ont l’obligation d’informer de l’utilisation de l’IA en lien avec toute preuve souhaitant être admise, et que cette preuve doit faire l’objet d’une audience Frye avant d’être admise.

En résumé, plusieurs enjeux et risques potentiels sont à considérer lorsque l’on intègre l’IA générative dans la pratique juridique. Bien que l’affaire Weber s’applique principalement à la pratique du tribunal des successions, les avocats plaideurs dans tous les tribunaux de New York devraient prêter attention à ses conclusions et être prêts à (i) signaler de manière proactive l’utilisation de l’IA générative, et (ii) défendre ces preuves selon le critère Frye. Concernant ce dernier point, les avocats doivent être en mesure d’expliquer le fonctionnement de l’outil d’IA générative utilisé, quelles sources il prend en compte, comment il a été utilisé en lien avec la preuve présentée, et comment le résultat généré par l’IA a été vérifié.

Article original rédigé par : Brian Bank qui est associé dans les groupes de pratique de Dissolution d’entreprise, Actions collectives, Litiges commerciaux, Conformité, Enquêtes et Droit pénal, Emploi & Droit du travail, ainsi que Droit de la vie privée, données et cybersécurité chez Rivkin Radler. Krystal Armstrong est associée au sein du groupe de litiges commerciaux chez Rivkin Radler.

Points à retenir

  • L’application de l’IA générative dans les litiges nécessite une vigilance accrue de la part des avocats.
  • Les tribunaux commencent à poser des questions pertinentes sur la fiabilité et le processus derrière l’utilisation de l’IA dans le cadre de preuves.
  • Il est crucial pour les avocats de comprendre le fonctionnement des outils d’IA qu’ils utilisent et d’être en mesure de justifier leur utilisation devant le tribunal.

Dans un contexte où l’intelligence artificielle transforme profondément de nombreux secteurs, y compris le droit, il est essentiel de questionner la manière dont cette technologie est intégrée au processus judiciaire. Cette évolution pose non seulement des défis en matière de réglementation, mais aussi des réflexions éthiques sur la responsabilité et la transparence. Quelles précautions devons-nous envisager pour assurer que l’usage de l’IA ne compromet pas l’intégrité du système juridique ?



  • Source image(s) : www.law.com
  • Source : https://www.law.com/newyorklawjournal/2025/01/10/courts-beginning-to-set-standards-for-evidence-relying-upon-artificial-intelligence/


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *