Nous avons beaucoup écrit sur Comment les avocats peuvent utiliser l’IA de manière responsable—Et, car une autre décision de justice est la libération de l’utilisation de l’IA par les avocats, il n’a jamais été aussi important de comprendre les risques et les limites de l’utilisation de l’IA.
Plus récemment, les avocats de Morgan et Morgan– Le plus grand cabinet d’avocats pour blessures aux États-Unis – a été sanctionné pour avoir soumis des dossiers judiciaires qui contenaient des affaires «hallucinées» par l’intelligence artificielle.
Ci-dessous, nous expliquerons ce que sont les hallucinations, examiner la décision du tribunal de sanctionner les avocats de Morgan & Morgan et de fournir des conseils pour atténuer les risques lorsqu’ils travaillent avec l’IA pour la recherche juridique.
Peu importe où vous êtes dans votre voyage juridique d’IA, Clio deuxnotre technologie de l’IA propriétaire, peut vous aider à gérer votre pratique plus efficacement tout en adhérant aux normes de sécurité les plus élevées. Apprenez comment ça marche.
Que sont les hallucinations AI?
Les hallucinations AI se produisent lorsqu’un modèle grand langage (LLM) génère des informations fausses ou trompeuses qui, à première vue, semblent plausibles. Dans le contexte de la recherche juridique, cela signifie que l’IA peut – et fait – produire la jurisprudence, les lois ou les arguments juridiques qui n’existent pas. Et, si les avocats comptent sur des recherches générées par l’IA sans vérifier indépendamment que la recherche est exacte, ils risquent de mal interpréter la loi et sont confrontés à de graves conséquences professionnelles et éthiques – comme les sanctions imposées aux avocats de Morgan & Morgan.
Que s’est-il passé avec l’utilisation de Morgan & Morgan’s IA?
Morgan et Morgan représentaient un demandeur dans une affaire de responsabilité des produits. Tout en réduisant les mouvements de cas (à savoir, Motions de la limine), l’un des avocats impliqués a utilisé la plate-forme d’IA interne du cabinet pour localiser les cas exposant des exigences pour les requêtes en limine. La plate-forme AI a généré des citations, mais il s’avère qu’ils n’étaient pas de vrais cas. De plus, l’avocat de rédaction n’a pas vérifié l’exactitude des affaires avant de signer les documents avec deux autres avocats.
Comment le tribunal a-t-il répondu aux hallucinations?
Le tribunal a rendu une ordonnance de cause de l’émission sur les raisons pour lesquelles les avocats des plaignants ne devraient pas être sanctionnés ou faire face à des mesures disciplinaires. Les avocats des plaignants ont admis que les affaires qu’ils avaient citées n’existaient pas et qu’ils s’étaient appuyés sur l’IA sans prendre de mesures pour vérifier l’exactitude des informations dans les requêtes.
Au moment où l’ordonnance a été publiée, les avocats des plaignants avaient déjà retiré leurs requêtes en limine, «honnête et à paraître» au sujet de leur utilisation de l’IA, payé les honoraires de l’avocat adverse pour défendre les requêtes en liminaire et mis en œuvre des politiques de l’entreprise interne pour empêcher de telles erreurs de se produire à l’avenir.
Le tribunal a noté son appréciation pour les mesures que les avocats des plaignants avaient prises et ont recommandé que les avocats dans des situations similaires suivent les mêmes étapes (au minimum) pour remédier aux situations impliquant des hallucinations d’IA avant la délivrance des sanctions à l’avenir.
Que dit la loi sur les sanctions et les hallucinations de l’IA?
Sous l’art. 11 des Règles fédérales de procédure civileen présentant une plaidoirie ou une requête auprès du tribunal (que ce soit en signant, en déposant, en soumettant ou en le préconisant), un avocat certifie que, à la meilleure de leurs connaissances, les affirmations juridiques dans le plaidoyer ou la motion sont étayées par la loi existante ou un argument non froide. Ne pas se conformer à cette exigence peut entraîner des sanctions.
Lors de la détermination de la justification des sanctions en vertu de la règle 11, le tribunal évaluera la situation avec «un caractère raisonnable objectif». En d’autres termes, si une enquête raisonnable conclut que les affirmations juridiques de la plaidoirie ou de la requête ne sont pas étayées par la loi existante, alors une violation de la règle 11 s’est produite. Et, lorsqu’une violation de la règle 11 s’est produite, le tribunal imposera une sanction appropriée.
Comment le tribunal a appliqué la loi à l’affaire
Le tribunal a déterminé que la conduite des avocats avait violé la règle 11. Notamment, les avocats n’ont pas contesté qu’ils avaient cité les affaires hallucinées par IA dans le mémoire. En outre, le tribunal a reconnu que la signature d’un document juridique indique que l’avocat a lu le document et a mené une enquête raisonnable sur la loi existante. Bien que deux des trois avocats n’ayant pas été impliqués dans le processus de rédaction, leurs signatures (avec le fait de ne pas enquêter davantage sur le contenu des requêtes) constituaient une délégation inappropriée de leur obligation en vertu de la règle 11.
Après avoir conclu que les avocats violaient la règle 11, la Cour a imposé des sanctions contre les trois avocats. L’avocat de rédaction a été condamné à une amende de 3 000 $ et a fait révoquer son admission temporaire (il a été autorisé dans un autre État et a accordé la permission de pratiquer l’État pour l’affaire en question) tandis que les deux autres avocats ont été condamnés à une amende de 1 000 $ chacun.
Réflexions finales sur l’affaire Morgan & Morgan AI
En fin de compte, le tribunal a dit le mieux: “Le principal point à retenir pour les avocats est simple: faire une enquête raisonnable sur la loi avant de signer (ou donner une autre personne à signer) un document, comme l’exige la règle 11.” Bien que le tribunal ait reconnu que l’IA est un outil puissant pour les professionnels du droit et peut réduire le temps consacré à la recherche juridique et rédiger considérablement, en fin de compte, les avocats doivent encore confirmer la précision de leurs produits de travail.
Idéalement, les avocats ne rencontreront pas des problèmes similaires avec les hallucinations de l’IA à l’avenir, mais quand cela se produit, il est préférable de prendre des mesures immédiates. Le tribunal a reconnu autant, exprimant son appréciation pour les mesures prises par les avocats des plaignants et recommandant que, au minimum, les avocats dans des situations similaires soient:
Retirer leurs requêtes;
Soyez honnête et à venir sur leur utilisation de l’IA;
Payer tous les frais encourus par un avocat adverse pour répondre aux requêtes; et
Prenez des mesures internes pour empêcher ces erreurs de se produire à l’avenir.
Et n’oubliez pas: Outils d’IA spécifiques à un juridique peut jouer un rôle important en aidant votre entreprise à adopter l’IA de manière responsable. Par exemple, Clio deuxnotre technologie d’IA propriétaire, peut aider à améliorer l’efficacité tout en protégeant les données des clients. Réservez votre démo gratuite aujourd’hui!
Nous avons publié cet article de blog en février 2025. Dernière mise à jour: 28 février 2025.
Classé dans: Technology