G’day Cake.
Le dernier épisode des «avocats royalement regroupant avec l’IA» présente un avocat australien qui a apparemment décidé que la vérification des citations de cas était tout simplement en 2024. Après avoir incité l’IA destiné aux consommateurs à faire des recherches (mauvaise idée) et à mettre cela dans un dossier ( Pire idée), il a décidé de jeter une autre crevette sur la Barbie et de soumettre les documents remplis de références aux cas de bidon à la Cour (pire idée).
Un rappel que chaque fois que vous pensez que cette histoire a été suffisamment excitée pour que les avocats ne le refusent pas… ils vont de l’avant et recommencent.
Du gardien:
Un avocat australien a été renvoyé à une Commission des plaintes juridiques de l’État, après avoir découvert qu’il avait utilisé Chatgpt pour rédiger des dossiers judiciaires dans une affaire d’immigration et la plate-forme d’intelligence artificielle a généré des citations de cas qui n’existaient pas.
Vendredi, dans une décision du Circuit fédéral et du tribunal de la famille, le juge Rania Skaros a renvoyé l’avocat, qui a fait échouer son nom de la décision au bureau du commissaire aux services juridiques de la Nouvelle-Galles du Sud (OLSC).
Vraisemblablement, le juge a dit: “Ce n’est pas une affaire… c’est une affaire.”
Cet aigle légal, dont le nom a été réfléchi à la protection de la technologie technologiquement, gère un appel à l’immigration lorsqu’il a soumis des documents en octobre 2024. Ces documents étaient si convaincants qu’ils ont cité et même cité des décisions du Tribunal qui n’existaient tout simplement pas. Lorsqu’il a été confronté, l’avocat a avoué l’utilisation de Chatgpt pour la recherche, admettant qu’il n’avait pas pris la peine de vérifier les informations générées par l’IA.
Malgré la tentation de transformer cela en une histoire sur la technologie qui mène, c’est toujours fondamentalement une question de paresse humaine. Tout comme un avocat ne devrait pas bloquer sans réfléchir le mémo que l’associé d’été a giflé sur leur chemin vers l’happy hour, tout avocat utilisant l’IA génératrice conserve l’obligation de vérifier la précision du produit final. Et, dans le cas de la recherche juridique de Chatgpt, c’est plus comme le mémo que l’associé d’été a giflé sur le chemin du retour de l’happy hour.
Il a attribué cette lance de jugement aux contraintes de temps et aux problèmes de santé. C’est peut-être vrai. Mais le détail le plus troublant de cette histoire est que cela s’est produit dans un cas d’immigration. L’un des arguments de vente les plus nobles de l’IA générative est l’espoir qu’il pourrait étendre l’accès à la justice en rationalisant des pratiques comme l’immigration. Filevine, par exemple, propose des outils d’immigration assistés par AI vraiment lisses – qui sont tous très différents que de transformer le briefing vers un chatbot gratuit. Pourtant, avec cette promesse vient le risque que les domaines de pratique qui servent les plus vulnérables seront les plus susceptibles de se déclencher du jugement d’avocat. Ce client payant attirera la bonne attention tandis que la matière pro bono est projetée par l’IA légèrement vérifiée.
Encore une fois, cela n’aurait peut-être pas été le cas ici, mais c’est la nouvelle frontière pour les visses de l’IA. Des pratiques plus lucratives vont attirer l’attention des avocats et l’avantage d’outils d’IA de haute qualité conçus spécifiquement pour la profession juridique avec toutes les garanties qui nécessitent. Et ce sera les pratiques à faible revenu qui donnent lieu à de futurs cas embarrassants.
Et – dans des questions comme l’immigration – potentiellement tragiques.
Joe Patrice est rédacteur en chef de ci-dessus de la loi et co-animateur de Penser comme un avocat. N’hésitez pas à envoyer des conseils, des questions ou des commentaires par e-mail. Suivez-le sur Twitter ou Bluesky si vous êtes intéressé par le droit, la politique et une bonne dose de nouvelles sportives universitaires. Joe est également directeur général de RPN Executive Search.