Tech&Co Intelligence artificielle
Intelligence artificielle

Pour défendre son client, un avocat invoque des procès fictifs inventés par ChatGPT

Un avocat s'est servi de ChatGPT pour ses recherches, mais le logiciel d'intelligence artificielle a fait référence à des affaires n'ayant jamais existé.

Si ChatGPT a bel et bien réussi à passer l'examen du barreau, il n'est pas encore prêt à s'occuper d'un client. Un avocat en a fait les frais. Pour réaliser ses recherches, Steven Schwartz a utilisé le modèle d'intelligence artificielle. Mais la solution d'OpenAI a fait référence à des procès n'ayant jamais existé, pointe le site The Verge.

Le procès en question oppose un certain Roberto Mata à la compagnie aérienne colombienne Avianca, précise le New York Times. Lors d'un vol en direction de New York, un chariot en métal a heurté son genou. Il s'est donc retourné contre l'entreprise pour obtenir réparation.

Pas conscience que ChatGPT puisse mentir

Mais pour éviter un rejet de la plainte, l'avocat de l'homme a dû trouver des cas similaires où les plaignants ont obtenu gain de cause. Il a alors avancé six affaires. Si l'intelligence artificielle a assuré que les affaires citées étaient véridiques, ni le juge, ni l'avocat adverse n'ont pu trouver les décisions de justice.

Dans une déclaration sous serment, Steven Schwartz a reconnu avoir eu recours à ChatGPT pour réaliser ses recherches. Mais pour vérifier les dires du logiciel, il lui a simplement demandé s'il n'était pas en train de mentir. Pour se défendre, l'avocat a déclaré n'avoir jamais utilisé ChatGPT auparavant et n'avait donc "pas conscience que son contenu puisse être faux".

L'affaire a depuis été transférée dans le district sud de New York, où l'avocat Steven Schwartz n'est pas autorisé à exercer. Son collègue Peter LoDuca a donc repris le dossier. C'est ainsi à lui que reviendra la tâche de s'expliquer sur l'utilisation de ChatGPT pour évoquer des procès inventés de toute pièce.

Pierre Monnier