Pour défendre son client, un avocat invoque des procès fictifs inventés par ChatGPT
Si ChatGPT a bel et bien réussi à passer l'examen du barreau, il n'est pas encore prêt à s'occuper d'un client. Un avocat en a fait les frais. Pour réaliser ses recherches, Steven Schwartz a utilisé le modèle d'intelligence artificielle. Mais la solution d'OpenAI a fait référence à des procès n'ayant jamais existé, pointe le site The Verge.
Le procès en question oppose un certain Roberto Mata à la compagnie aérienne colombienne Avianca, précise le New York Times. Lors d'un vol en direction de New York, un chariot en métal a heurté son genou. Il s'est donc retourné contre l'entreprise pour obtenir réparation.
Pas conscience que ChatGPT puisse mentir
Mais pour éviter un rejet de la plainte, l'avocat de l'homme a dû trouver des cas similaires où les plaignants ont obtenu gain de cause. Il a alors avancé six affaires. Si l'intelligence artificielle a assuré que les affaires citées étaient véridiques, ni le juge, ni l'avocat adverse n'ont pu trouver les décisions de justice.
Dans une déclaration sous serment, Steven Schwartz a reconnu avoir eu recours à ChatGPT pour réaliser ses recherches. Mais pour vérifier les dires du logiciel, il lui a simplement demandé s'il n'était pas en train de mentir. Pour se défendre, l'avocat a déclaré n'avoir jamais utilisé ChatGPT auparavant et n'avait donc "pas conscience que son contenu puisse être faux".
L'affaire a depuis été transférée dans le district sud de New York, où l'avocat Steven Schwartz n'est pas autorisé à exercer. Son collègue Peter LoDuca a donc repris le dossier. C'est ainsi à lui que reviendra la tâche de s'expliquer sur l'utilisation de ChatGPT pour évoquer des procès inventés de toute pièce.