Tech&Co Intelligence artificielle
Intelligence artificielle

"Mon Dieu, je regrette": l'avocat ayant utilisé ChatGPT estime s'être fait avoir par l'IA

Pendant deux heures, l'avocat Steven Schwartz a dû justifier son utilisation de ChatGPT devant un juge ce jeudi. L'IA avait inventé de faux-procès qu'il avait utilisés dans une plaidoirie.

Non, ChatGPT n'est pas un "super moteur de recherche". Durant deux heures ce jeudi 8 juin, Steven Schwartz a été entendu par un juge du district sud de New York, rapporte le New York Times. L'avocat a dû s'expliquer sur son utilisation du robot conversationnel d'OpenAI dans le cadre de ses recherches juridiques.

Pour défendre son client, percuté par un chariot de service lors d'un voyage en avion, Steven Schwartz a fait appel à ChatGPT. L'objectif était de découvrir si des cas similaires avaient déjà été jugés par le passé. Sauf que le logiciel lui a indiqué des affaires n'ayant jamais existé. Il lui est donc reproché de ne pas avoir vérifié les informations formulées par ChatGPT.

"Mon Dieu, je regrette de ne pas avoir fait cela", a-t-il assuré, en indiquant se sentir embarrassé et humilié.

Des répercussions sur toute la profession juridique

Selon lui, il n'avait "pas compris que ChatGPT pouvait fabriquer des affaires". L'avocat explique également: "J'ai entendu parler de ce nouveau site, dont j'ai supposé à tort qu'il s'agissait d'un super moteur de recherche."

Près de 70 personnes ont assisté à l'audition de Steven Schwartz. Sur les bancs, avocats, étudiants en droit, auxiliaires de justice et professeurs assistent à la scène. "Cette affaire a eu des répercussions sur l'ensemble de la profession juridique", explique le chroniqueur judiciaire David Lat au New York Times.

Car des sanctions devraient être mises en place à l'encontre de l'avocat. C'est du moins ce qu'envisage le juge Kevin Castel. Les répercussions pourraient toucher non seulement Steven Schwartz, mais aussi son associé Peter LoDuca, qui a depuis récupéré l'affaire.

Bien qu'il n'ait pas réalisé les recherches, Peter LoDuca n'a pas lu les (faux) procès mis en avant par son collègue grâce à ChatGPT. Il avait reconnu ne pas s'être assuré que ces dossiers aient jamais existé.

Pierre Monnier