Un tribunal de Florence, en Italie, a mis en garde contre les risques liés à l'utilisation de l'intelligence artificielle (IA) dans le domaine juridique, après qu'un avocat a cité des décisions inexistantes lors d'une audience. L'épisode s'est produit lors d'un procès pour violation de droits d'auteur impliquant l'utilisation de motifs sur des t-shirts.
L'audience a eu lieu en mars, mais l'affaire a été révélée ce jeudi 17. Selon le site juridique Diretto.it, l'avocat de la défense a présenté comme argument certaines prétendues décisions de la Cour suprême. Les références, cependant, n'existaient pas et auraient été générées par l'outil ChatGPT.
Les juges ont vérifié les documents et ont constaté qu’il s’agissait de fausses décisions. Interrogé, l'avocat a déclaré que le matériel avait été préparé par un collègue du cabinet.
Le tribunal a envisagé d'ouvrir une procédure sur la base de l'article qui punit ceux qui agissent de mauvaise foi pendant le procès. Cependant, les magistrats ont décidé de ne pas poursuivre les accusations. Ils ont attribué l’erreur à une mauvaise utilisation de l’intelligence artificielle.
Dans une décision datée du 14 mars, les juges ont attiré l’attention sur le phénomène de « hallucinations » de l'IA. Le terme désigne des réponses inexactes ou complètement fausses produites par de tels outils, lorsqu’ils présentent des informations non étayées par des données réelles.
Justice et technologie
Cette situation relance le débat sur l’utilisation de l’IA dans le système judiciaire. Bien qu’il offre des ressources pour la recherche et l’analyse, une utilisation indiscriminée peut compromettre l’intégrité des processus juridiques.
Le tribunal a souligné l’importance de la validation humaine des informations extraites de ces outils.




















































