Un tribunale di Firenze, in Italia, ha messo in guardia dai rischi derivanti dall'uso dell'intelligenza artificiale (IA) in ambito legale, dopo che un avvocato ha citato sentenze inesistenti durante un'udienza. L'episodio si è verificato durante un processo per violazione del copyright riguardante l'uso di disegni su magliette.
L'udienza si è tenuta a marzo, ma il caso è venuto alla luce questo giovedì 17. Secondo il sito web legale Diretto.it, l'avvocato difensore ha presentato come argomentazione alcune presunte decisioni della Corte Suprema. I riferimenti, tuttavia, non esistevano e sarebbero stati generati dallo strumento ChatGPT.
I giudici hanno esaminato i documenti e hanno scoperto che si trattava di decisioni false. Interrogato, l'avvocato ha dichiarato che il materiale era stato preparato da un collega dello studio.
Il tribunale ha preso in considerazione l'apertura di un procedimento sulla base dell'articolo che punisce chi agisce in malafede durante il processo. Tuttavia, i magistrati decisero di non procedere con le accuse. Hanno attribuito l'errore all'uso scorretto dell'intelligenza artificiale.
Con sentenza del 14 marzo, i giudici hanno richiamato l’attenzione sul fenomeno della “allucinazioni” dell'intelligenza artificiale. Il termine si riferisce alle risposte imprecise o completamente false prodotte da tali strumenti, quando presentano informazioni non supportate da dati reali.
Giustizia e tecnologia
La situazione riaccende il dibattito sull'uso dell'intelligenza artificiale nel sistema giudiziario. Sebbene offra risorse per la ricerca e l'analisi, un uso indiscriminato può compromettere l'integrità dei processi legali.
La Corte ha sottolineato l'importanza della convalida umana delle informazioni estratte da questi strumenti.