LE ALLUCINAZIONI DELL’INTELLIGENZA ARTIFICIALE IN AMBITO FORENSE: IL CASO DI MILANO
di Luisa Motolese
Nei giorni scorsi il TAR Lombardia ha affrontato un caso destinato a far scuola: un avvocato milanese ha ammesso di aver utilizzato un’app di intelligenza artificiale per redigere un ricorsopresentato in nome di una giovane studentessa bocciata al liceo.Fin qui, nulla di straordinario: l’uso di strumenti basati su IA si sta diffondendo anche tra i professionisti del diritto. Ma nel caso in questione l’intelligenza artificiale ha “tradito” il suo utilizzatore. Nel ricorso erano infatti citate numerose sentenze risultate inesistenti o del tutto non pertinenti, appartenenti a orientamenti giurisprudenziali non noti. . Le sentenze citate erano però inesistenti o non pertinenti, frutto delle cosiddette “allucinazioni” dell’IA.
Il giudizio del TAR
Il TAR ha rigettato il ricorso e, soprattutto, ha trasmesso la sentenza all’Ordine degli Avvocati di Milano per le valutazioni disciplinari del caso.
Secondo i giudici, la condotta del difensore rappresenta una violazione dei doveri di lealtà e probità, perché l’inserimento di riferimenti falsi o non verificati è idoneo a influenzare in modo scorretto il contraddittorio e a rendere più gravoso il lavoro di giudici e controparti, costretti a controllare una giurisprudenza inesistente.Durante l’udienza, l’avvocato ha ammesso di aver utilizzato un sistema di intelligenza artificiale per ricercare le pronunce giurisprudenziali, precisando che le informazioni errate erano state generate proprio dall’IA. Ma il TAR non ha accolto questa giustificazione.
La responsabilità personale non si delega all’IA
I giudici hanno chiarito che la firma su un atto processuale comporta sempre una responsabilità diretta e personale da parte del professionista.
Non ha rilievo, quindi, che il testo sia stato materialmente redatto da un collaboratore o da un algoritmo: chi lo sottoscrive risponde integralmente del suo contenuto.
Inoltre, il TAR ha richiamato il principio della centralità della persona, sancito nella Carta dei principi per un uso consapevole dell’intelligenza artificiale in ambito forense.
Secondo questo principio, l’avvocato deve mantenere il pieno controllo sull’attività difensiva e verificare sempre l’attendibilità dei risultati forniti dagli strumenti digitali.
L’IA può infatti generare le cosiddette “allucinazioni”, ossia risposte apparentemente coerenti ma del tutto inventate — un rischio ben noto nel mondo tecnologico, ma spesso sottovalutato da chi ne fa uso senza adeguata vigilanza.
Una svolta nella giurisprudenza
Casi simili si erano già verificati in passato, ma con un esito diverso: i giudici avevano sanzionato la parte processuale, non l’avvocato, ai sensi dell’art. 96, comma 3, del codice di procedura civile.
Questa volta, invece, il TAR ha scelto di concentrare l’attenzione sulla condotta del difensore, considerandola una violazione deontologica.
Si tratta di un cambio di prospettiva importante: non è l’intelligenza artificiale a essere sotto accusa, ma l’uso irresponsabile che se ne può fare.
Una lezione per il futuro
La decisione del TAR Lombardia rappresenta un monito chiaro per la professione forense e, più in generale, per tutti i settori che iniziano a integrare strumenti di intelligenza artificiale nelle proprie pratiche.
L’innovazione tecnologica può essere un alleato prezioso, ma non può sostituire la competenza, l’etica e la vigilanza dell’essere umano.Come ha implicitamente ricordato il TAR, l’avvocato che si affida a un sistema automatizzato senza controllarne i risultati non abdica solo al proprio ruolo professionale, ma anche alla propria responsabilità personale.
E questo, nel mondo del diritto, non è mai un dettaglio.
