Intelligenza artificiale e settore legale: avvocati, occhio a confidare ciecamente nei sistemi di IA per la redazione degli atti

Intelligenza artificiale e settore legale: avvocati, occhio a confidare ciecamente nei sistemi di IA per la redazione degli atti
Introduzione
Negli ultimi anni l’intelligenza artificiale ha avuto un notevole impatto nel settore delle professioni legali, motivo per il quale, i professionisti del diritto possono ricorrere all’ausilio di strumenti di IA nell’espletamento della loro professione.
Da semplice strumento di supporto per attività ripetitive, quali la revisione di atti e documenti o la gestione delle scadenze, l’IA è diventata un congegno atto a migliorare strategie, decisioni e operazioni legali.
Ciò che però, deve essere chiaro ai professionisti è che l’intelligenza artificiale non può sostituirsi all’essere umano, sul quale incombe il dovere di controllo dell’operato di tale tecnologia.
Ne consegue che gli avvocati non possono effettuare ricerche o scrivere atti giudiziari affidandosi esclusivamente all’IA, senza effettuare puntuali verifiche sui risultati da essa prodotti.
Su questo pregnante tema, il 16 settembre 2025, si è pronunciato il Tribunale di Torino sez. lavoro che ha riscontrato la sussistenza della lite temeraria ai sensi dell’art. 96 c.p.c. in capo alla parte processuale che ha utilizzato un sistema di intelligenza artificiale nella redazione di un ricorso per opposizione a decreto ingiuntivo, senza controllare la veridicità degli output elaborati dal predetto sistema.
L’Organo Giudicante, nell’esaminare l’atto difensivo redatto tramite l’IA, ha statuito che lo stesso contenesse indicazioni non veritiere che andavano a intaccare la fondatezza della domanda avanzata da parte ricorrente.
Pertanto, il Giudice della Mole ha reputato il ricorso infondato sia nel merito che nel metodo e, allo stesso tempo, ha ritenuto passibile di colpevolezza la condotta della parte processuale che lo ha presentato, poiché a suo parere rea di aver agito in giudizio in malafede.
Tuttavia, prima di addentraci nel vivo della vicenda oggetto di disamina del Tribunale di Torino, occorre esaminare l’impianto normativo di riferimento che sarà oggetto dei paragrafi successivi.
Le regole per le professioni intellettuali
Il principio base di tutte le normative in materia di intelligenza artificiale è che l’IA abbia un approccio di natura antropocentrica; il che significa che l’IA non può e non deve sostituirsi all’uomo, né tantomeno può lederne i diritti fondamentali.
Ne consegue che i professionisti del diritto devono avere una maggiore consapevolezza delle potenzialità e dei limiti dell’intelligenza artificiale, in maniera tale da essere in condizione di verificarne i contenuti e, di conseguenza, garantire che la stessa venga utilizzata in modo etico e responsabile.
Tale principio, apparso per la prima volta all’interno dell’ACT (Reg. UE 1689/2024), è stato una costante sia delle recentissime linee guida varate in materia dalla Commissione Europea, sia dell’Artificial Intelligence Strategy tracciato dalla Corte di Giustizia dell’Unione Europea con cui si sono esortati gli avvocati a non affidarsi completamente ai risultati generati dall’IA.
In Italia oltre al progetto “Horos”, denominato anche “Carta dei Principi per un uso consapevole di strumenti di intelligenza artificiale in ambito forense” varato dall’Ordine degli Avvocati di Milano al fine di dettare delle linee guida che possano essere d’aiuto agli avvocati nell’uso dell’intelligenza artificiale, il 25 settembre 2025 è stata pubblicata sulla Gazzetta Ufficiale la legge n°132/2025, ossia la prima legge italiana sull’IA che entrerà in vigore il 10 ottobre 2025, il cui art. 13 si occupa di disciplinare l’utilizzo dei sistemi di intelligenza artificiale nelle professioni intellettuali.
Secondo la predetta norma i sistemi di IA possono essere impiegati esclusivamente come strumenti di supporto all’attività professionale senza, ovviamente, mai sostituire il contributo intellettuale del professionista.
Ne consegue che, il professionista non potrà mai affidare integralmente l’erogazione della propria prestazione intellettuale a un sistema di intelligenza artificiale, neppure nell’ipotesi in cui egli dovesse risultare autorizzato dal proprio cliente, il quale deve essere scientemente informato dell’utilizzo di tale sistema da parte del proprio difensore.
L’apparato normativo de quo cerca di lanciare un monito ai professionisti del diritto sul pericolo generato da un uso non corretto dell’IA generativa, che non è nuova a generare allucinazioni contenenti errori anche di una certa entità che arrivano sempre più spesso ad essere riscontrati nelle nostre aule di giustizia e che saranno oggetto di disamina nei paragrafi successivi.
I casi giuridici sulle allucinazioni dell’intelligenza artificiale precedenti la sentenza del Tribunale di Torino
Il primo caso in Italia di allucinazioni dell’intelligenza artificiale è stato affrontato dal Tribunale di Firenze nel marzo del 2025.
La vicenda giudiziaria trattata dal Tribunale fiorentino riguardava la produzione in giudizio da parte del procuratore di una delle parti di sentenze suggerite ed inventate di sana pianta da un sistema di IA generativa.
Le predette sentenze non erano state oggetto di verifica da parte del difensore in questione, il quale aveva commesso l’errore di affidarsi ciecamente a un sistema di IA e, per giustificare tale suo improprio comportamento, aveva cercato di scaricare le proprie responsabilità su una collaboratrice di studio.
Per detti comportamenti la controparte aveva chiesto la condanna ex adverso per lite temeraria ai sensi dell’art 96.c.p.c.
Tuttavia, nonostante il pastrocchio giuridico venutosi a creare e la richiesta di condanna per lite temeraria, secondo l’Organo Giudicante toscano, la condotta del procuratore de quo, non era passibile di censura in quanto quest’ultimo non aveva agito in giudizio e/o resistito in mala fede o colpa grave, presupposti essenziali per l’applicazione della predetta norma.
L’assenza dell’elemento soggettivo era stata individuata dal Tribunale nel fatto che il procuratore avesse prodotto delle sentenze, di cui poi aveva chiesto lo stralcio, atte ad avallare una strategia difensiva già ampiamente motivata in primo grado, senza nulla aggiungere alla propria difesa.
Di diverso avviso è stato invece il Giudice di New York nel famoso caso Mata v. Avianca Inc. il quale non ha mostrato la stessa clemenza del Tribunale fiorentino e ha condannato l’avv. Steven A Schwartz, reo di aver prodotto in giudizio sentenze inventate di sana pianta dall’IA senza controllarne la veridicità, ad una sanzione disciplinare pecuniaria in ragione del principio secondo cui il difensore è responsabile del contenuto dei propri atti.
La sentenza del Tribunale di Torino
Lo scorso 16 settembre la Sezione lavoro del Tribunale di Torino, è tornata sul tema dell’uso dell’IA all’interno del settore legale e, diversamente dal Tribunale di Firenze, ha ritenuto applicabile l’art. 96 c.p.c. nei confronti della parte processuale che aveva depositato un ricorso redatto tramite l’ausilio dei dati forniti da un sistema di IA, che è risultato essere infondato anche nel merito.
La vicenda ha avuto inizio a seguito del deposito di un’opposizione a un’ingiunzione di pagamento da parte del ricorrente nei cui confronti era stato ingiunto il pagamento di una somma.
Il ricorrente, all’interno del proprio ricorso redatto interamente tramite un sistema di IA, aveva formulato eccezioni di ogni sorta come la decadenza dal potere impositivo, l’incompetenza territoriale, l’inesistenza per vizi relativi alla sottoscrizione, la mancata indicazione dei criteri di calcolo degli interessi, l’inesistenza della notifica degli avvisi di addebito, l’intervenuto silenzio assenso e la prescrizione dei crediti.
Tuttavia, il predetto atto agli occhi dell’Organo Giudicante si è rivelato essere infondato poiché pieno di argomentazioni non veritiere frutto dell’ invenzione di un sistema di IA generativa, la cui veridicità dei risultati emessi avrebbe dovuto essere oggetto di verifica da parte del difensore della parte.
Di fatti secondo il Tribunale il ricorrente “ha agito in giudizio con malafede o, quantomeno con colpa grave, dal momento che ha proposto opposizione nei confronti di avvisi di addebito che gli erano stati tutti notificati in precedenza, già oggetto di plurimi atti di esecuzione anch’essi tutti regolarmente notificati ed ha svolto – tramite un ricorso redatto “col supporto dell’intelligenza artificiale”, costituito da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio – eccezioni tutte manifestamente infondate”.
Pertanto il Giudice torinese, visto il comportamento tenuto dal ricorrente il quale, forse anche per leggerezza, ha costruito una difesa formulando eccezioni fallaci che sono state facilmente smascherate dalla controparte, e vista la piena sussistenza dell’elemento soggettivo di cui all’art 96 c.p.c., non ha potuto fare altro che condannare quest’ultimo ai sensi dei commi 3 e 4 della medesima norma, al pagamento della somma di 500,00 euro in favore di ciascuna delle parti resistenti.
Conclusioni
Il decisum del Tribunale di Torino, va a costituire un precedente di primaria rilevanza che, ove confermato nei gradi successivi, potrebbe essere pioniere di un orientamento giuridico sull’uso dell’IA da parte dei professionisti del diritto.
Oggigiorno se è pur vero che gli avvocati hanno la possibilità di velocizzare il proprio lavoro mediante l’utilizzo di potentissimi strumenti tecnologici, è altrettanto evidente che questi strumenti non possono sostituirsi alla prestazione intellettuale del professionista.
Non a caso infatti, le normative europee e nazionali pongono alla base della regolamentazione dell’IA una visione antropocentrica dell’uso dei sistemi di intelligenza artificiale.
Ciò significa che i professionisti, pur avendo tra le mani uno strumento straordinario, non possono affidarsi totalmente ad esso ed esimersi da un’attività di controllo costante.
L’intervento sul tema da parte dell’Autorità Giudiziaria torinese, così come lo scorso marzo quello del Tribunale fiorentino, visto il crescente “(ab)uso” da parte dei professionisti dei sistemi di IA, costituiscono un segnale forte e chiaro nei confronti degli avvocati.
Questi ultimi, infatti, non devono mai dimenticare di rivestire una carica di rilevanza primaria atta a garantire il corretto esercizio di difesa, che li porta ad essere responsabili del contenuto dei propri atti e di conseguenza li assoggetta ad obblighi di controllo dei propri scritti difensivi e trasparenza nei confronti dei clienti.
Sicuramente, rispetto al caso di allucinazioni dell’intelligenza artificiale trattato dal Tribunale di Firenze qualche mese fa, ci sono state delle evoluzioni normative, tuttavia è più che evidente che ci troviamo ancora agli albori di una legislazione in subiecta materia.
Questa situazione sicuramente non è d’aiuto all’Autorità Giudiziaria, la quale è chiamata ad intervenire in un campo i cui confini non sono ancora del tutto delineati.
Ciò significa che quest’ultima può trovarsi in una situazione molto delicata, poiché non è sempre agevole creare ex novo un orientamento giurisprudenziale che possa essere d’aiuto ai professionisti del diritto allorquando si hanno pochi principi normativi di riferimento.
A questo punto, nell’attesa di ulteriori sviluppi legislativi, non ci resta che osservare come la categoria professionale degli avvocati accoglierà il monito lanciato dal Tribunale della Mole, che invita i professionisti ad attenersi ad un uso responsabile dell’IA al fine di assicurare un servizio di qualità ed a garantire ai propri clienti il diritto ad una giusta e sana difesa.