Il paradosso di Teseo digitale: quando l'intelligenza artificiale ridefinisce la diligenza professionale
Il paradosso di Teseo digitale: quando l'intelligenza artificiale ridefinisce la diligenza professionale
Immaginate un avvocato che, come l'antico Teseo nel labirinto, si muove tra le pieghe del diritto armato solo del filo di Arianna della propria esperienza. Ora immaginate che qualcuno gli offra una mappa completa del labirinto, generata da un'intelligenza artificiale. Se rifiuta e il cliente si perde, di chi è la colpa?
Questo paradosso contemporaneo emerge con forza dall'interessante articolo di Alberto Gambino su Diritto Mercato Tecnologia, che pone una questione destinata a ridefinire i confini stessi della professione forense: l'avvocato può essere responsabile per non aver utilizzato strumenti di intelligenza artificiale?
L'Obbligazione di Mezzi e la Porta Stretta delle Best Practices
La risposta affonda le radici in una distinzione classica del diritto civile. L'avvocato, come noto, è vincolato da un'obbligazione di mezzi, non di risultato. Non deve garantire la vittoria in giudizio, ma impiegare la diligenza qualificata richiesta dall'art. 1176, comma 2, c.c.: quella del "professionista medio di normale capacità e preparazione".
Eppure, come osserva acutamente Gambino, questa "normalità" non è un dato fisso, ma una variabile storica. Paolo Benanti, nel suo Oracoli. Tra algoretica e algocrazia (Luca Sossella Editore, 2018), ci ricorda che ogni tecnologia non è neutrale: essa "rimodella l'ambiente in cui viviamo e, conseguentemente, rimodella noi stessi". L'intelligenza artificiale non è un semplice strumento che si aggiunge alla cassetta degli attrezzi del professionista: è un nuovo paradigma epistemologico che trasforma il modo stesso di concepire la conoscenza giuridica.
Quando Francesco Galgano parlava della "diligenza professionale come categoria evolutiva", non immaginava certo l'intelligenza artificiale, ma intuiva che ogni epoca ridefinisce i propri standard di eccellenza. Oggi, quelle che ieri erano innovazioni sperimentali diventano rapidamente best practices, e ciò che è best practice tende inesorabilmente a trasformarsi in standard minimo esigibile.
La Legge 132/2025, all'art. 24, non lascia dubbi: prevede formazione universitaria sull'uso dell'IA, riconoscendo la tecnologia come "componente strutturale della professionalità giuridica". L'AI Act europeo introduce il principio di AI literacy, imponendo agli utenti professionali la capacità di utilizzare l'intelligenza artificiale "in modo conforme, appropriato e informato".
La porta è ormai aperta: se il legislatore considera l'IA parte del bagaglio tecnico del professionista, il suo mancato utilizzo può configurare quella negligenza o imperizia che la giurisprudenza sanziona costantemente (Cass. civ., Sez. III, n. 4655/2021).
Il Diritto alla Spiegazione e il Dovere di Verità: La Trasparenza dell'Oracolo
Ma c'è un piano più profondo, quasi dostoevskiano, in questa vicenda. L'avvocato ha verso il cliente un dovere di "sollecitazione, dissuasione ed informazione" (Cass., n. 13857/2025). Deve rappresentargli "tutte le questioni ostative al raggiungimento del risultato", consentendogli "una decisione pienamente consapevole".
Qui il paradosso si fa acuto e tocca questioni ontologiche. Se un sistema di analisi predittiva, interrogando migliaia di precedenti, stima al 15% le probabilità di successo di una causa, e l'avvocato non lo utilizza, preferendo affidarsi alla propria intuizione professionale, sta davvero tutelando il cliente? O sta, piuttosto, privandolo di un'informazione che potrebbe modificare radicalmente le sue scelte?
Maurizio Ferraris, in Documanità. Filosofia del mondo nuovo (Laterza, 2021), ha coniato il termine "documedialità" per descrivere come la realtà sociale contemporanea sia costituita da documenti e tracce digitali. Il precedente giurisprudenziale, in quest'ottica, non è più solo una fonte del diritto da interpretare ermeneuticamente, ma un datum che può essere processato algoritmicamente per generare predizioni. La verità processuale, che da sempre ha oscillato tra certezza e probabilità, trova nell'IA uno strumento di quantificazione che sfida la tradizionale saggezza forense.
Come scrive Guido Alpa in La responsabilità civile (UTET, 2019), "la professione forense è intrinsecamente fiduciaria: il cliente affida al legale non solo un mandato, ma la propria vulnerabilità giuridica". Negare l'accesso a strumenti che potrebbero illuminare quella vulnerabilità equivale forse a una forma di paternalismo anacronistico, quella che Byung-Chul Han definirebbe una "violenza della trasparenza" al contrario: la violenza dell'opacità deliberata.
Vincenzo Zeno-Zencovich, in recenti interventi sul rapporto tra intelligenza artificiale e professioni legali, ha evidenziato come "il professionista contemporaneo opera in un ecosistema informativo radicalmente diverso da quello del secolo scorso, e la sua responsabilità si commisura anche alla capacità di navigare questo ecosistema".
La questione assume contorni ancora più definiti se consideriamo la giurisprudenza recente sul dovere di informazione. Il Tribunale di Milano, con sentenza n. 3612/2025, ha stabilito che la responsabilità del professionista può fondarsi sulla "scelta di una determinata strategia processuale" quando "la sua inadeguatezza era valutabile ex ante". Se un sistema di IA può rendere tale valutazione più accurata e predittiva, la sua omissione assume i contorni di una scelta professionale discutibile, se non negligente.
Il Peso della Prova e l'Ombra del Controfattuale: L'Algoretica della Responsabilità
Naturalmente, affermare la potenziale responsabilità non significa aprire le porte a contenziosi indiscriminati. Come ricorda la giurisprudenza consolidata (Cass. civ., n. 9407/2025), grava sul cliente l'onere di dimostrare non solo l'inadempimento, ma il nesso causale secondo il criterio del "più probabile che non".
Il cliente dovrebbe provare che: esisteva un sistema di IA accessibile e affidabile; il suo utilizzo avrebbe fornito un'informazione decisiva; quella informazione avrebbe condotto, con probabilità superiore al 50%, a un esito più favorevole. Un giudizio prognostico complesso, che protegge il professionista da rivendicazioni pretestuose.
Siamo qui nel cuore di quella che Benanti chiama "algoretica": l'etica degli algoritmi come "spazio di negoziazione tra efficienza computazionale e dignità umana". La responsabilità professionale diventa un terreno in cui si misurano non solo competenze tecniche, ma anche scelte etiche fondamentali: fino a che punto la decisione può essere delegata all'algoritmo? Dove inizia l'insostituibile giudizio umano?
Eppure, come in un racconto di Calvino dove la realtà si sdoppia in infinite varianti possibili, resta l'inquietudine: cosa accadrebbe se tribunali specializzati iniziassero a considerare il ricorso all'IA non un valore aggiunto, ma uno standard atteso?
La Governance Integrata e il Modello 231: Dalla Responsabilità Individuale alla Responsabilità Sistemica
La questione dell'intelligenza artificiale non riguarda solo la responsabilità individuale del professionista, ma si estende all'intera governance aziendale, investendo l'organizzazione nella sua complessità sistemica. L'introduzione di aggravanti AI-driven nella Legge 132/2025 impone alle società che impiegano sistemi di intelligenza artificiale un ripensamento radicale e un aggiornamento sostanziale dei Modelli Organizzativi ex d.lgs. 231/2001.
Emerge così un'architettura gestionale integrata che coordina "principi etici, requisiti giuridici, funzioni interne e controlli tecnici" in un equilibrio dinamico tra conformità normativa e innovazione tecnologica. Il GDPR aveva già prefigurato questo modello di governance tecnologica, introducendo figure come il DPO e strumenti come la DPIA, anticipando la logica della responsabilizzazione organizzativa. Oggi, la convergenza tra data governance e AI governance diventa "uno dei pilastri del nuovo diritto dell'innovazione responsabile", ridefinendo i confini stessi della corporate compliance.
Ferraris parlerebbe qui di una nuova forma di "mobilizzazione totale" nel senso jüngeriano: non più solo la mobilitazione delle risorse produttive, ma la mobilitazione dell'intelligenza stessa attraverso sistemi tecnologici che rendono ogni decisione tracciabile, verificabile, sindacabile. La responsabilità non è più un fatto puntuale, ma un processo continuo di documentazione e dimostrazione.
In questo contesto evolutivo, l'Organismo di Vigilanza assume un ruolo cruciale nel "curare l'aggiornamento del M.O.G." per estenderlo ai rischi reato connessi all'impiego dell'IA, attraverso processi di risk-mapping, risk-assessment e risk-management specificamente calibrati sulle nuove tecnologie algoritmiche. La compliance non è più mero adempimento formale, ma costruzione di un sistema interno capace di dimostrare, in ogni momento, la conformità delle operazioni tecnologiche, secondo la logica del Plan-Do-Check-Act applicata all'ecosistema dell'intelligenza artificiale.
Conclusione: Tra Prometeo e Cassandra, o la Società della Prestazione Algoritmica
Byung-Chul Han, in Psicopolitica (Nottetempo, 2016), descrive la nostra epoca come dominata dalla "società della prestazione", dove ogni soggetto è simultaneamente carnefice e vittima, costretto a ottimizzare continuamente sé stesso. L'intelligenza artificiale rischia di essere l'acceleratore finale di questa dinamica: il professionista non è più giudicato solo sulla base delle proprie competenze tradizionali, ma sulla sua capacità di integrarle con le potenzialità algoritmiche.
Siamo di fronte a una trasformazione che Umberto Eco avrebbe definito "apocalittica": l'intelligenza artificiale non è solo uno strumento, ma un nuovo linguaggio della verità giuridica. L'avvocato del XXI secolo si trova così sospeso tra due archetipi: Prometeo, che deve portare il fuoco della tecnologia a beneficio del cliente; e Cassandra, che deve saper interpretare i segnali algoritmici senza rimanerne succube, mantenendo quello spirito critico che nessun sistema di IA può replicare.
Benanti ci ricorda che "la tecnica non è mai neutrale perché incorpora sempre una visione del mondo". Accettare l'IA nella pratica forense significa interrogarsi su quale visione del diritto stiamo incorporando: quella di una scienza esatta, prevedibile, quantificabile? O quella di una sapienza pratica, irriducibilmente umana, che l'algoritmo può assistere ma non sostituire?
Il paradosso non è risolvibile in astratto. La soluzione, come spesso accade nel diritto vivente, emergerà dalla prassi giurisprudenziale. Ma una cosa appare certa: l'intelligenza artificiale ha varcato la soglia della diligenza professionale. Ignorarla non è più un diritto, ma potrebbe diventare un rischio. Come nelle Città invisibili di Calvino, ogni professionista deve ora scegliere in quale città abitare: quella della tradizione rassicurante o quella dell'innovazione responsabile.
La responsabilità, in fondo, è sempre una questione di scelta consapevole. E forse proprio questa consapevolezza - questa capacità di scegliere cum scientia, con conoscenza - è ciò che distingue ancora il giudizio umano dall'elaborazione algoritmica. L'IA può calcolare probabilità, ma solo l'umano può assumersi la responsabilità esistenziale della decisione.