x

x

Intelligenza artificiale e diritto: un rapporto complesso

Intelligenza artificiale
Intelligenza artificiale

Intelligenza artificiale e diritto: un rapporto complesso

 

1. L’intelligenza artificiale

L’intelligenza artificiale o IA da alcuni anni costituisce il presente ed il futuro della tecnologia e consiste nell’abilità di una macchina nello sviluppare capacità umane quali la creatività, il ragionamento, l’apprendimento e la pianificazione.

L’IA, in poche parole, è un algoritmo che consente ad un sistema di analizzare l’ambiente circostante, di relazionarsi ad esso attraverso le proprie percezioni, di risolvere problemi allo scopo di perseguire specifici obiettivi.

Da un punto di vista meramente pratico, i sistemi di IA operano ed interagiscono attraverso un pc che riceve dei dati che può raccogliere autonomamente, tramite sensori quali video camere, registratori, o che gli vengono trasmessi ed immessi già preconfezionati dall’esterno.

Questi dati, una volta raccolti, vengono processati ed analizzati dall’IA la quale, al termine del procedimento, fornisce le proprie risposte e/o soluzioni.

I sistemi di intelligenza artificiale si perfezionano progressivamente ogni volta che si rapportano alle questioni che vengono loro sottoposte, in quanto riescono a recepire gli effetti delle azioni compiute in precedenza.

Grazie a queste abilità l’IA, negli anni, ha assunto un vero e proprio ruolo centrale per la trasformazione digitale della società ed è diventata una delle priorità del mondo moderno, tant’è che l’Unione Europea ed i Paesi extraeuropei che puntano sulle nuove tecnologie, come gli USA, stanno approntando progetti legislativi, per gestire anche i conflitti di natura giuridica riguardanti questa nuova realtà.

L’intelligenza artificiale impatta, infatti con plurimi ambiti della nostra vita quotidiana e si ripartisce in diversi ordini tipologici che vanno dai software come gli assistenti virtuali, ai software di analisi di immagini, ai motori di ricerca, ai sistemi di riconoscimento facciale e vocale, fino a ricomprendere la c.d. intelligenza incorporata quali robot, veicoli autonomi, droni e l’internet delle cose.

In pratica siamo circondati, spesso senza accorgercene, da tanti sistemi e/o applicazioni che utilizzano l’intelligenza artificiale, basti pensare all’utilizzo dell’IA nel mondo dello shopping in rete, della pubblicità, delle ricerche online, degli elettrodomestici “intelligenti”, dei veicoli, della cyber security, della sanità ecc.

Come è facilmente intuibile, però, ogni rivoluzione ha il proprio rovescio della medaglia e dunque, se da un lato la tecnologia basata sui sistemi IA è un processo in continua evoluzione, dall’altro lato ci si trova di fronte a un vuoto normativo di non poco conto, che ci mostra come intelligenza artificiale e diritto non stiano, ancora, viaggiando di pari passo.

D’altra parte è sotto gli occhi di tutti il fatto che, ogni campo in cui si applica l’intelligenza artificiale mette in luce problematiche di natura giuridica e possibili violazioni di diritti costituzionalmente garantiti.

L’Unione Europea, anche se non con un tempismo perfetto, si sta dimostrando sensibile all’argomento e sta cercando di colmare le lacune normative in materia di IA con un progetto normativo molto ambizioso che dovrebbe entrare in vigore entro il 2024: l’Artificial Intelligence Act, ovvero la prima legge al mondo sull’IA, i cui lavori sono iniziati nel 2021 su proposta della Commissione Europea.

La predetta normativa si pone di perseguire una serie di obiettivi al fine di riuscire a garantire la corretta interazione tra IA e diritto e, quindi, per “assicurare che i sistemi di IA immessi sul mercato dell’Unione e utilizzati siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell’Unione Europea, assicurare la certezza del diritto per facilitare gli investimenti e l’innovazione nell’intelligenza artificiale, migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e requisiti di sicurezza applicabili ai sistemi di IA ed il facilitare lo sviluppo di un mercato unico per applicazioni di IA lecite, sicure e affidabili nonché prevenire la frammentazione del mercato”.(vedasi Proposta di Regolamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale e, nel contempo si preoccupa di  modificare alcuni atti legislativi dell’Unione).

In attesa dell’entrata in vigore dell’AI Act, è tuttavia molto interessante osservare quale sia stato l’atteggiamento dei Paesi Europei ed Extraeuropei di fronte al fenomeno dell’IA ed alle questioni giuridiche ad essa sottese.

Nel paragrafo successivo analizzeremo una serie di problematiche giuridiche affrontate di recente che toccano il settore sanitario, il copyright, ChatGPT e l’applicazione dell’IA al diritto ed alle vicende processuali.

 

2. Intelligenza artificiale e questioni giuridiche ad essa connesse

2.1 IA e neurodati: l’approccio di Cile e Spagna

Uno dei settori che vede maggiormente coinvolta l’IA è sicuramente quello delle neurotecnologie, il cui scopo è quello di decifrare il cervello umano che, per le scienze neurotecnologiche, rappresenta un “codice sorgente” da decodificare  attraverso l’analisi degli stimoli cerebrali.

L’analisi del cervello umano effettuata tramite IA, in assenza di un quadro normativo adeguato, fa emergere numerose questioni giuridiche, sia di natura sostanziale legate al diritto all’integrità pscicofisica (c.d. diritti della mente), sia ai diritti della sfera della  privacy,  sia, infine, di natura processuale come la valutazione della colpevolezza in ambito penale.

L’inerzia del legislatore in materia di data brain porta con sé numerosi rischi tra cui la possibilità che terzi, non autorizzati, possano accedere a questi dati ed in alcuni casi interferire deliberatamente sul pensiero umano, violando qualsiasi principio etico, nonché la possibilità di artefare l’esito delle decisioni giudiziali qualora questi dati venissero strumentalizzati all’interno di un procedimento penale.

Cile e Spagna, recentemente, hanno affrontato queste tematiche e hanno scelto di tutelare i diritti della mente come parte dello stato di diritto.

Il caso più recente è sicuramente quello del Cile, primo Paese al mondo a fare dei neurodati un vero e proprio casus belli.

Nel 2021 il Paese sudamericano ha varato un emendamento costituzionale atto a includere i diritti della mente tra i diritti suscettibili di tutela costituzionale.

Questa riforma ha dato i suoi frutti in tempi brevissimi in quanto, quando nel 2023 la Corte Suprema de Chile si è ritrovata a dirimere una controversia sui dati neurali, ha avuto una solida via tracciata che l’ha portata con la decisione del 9 agosto 2023  ad equiparare gli stessi ai dati sensibili .

Tale equiparazione sottopone i dati neurali ad una disciplina particolare ovvero a quella che si applica per i dati riguardanti la salute e l’integrità psicofisica della persona, il cui trattamento deve essere sottoposto a consenso espresso, informato ed esplicito da parte del soggetto interessato al quale non può essere sottoposta una semplice accettazione generica di termini e condizioni ma gli debbono essere indicate le finalità di trattamento dei propri neurodati.

La controversia in materia di neurodati nasce a seguito dell’acquisto da parte del parlamentare Guido Girardi Lavin del dispositivo Insight di titolarità della società statunitense Emotiv Inc., consistente in un device medico sanitario atto a monitorare le onde cerebrali di un individuo al fine di ottimizzare la produttività lavorativa attraverso l’ottenimento in tempo reale di numerosi parametri di prestazione (come concentrazione o stress).

Il ricorrente nell’utilizzare il device aveva sottoscritto la licenza free che, però non gli consentiva di importare o esportare la propria attività neurologica che veniva archiviata all’interno del cloud di Emotiv.

In ragione di tale oggettivamente limitata risultanza paradigmatica, il signor Girardi Lavin, sentendosi violato nei propri diritti, ha avviato un’azione legale nei confronti di essa Emotiv che si è conclusa con la condanna della società statunitense per violazione di diritti costituzionalmente garantiti e per mancato rispetto della normativa sulla privacy.

Il nucleo centrale del decisum è racchiuso – in maniera del tutto manifesta - nel consenso al trattamento dei neurodati da parte del soggetto interessato, il cui rilascio deve essere obbligatoriamente subordinato a finalità esplicitamente e chiaramente conosciute ed approvate espressamente da quest’ultimo soggetto; in caso contrario si determina, senza se e senza ma, l’ipotesi di violazione dell’integrità fisica e mentale e del diritto alla privacy (artt. 19.1 e 19.4 della Costituzione cilena).

La decisione della Suprema Corte assume un certa rilevanza, in primo luogo perché invoca un tempestivo intervento legislativo da parte del Parlamento Cileno in una materia afflitta da importanti lacune normative, ed  a seguire perché fa carico alle Autorità Statali competenti, quali l’Istituto della Sanità Pubblica e l’Autorità doganale, di effettuare controlli sui dispositivi medico sanitari che entrano all’interno del territorio cileno, al fine di evitare che si verifichino episodi in cui vengano lesi i diritti della persona.

L’orientamento del Giudice Cileno, pur non essendoci ancora una legge ad hoc, è totalmente in linea con la proposta di Regolamento sull’Intelligenza Artificiale varata dalla Commissione Europea che vieta l’introduzione nel mercato di questo tipo di pratiche al fine di tutelare i diritti fondamentali dell’uomo.

Siffatta questione non è un dettaglio di poco conto in quanto l’obiettivo finale di tutti i Paesi interessati allo sviluppo dell’IA è quello di armonizzare il più possibile la disciplina in maniera tale da evitare l’insorgere di conflitti.

Per quanto riguarda, invece, la Spagna, anche se la questione oggetto di giudizio riguarda sempre l’uso dell’IA nel campo delle neurotecnologie,  viene affrontata una tematica diversa, ossia l’utilizzo nel campo della giustizia penale di un test neurologico che,  attraverso il rilevamento dell’attivazione di regioni del sistema nervoso di fronte a stimoli esterni (ad esempio uditivi o visivi), si pone il duplice obiettivo di ottenere informazioni rilevanti dalle persone che vi si sottopongono rispetto ad atti criminali e, di dimostrare in maniera empirica quale fosse lo status mentale della persona indagata/imputata nel momento in cui ha commesso il crimine.

Questo test è stato utilizzato dagli spagnoli in varie occasioni, sia a processo concluso al fine di ritrovare i corpi delle vittime di assassinii efferati come nel caso famoso dell’assassinio di Pioz, per capire se l’assassino fosse afflitto da danni cerebrali tali da determinare uno stato di inconsapevolezza nella commissione del reato.

Con riferimento a quest’ultimo caso, la Corte Suprema spagnola con la sentenza n.814 del 5 maggio 2020 ha affrontato per la prima volta in giudizio il tema della prova neuronale e della sua efficacia.

La vicenda riguarda una delle pagine più oscure della cronaca spagnola degli ultimi anni, ossia l’assassinio cruento da parte di un giovane di alcuni membri della propria famiglia tra cui due minori.

La difesa dell’imputato, sin dal primo grado di giudizio, aveva avallato la tesi secondo la quale il giovane non fosse consapevole al momento della commissione degli omicidi di ciò che stesse facendo a causa di danni cerebrali che gli impedivano di rendersi conto delle proprie azioni. La presenza dei suddetti danni era stata rilevata a seguito della sottoposizione dell’imputato alla Pec tac, ossia un test neurologico capace di analizzare gli stimoli neuronali dello stesso.

Il Giudice Supremo nell’analizzare la vicenda, anche se nel caso di specie ha ritenuto che l’imputato fosse ben consapevole dell’efferatezza dei propri crimini, non ha assunto un atteggiamento di chiusura nei confronti della prova neuronale, ma anzi si è schierata a favore delle neuroscienze.

La Corte ha infatti ritenuto che la tecnologia medica può essere di grande aiuto all’interno dei processi allorquando si giunge a dimostrare con certezza nell’individuo che ad essa tecnologia si sottopone la presenza di eventuali patologie. Tuttavia l’Organo Giudicante ha espressamente ritenuto che per raggiungere un reale grado di attendibilità le prove neuronali devono essere supportate dall’ausilio di professionisti competenti come i neurologi i quali devono dimostrare la stretta connessione tra danni cerebrali e capacità d’intendere e di volere.

Nel caso dell’assassino di Pioz questo grado di attendibilità non si è concretizzato giacché secondo la Corte non v’è stata alcuna dimostrazione concreta (attraverso il supporto della Pec Tac)  che l’imputato presentasse danni cerebrali tali da alterare la  sua capacità di intendere e di volere. Inoltre, il mancato coinvolgimento di un neurologo, così come i comportamenti tenuti dall’imputato a seguito della commissione dei delitti, hanno contribuito ad avallare la tesi opposta, ossia che l’omicida fosse del tutto consapevole di quello che stava andando a fare, sia con riferimento al modus operandi nel compiere il plurimo delitto (il giovane aveva fatto in modo di colpire a sorpresa e di spalle le proprie vittime), sia con riferimento al comportamento tenuto successivamente (un’accurata pulizia della scena del crimine).

Sul delicatissimo tema delle neuroscienze è intervenuto anche il Consiglio di bilancio al progetto preliminare di legge organica sulla procedura penale spagnolo, che nella relazione del 7 luglio 2021, (addendum 54)  sancisce l’importanza dell’apporto delle neuro tecnologie all’interno del processo penale .

Tale apporto tuttavia, deve avvenire in maniera controllata e nel rispetto della persona in quanto un uso strumentalizzato e incontrollato delle neurotecnologie potrebbe ledere i diritti della persona e intaccare la stabilità dei diritti volti invece a garantire il giusto processo, specialmente allorquando l’uso di apparecchiature neuro tecnologiche possa essere considerato dagli imputati e dai propri difensori come metodo volto un metodo ad escludere la possibilità delle attenuanti. Per questi motivi si auspica il prima possibile un intervento normativo anche su questi aspetti e da più Paesi.

 

2.2 Intelligenza Artificiale e copyright: Usa e Italia due approcci completamente differenti

Un altro campo interessato dall’ uso dell’intelligenza artificiale è senza ombra di dubbio quello del diritto d’autore. Ormai con l’avvento dell’IA non è più fantascienza la possibilità che un algoritmo possa creare, previo input dell’uomo, disegni, fumetti ed altri tipi di lavori.

La creazione di “un’opera” attraverso l’uso dell’IA se da un lato può portare a conseguire dei vantaggi a livello tecnico organizzativo, dall’altro lato comporta problematiche giuridiche molto rilevanti in materia di diritto d’autore il cui intervento per poter operare a tutela necessita della c.d. scintilla della creatività umana.

Di recente Italia ed USA si sono trovati a dover dirimere una questione di primaria importanza, ossia se una opera generata da un software attraverso la “regia” umana possa essere suscettibile di tutela da parte del diritto d’autore. Italia e USA, pur avendo una disciplina basata sui principi similari, sono arrivati a due conclusioni completamente diverse.

Con riferimento all’Italia, la cui ordinanza della Corte di Cassazione risale al 16 gennaio 2023 (Ord. n.1107/2023), la questione afferisce ad una violazione di diritto d’autore commessa dalla RAI che durante il Festival di Sanremo 2016, ha illegittimamente utilizzato per la messa in onda e comunicazione un’immagine rappresentativa della riproduzione di un fiore di titolarità di un architetto. Tale illegittimità è stata accertata prima dal Tribunale di Genova e confermata poi anche in sede di appello.

Nella circostanza quel che però emerge, al di là della conclamata violazione da parte della RAI del diritto d’autore, è la questione, dell’erronea qualificazione come opera dell’ingegno dell’immagine di titolarità dell’architetto in quanto generata da un software. La RAI a propria difesa aveva sostenuto non sussistente la paternità dell’autore sull’immagine oggetto di giudizio essendo stata la medesima realizzata da un software e come tale non riconducibile ad una sua idea creativa.

Di fronte alla tesi della ricorrente la Suprema Corte, confermando i decisa delle Corti di merito, ha affermato che l’utilizzo di un software nel processo creativo di un’immagine non è sufficiente di per sé a negare il carattere creativo di un’opera dell’ingegno. Quello che sicuramente è importante è effettuare un’analisi più rigorosa del processo di creatività e cioè verificare, se ed in quale misura, l’utilizzo di uno strumento di IA possa assorbire l’elaborazione creativa dell’artista che se ne avvale.

Nel caso in cui dall’esito di tale accertamento, venga ritenuto prevalente l’apporto umano rispetto a quello della macchina, per la Corte non vi è alcuna ragione per non riconoscere la tutela autorale alla persona che si sia servita dell’IA. In caso contrario, sicuramente rimarrebbero aperti vari interrogativi in ordine alla tutelabilità dell’opera a cui il legislatore è invitato a rispondere, visto e considerato altresì che con lo sviluppo dell’IA non è banale chiedersi se gli algoritmi possano un essere concepiti come autori di un’opera e di beneficiare della relativa tutela.

La Cassazione non esclude dunque la tutela del diritto d’autore a chi si avvale dell’IA, ma allo stesso tempo invoca un rapido intervento legislativo atto a colmare una lacuna normativa di non poco conto.

I Giudici USA si attestano, invece, su una posizione più negativa di quella assunta Giudice italiano ed escludono a priori l’applicabilità della tutela del diritto d’autore a un’opera creata dall’IA, anche se con l’intervento umano.

Per il Copyright Office questo tipo di opere non sono meritevoli di tutela in quanto è del tutto assente l’elemento umano. Ciò significa che il copyright non può estendersi, né agli algoritmi, né ad altre forme di intelligenza differenti da quella umana. Con riferimento a quest’ultimo punto gli USA avevano già negato in passato la tutela del diritto d’autore a Naruto, un macaco che si era inavvertitamente scattato un selfie mentre stava giocando con una macchina fotografica, adducendo che la tutela del copyright potesse essere applicata solo agli esseri umani.

Sulla scia del ricordato orientamento, nel febbraio del 2023, l’Ufficio federale per il copyright statunitense ha negato la tutela del diritto d’autore ad un fumetto denominato "Zarya dell’alba" disegnato sulla piattaforma Midjourney da algoritmi.

Tutto ha inizio nel momento in cui una donna, dopo aver realizzato un fumetto attraverso la piattaforma Midjourney, ha chiesto di essere riconosciuta come legittima autrice delle tavole fumettistiche adducendo di aver svolto una serie di attività atte alla realizzazione dell’opera tra cui aver scritto il testo che ha ispirato la piattaforma Midjourney nella creazione del fumetto, aver aggiornato spesso il testo e impartito le istruzioni alla piattaforma affinché apportasse le modifiche ed i miglioramenti richiesti, aver impaginato il fumetto dotandolo di originalità e carattere creativo, aver corretto le tavole con Photoshop e aver perfezionato l’opera a suon di migliorie.

Tutte queste attività, però, non sono servite alla donna ad evitare il rifiuto di tutela da parte del Copyright Office; rifiuto che è avvenuto malgrado le strisce del fumetto abbiano preso forma attraverso la regia di un essere umano.

Secondo l’ufficio statunitense un fumetto generato da algoritmi non può, essere tutelato dal diritto d’autore, al pari di quanto avviene, invece, per le creazioni dell’uomo, poiché il vero artefice delle tavole resta il Midjourney, ossia una piattaforma digitale creata con l’IA, che, invece, relega e marginalizza il ruolo dell’essere umano a quello di mero ispiratore del lavoro.

Da ciò discende che poiché in simile evenienza l’essere umano, non può essere ritenuto l’autore dell’opera, lo stesso, di conseguenza, non ha titolo alcuno per potere rivendicare una protezione di legge.

Sulla base di tale ragionamento l’Ufficio per il Copyright ha, invece, riconosciuto alla donna autrice materiale del testo del fumetto inserito in Midjourney, i diritti d’autore che la stessa rivendica perché frutti del lavoro creativo e dell’ideazione umana.  

Viceversa, il Copyright Office non ha riconosciuto la donna quale “mente creativa” ed artefice diretta del fumetto, in quanto l’intelligenza artificiale che l’essere umano utilizza non è in grado di comprendere la grammatica o la struttura sintattica delle frasi dettatele e di conseguenza non può seguire alla lettera le istruzioni che gli esseri umani le impartiscono.

L’IA produce infatti risultati imprevedibili che molto spesso devono essere corretti attraverso percorsi decisionali non del tutto chiari.

La decisione del Copyright Office determina l’intervento creativo dell’uomo quale elemento essenziale per accedere alla tutela del diritto d’autore, ma nello stesso tempo, mette in rilievo le lacune normative  in materia di intelligenza artificiale anche nell’ambito del diritto USA,.

 

2.3 La piattaforma ChatGPT e la sua affidabilità

Lintelligenza artificiale conversazionale è un tipo di IA basata su tecnologie, come chatbot ed agenti virtuali, con cui gli utenti possono interagire.

Ad oggi sono numerosi i modelli e le piattaforme che consentono alle macchine di comprendere e rispondere agli input del linguaggio naturale umano. Una delle piattaforme più famose è sicuramente ChatGPT (Generative Pretrained Trasformer) che consiste in uno strumento di elaborazione del linguaggio mediante l’utilizzo di algoritmi di apprendimento molto avanzati atti a generare risposte simili a quelle umane all’interno di un discorso.

Questa piattaforma, realizzata da Open-AI, ha l’obiettivo di favorire quanto più è possibile l’interazione uomo macchina e consente agli utenti di svolgere numerose attività quali scrivere articoli, email, poesie, creare post social, correggere errori matematici, programmare e molto altro ancora.

Ad esempio, se impiegata nel settore del servizio clienti di una compagnia telefonica o di un’attività di servizio, la ChatGPT, alleggerisce l’attività degli operatori, rispondendo a problematiche comuni e fornendo risposte rapide ai clienti.

ChatGPT viene inoltre impiegata nelle traduzioni linguistiche, nella creazione di esperienze di apprendimento interattive a livello scolastico, nella conduzione di sondaggi e ricerche di mercato, nelle ricerche in vari settori tra cui quello della giustizia.

Tutti questi usi, però, attualmente non sono regolamentati da una specifica normativa e ciò crea non poche questioni sul piano giuridico.

A queste problematiche si aggiungono ancora quelle relative ai limiti in materia di precisione del sistema di ChatGPT che, ad oggi, per garantire in certo margine di accuratezza nelle risposte, ha bisogno di istruzioni dettagliate da parte dell’utente; direttive che siano basate su fatti concreti, anche se ciò non sempre è sufficiente a garantire la veridicità di una risposta, in quanto i dati forniti a ChatGPT  possono contenere distorsioni che ovviamente si riflettono nelle risposte fornite dalla chatbot.

Tali limiti possono essere particolarmente significativi allorquando afferiscono ad argomenti delicati come razza, genere, politica e giustizia poiché, trattandosi di informazioni rientranti nella sfera dei dati sensibili, generano indiscusse questioni in materia di privacy e di etica.

Un altro aspetto spinoso è che ChatGPT non fornisce risposte neutre, sia perché è influenzata da ogni singola interazione con l’utente, sia perché la stessa non è programmata per non dare risposte.

Ciò determina il rischio che ChatGPT possa fornire agli utenti risposte totalmente false ed inventate che possono avere ripercussioni legali per chi vi si affida, come è avvenuto di recente ad un avvocato di New York Steven Schwartz, che ha dovuto rispondere davanti al Tribunale di Manhattan dell’uso di ChatGPT per delle ricerche legate ad un caso che stava trattando.

L’avvocato newyorkese si era infatti affidato a ChatGPT per cercare dei precedenti giudiziari atti ad argomentare un ricorso presentato avanti il Tribunale di Manhattan per conto di un suo cliente, Roberto Mata, nei confronti della compagnia aerea colombiana Avianca.

Il suo assistito era stato ferito a un ginocchio da un carrello delle vivande durante un viaggio da El Salvador a New York.

Steven Schwartz, aveva utilizzato, per contrastare la difesa della Compagnia aerea, ben sette precedenti riguardanti la medesima fattispecie nei quali le Corti avevano dato ragione ai passeggeri, respingendo le obiezioni delle Compagnie aeree.

Il Giudice Kevin Castel, a cui era stato sottoposto il procedimento, non avendo trovato la giurisprudenza citata in atti da Schwartz nelle banche dati giuridiche, aveva chiesto a quest’ultimo gli estremi dei provvedimenti.

L’avvocato, che si era ciecamente affidato a ChatGPT per istruire il caso, ha dunque interrogato di nuovo l’intelligenza artificiale che gli ha fornito le date dei procedimenti, i numeri delle sentenze e i tribunali che si sono pronunciati.

Nonostante questi dati il Giudice Castel non avendo riscontrato la predetta giurisprudenza, ha chiesto a Schwartz di esibire il testo integrale degli atti citati.

L’avvocato ha nuovamente interrogato ChatGPT che “messa alle strette” ha finalmente ammesso di aver inventato tutto e si è scusata per il disturbo arrecato.

Di fronte a questa rivelazione Schwartz non ha potuto fare altro che ammettere di essersi affidato totalmente a ChatGPT, ossia ad una piattaforma che non aveva mai usato in precedenza e che non sapeva fornisse risposte casualmente inventate e del tutto non veritiere perché programmata per dare sempre e comunque una risposta, ancorché errata.

L’essersi affidato in maniera così avventata ad una piattaforma di IA è costato a Schwartz una sanzione che sicuramente andrà a gravare sulla sua reputazione professionale.

L’avvocato newyorkese, probabilmente preso dall’entusiasmo di confrontarsi con un sistema rapido ed innovativo, ha infatti agito senza documentarsi sull’attendibilità di ChatGPT che è un tipo di IA basato su un modello probabilistico che poggia su un meccanismo statistico e su uno sterminato database che comprende tutto ciò che di buono e cattivo, che circola su Internet

Il caso Schwartz, al di là del vuoto normativo che ad oggi esiste nel settore dell’Intelligenza Artificiale, deve far riflettere sul ruolo che hanno le piattaforme come ChatGPT all’interno della società umana, un ruolo che sicuramente non è quello di sostituire l’uomo, ma di essergli d’aiuto.

Ovviamente occorre un intervento immediato del legislatore nella regolamentazione di queste piattaforme, che non possono rimanere esenti da qualsiasi responsabilità nel momento in cui forniscono dati non veritieri combinandoli con informazioni vere come è avvenuto nel caso Schwartz, ove ChatGPT ha indicato Tribunale, Giudici e parti realmente esistenti associandoli a casi completamente inventati.

 

2.4 La giustizia predittiva

Sempre per rimanere nel tema dell’IA applicata al mondo della giustizia occorre evidenziare come alcuni Paesi europei, tra cui la Francia, abbiano sperimentato l’utilizzo della c.d. Giustizia Predittiva, ossia un algoritmo in grado di stimare in ambito civile l’ammontare del danno risarcibile in relazione a cause di carattere commerciale o inerenti alla proprietà intellettuale.

Anche l’Italia non è stata da meno e ha avviato alcuni progetti di IA in tal senso. Il primo progetto è stato promosso dalla Corte di Appello e dal Tribunale di Brescia, in collaborazione con l’Università degli Studi di Brescia e ha per oggetto il Diritto del lavoro ed il Diritto delle imprese, il cui scopo è quello di fornire agli utenti dati di certezza e di prevedibilità al fine di disincentivare le cause temerarie, favorire la trasparenza delle decisioni, e facilitare la consultazione della giurisprudenza di primo e secondo grado.

Un altro progetto è stato avviato dalla Corte di Appello di Venezia, in collaborazione con l’Università Ca’ Foscari di Venezia, Unioncamere del Veneto e Società Deloitte e ha per oggetto una raccolta di provvedimenti su licenziamenti per giusta causa, creata al fine di prevedere le possibili decisioni e scoraggiare un contenzioso con scarse prospettive di successo.

Anche il settore tributario non ha voluto essere da meno ed ha sviluppato il proprio progetto, denominato “Prodigit”, finalizzato alla creazione di sistemi basati su algoritmi in grado di analizzare leggi, sentenze e contributi dottrinali per prevedere, con sufficiente grado di probabilità, quale possa essere l’orientamento decisionale di un giudice su una determinata questione giuridica. In poche parole Prodigit può aiutare i contribuenti a capire se vale la pena impugnare una cartella o meno.

Un’apertura nei confronti dell’IA c’è stata anche in diritto amministrativo e si è concretizzata con un provvedimento del Consiglio di Stato, che si è dimostrato favorevole all’utilizzo in giudizio di un sistema IA a condizione, però, che il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) sia conoscibile e, conseguentemente, sindacabile dal giudice.

Il settore più problematico e controverso del diritto, nonostante non ci sia un preconcetto atteggiamento di chiusura all’utilizzo dell’IA rimane il ramo penale.

Ciò perché, se da un lato risulta ipotizzabile l’utilizzo dell’IA come strumento di prevenzione della criminalità, dall’altro l’applicazione di un algoritmo alla c.d. giustizia predittiva reca con sé problematiche di non poco conto.

Difatti, mentre risulta pacifico ricorrere all’IA, nella fase delle indagini preliminari, come mezzo di ricerca della prova (basti pensare ai trojan utilizzati per le intercettazioni), oppure far ricorso a sistemi di IA al fine di prevenire il possibile verificarsi di furti e rapine in determinati quartieri, non è altrettanto pacifico lasciare agire liberamente l’IA nelle fasi decisorie di un processo, eliminando qualsiasi elemento umano.

La Commissione Europea per l’Efficacia della Giustizia (CEPEJ) del Consiglio d’Europa, nel 2018, ha emanato la Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e nei relativi ambienti che individua i principi a cui dovranno attenersi i soggetti pubblici e privati responsabili del progetto e dello sviluppo degli strumenti e dei servizi della IA. Si tratta, in buona sostanza dei principi di “rispetto dei diritti fondamentali”, di “non discriminazione”, di “qualità e sicurezza”, di “trasparenza” e di “garanzia dell’intervento umano”.

 In particolare l’ultimo principio pone un freno all’uso dell’IA, che non può essere adoperata come sostituto di un Giudice fisico..

Sempre la Commissione Europea per le libertà civili, la giustizia e gli affari interni nel 2021 ha formulato una proposta di risoluzione del Parlamento Europeo e del Consiglio finalizzata a stabilire regole armonizzate sull’intelligenza artificiale nel diritto penale e sul suo utilizzo da parte delle autorità di polizia e giudiziarie in cui si raccomanda che, nell’utilizzare i sistemi di IA, gli Stati membri rispettino i diritti sanciti dalla Carta dei diritti fondamentali dell’Unione Europea.

Questo atteggiamento dell’UE denota un’apertura nei confronti dell’IA che però deve sottostare a regole ferree in quanto il confine tra un utilizzo lecito e illecito di questi sistemi è molto sottile.

Contrariamente all’UE, gli USA si sono dimostrati più aperti alla sperimentazione dell’IA nel campo della giustizia tant’è che nel 2016 un Tribunale statunitense (Wisconsin) ha inflitto ad un imputato una condanna basata sul responso di un algoritmo.

Il caso Loomis, poi, ha fatto sicuramente scalpore in quanto per la prima volta in assoluto un crimine è stato oggetto di valutazione da parte di un algoritmo, denominato COMPAS, il cui compito è stato quello di valutare il rischio di recidiva nella commissione di reati da parte dell’imputato.

Loomis era un pregiudicato afro-americano, che era stato arrestato dopo un tentativo di fuga alla guida di un’automobile precedentemente coinvolta in un conflitto a fuoco. Il pregiudicato era altresì stato trovato in possesso di armi.

Il suo caso fu sottoposto a un giudice del Wisconsin, che lo condannò alla pena di sei anni di reclusione, basandosi sul responso del sistema di IA COMPAS che – predittivamente – lo aveva definito come soggetto “ad alto rischio di violenza”.

L’algoritmo COMPAS nel condannare Loomis aveva agito valutando il rischio di recidiva dell’imputato.

Tale valutazione è avvenuta tramite la sottoposizione dell’imputato ad un formulario di ben 137 domande riguardanti età, grado di istruzione, lavoro, vita sociale, uso di droghe ed opinioni personali alle cui risposte viene attribuito un punteggio di pericolosità da 1 a 10.

L’imputato, a seguito della condanna e della pena inflitta, aveva impugnato la decisione sostenendo che COMPAS non fosse in grado di prevedere il rischio di recidiva individuale, poiché basava la sua previsione sulla comparazione delle informazioni ottenute dal singolo con quelle relative ad un gruppo di soggetti con caratteristiche simili e che pertanto non potesse essere preciso.

La Corte Suprema, nonostante le obiezioni dell’imputato, ha respinto il ricorso confermando la legittimità della valutazione di COMPAS ed affermando che la sentenza non sarebbe stata diversa se a decidere fosse stato soltanto il giudice.

Al di là di quello che è successo al signor Loomis, affidare completamente ad una macchina una decisione in chiave predittiva va contro ogni principio etico.

Sul punto l’UE è molto ferma, difatti l’art 22 comma 2 del GDPR Reg UE 679/216 stabilisce che “l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”.

Ciò significa che un soggetto non può essere alla mercé di un sistema di IA.

 Inoltre, anche il nostro codice di rito non ammette perizie atte a stabilire il carattere o la personalità dell’imputato (art. 220, comma 2, c.p.p.). Pertanto sarebbe ben difficile per un giudice italiano di avvalersi di un sistema di IA per stabilire se vi sia o meno il rischio di recidiva di un imputato. 

Un altro aspetto che, però, rimane ancora uno dei temi di discussione è se un sistema IA può arrivare a prevedere l’esito di un processo.

Il nostro Codice di procedura penale stabilisce che pubblico ministero e giudice debbano effettuare una valutazione prognostica in ordine alla possibilità di una futura condanna sulla base degli elementi di prova acquisiti. Ciò è desumibile dalla locuzione ragionevole previsione di condanna in relazione alla richiesta di archiviazione del pubblico ministero all’udienza preliminare ed alla nuova udienza predibattimentale

La vera quaestio è però quando una previsione può definirsi effettivamente “ragionevole”. Sul punto la dottrina ci è tornata tantissime volte ed in particolare soffermandosi sul al problema se la valutazione degli elementi di prova acquisiti possa essere effettuata su base statistica (ad esempio, facendo riferimento ad altri casi analoghi e, quindi, a precedenti giurisprudenziali) ovvero secondo criteri di probabilità matematica. Questa seconda ipotesi, in verità,  è stata bocciata perché oggettivamente difficile da perseguire. Ad oggi la via più praticabile è che l’IA potrebbe essere utilizzata solo per questioni di diritto e non di fatto in quanto per esempio non sarebbe in grado di valutare l’attendibilità dei testimoni specialmente ove forniscano versioni contrastanti.

Inoltre, un altro limite dei sistemi di impiego dell’IA, con espresso riferimento alla fase decisionale di analisi, è quello di non cogliere le sfaccettature che ruotano attorno alla commissione di un atto criminoso come fatto umano costituito da passioni e sentimenti. Quest’aspetto non può assolutamente essere ignorato, in quanto, se da un lato la macchina potrebbe dare solo un giudizio privo di condizionamenti ideologici che possono interessare la persona del giudice, dall’altro darebbe un giudizio privo di empatia poiché non verrebbero considerati degli elementi soggettivi di primaria importanza. L’intervento dell’IA, infatti, per certi versi farebbe venir meno il principio penalistico di cui all’art 533 c.p.c.  poiché “la previsione normativa della regola di giudizio, al di là di ogni ragionevole dubbio, e che trova fondamento nel principio costituzionale della presunzione di innocenza, si fonda, deve sulla certezza processuale della responsabilità dell’imputato”, verrebbe del tutto bypassata dalla decisione di una macchina. Ma siamo sicura che sia la scelta migliore, dato che è proprio sul dubbio che l’uomo ha raggiunto nei secoli risultati eccelsi? Ai posteri l’ardua sentenza.

 

3.Conclusioni

L’IA senza ombra di dubbio rappresenta il futuro, un futuro che però deve essere pienamente tutelato sul piano strettamente giuridico, atteso che in considerazione di quanto osservato nei paragrafi precedenti, siffatta tipologia tecnologica coinvolge, senza se e senza ma, diritti di primaria importanza e solleva problematiche ermeneutiche di non poco conto.

Ciò che appare auspicabile è un articolato intervento di normazione su larga scala atto ad armonizzare la normativa de qua sia a livello interno oltre che anche a livello europeo e mondiale.  

Questi step si appalesano oggettivamente fondamentali anche in considerazione del fatto inoppugnabile che l’IA si muove oltre i confini territoriali ed anche ad una certa velocità. Ci si augura dunque che vengano colmate il prima possibile quelle lacune normative che rischiano di mettere in secondo piano la tutela dell’uomo che, comunque, non può e  non deve essere scavalcata da alcuna tecnologia di nuova generazione.

 

Avv. Valeria M. Affer                                                                                       Avv. Duilia Delfino