Il ruolo dell’intelligenza artificiale nell’evoluzione della professione forense
Si propone inizialmente l’analisi del percorso che ha portato alla nascita della tecnologia e come questa abbia influenzato e definito la vita delle persone, viene poi approfondito come l’avvento dell’Intelligenza Artificiale abbia modificato la professione forense, in particolare di come l’utilizzo sempre maggiore dei sistemi e dei programmi informatici abbia permesso di velocizzare alcuni dei compiti più ripetitivi. Le applicazioni e i software si sono rivelati un supporto importante non solo per le coppie separate o in via di separazione, le quali volevano continuare a definirsi come coppia genitoriale, ma anche per la conduzione da parte degli organi investigativi delle indagini.
Oggigiorno l’Intelligenza Artificiale (AI) sta divenendo un fattore di cambiamento sempre più importante, andando ad influenzare in particolare il modo in cui lavoriamo, ci interfacciamo con le altre persone e prendiamo decisioni. Infatti, come Balkin afferma, viviamo già in una società algoritmica (Cit. in Contissa, Lasagni, Sartor, 2019, p. 1), una società organizzata intorno al processo decisionale automatizzato.
Nascita e sviluppo dell’AI
L’Intelligenza Artificiale per come la conosciamo oggi si è sviluppata a partire dagli studi di Alan Turing, il quale lavorò nel centro di Bletchley Park per decodificare le comunicazioni tedesche durante la II Guerra Mondiale.
Il matematico pubblicò un articolo intitolato “Computing machinery and intelligence” nel 1950 sulla rivista Mind proponendo il Test Turing come strumento per determinare la differenza tra un’operazione svolta da una persona e una macchina attraverso delle domande valutando la capacità della macchina di avere un comportamento intelligente, umano.
Il termine Intelligenza Artificiale, coniato da John McCarthy, è stato associato per la prima volta ai computer negli anni ’50 definendo la crescita parallela tra questi e AI. A seguito dell’interesse sviluppato dalla tecnologia nacquero diversi approcci, tra cui la logica matematica e le reti neurali. Il deep learning, caratterizzato dall’uso di reti neurali artificiali (ANN) che consentono al computer di categorizzare le informazioni in modo simile al cervello umano, è una forma di apprendimento automatico profondo che mira a risolvere problemi complessi.
L’adozione di un’innovazione tecnologica è il punto di arrivo di un processo che porta l’individuo a fare propria una particolare tecnologia. Questo processo è basato su quattro fasi:
la consapevolezza, il soggetto prende atto dell’innovazione;
l’interesse, in cui il soggetto si appassiona all’idea e cerca informazioni aggiuntive su di essa;
la valutazione, la quale consiste nel prefigurarsi uno scenario d’uso per spiegarne le opportunità che verranno completamente comprese poi nella fase di prova;
l’adozione, fase nella quale il soggetto diventa consapevole dei benefici apportati dalla tecnologia e da ciò decide di continuare ad utilizzarla.
Questa evoluzione, come tutte quelle che concernono le nuove tecnologie, viene accolta da taluno come un’opportunità sociale, da talaltro come un pericolo.
Con il concetto di neofobia si indica la paura di ciò che è nuovo, un sentimento di profonda avversione verso la novità che potrebbe portare a un cambiamento rispetto a situazioni e costumi precedenti. Agli anni ’20 risale lo scetticismo nei confronti delle automobili, le quali inizialmente venivano considerate come una risposta miracolosa ai problemi dei veicoli trainati dai cavalli, mentre negli anni ’70 lo scoraggiamento nei confronti della tecnologia nasceva dalle preoccupazioni per la sovrappopolazione, per i danni all’ambiente e per la prospettiva di un olocausto nucleare. La delusione provata spesso deriva da speranze non realizzate e da conseguenze non previste, qui gli svantaggi sembravano essere maggiori dei vantaggi e ciò che può accadere è un diffuso senso di “tecno-pessimismo”.
Nel tempo, nonostante i possibili benefici che l’utilizzo delle nuove tecnologie potevano apportare, si manifestarono incomprensione e scetticismo per diverse innovazioni, tra cui la televisione, in questo caso specifico il dirigente della 20th Century Fox, Darryl Zanuck, affermò “la televisione non durerà, perché le persone si stancheranno presto di passare le serate a fissare una scatola di legno”.
La lampadina fu un’altra innovazione che venne considerata una trovata “inutile”, come il telefono, il quale venne definito come troppo difettoso per essere considerato uno strumento di comunicazione e come anche il personal computer, il quale secondo i giornali aveva creato soprattutto nelle donne la “computerfobia”.
Come avvenne con gli inventori di Google, i quali inizialmente cercarono di sviluppare un progetto per permettere di ordinare la pizza su internet, l’innovatore non è mai completamente consapevole di ciò che andrà a creare e di come l’invenzione modificherà le vite delle persone, così anche il cinema, nato inizialmente come strumento di documentazione e non di intrattenimento e il social network Facebook, inizialmente lo stesso Mark Zuckerberg non immaginava le potenzialità del progetto sviluppato insieme ad alcuni compagni di stanza dell’Harvard University.
Una riflessione importante da fare è sui cambiamenti che sono avvenuti nel modo in cui le persone percepiscono oggi la tecnologia (Fasano, 2016). Con il termine “pulsantizzazione delle emozioni” si definisce l’idea che a ogni emozione sia associato un pulsante o un simbolo che permetta di descrivere meglio ciò che stiamo provando (Bucchi, 2018).
L’Intelligenza Artificiale oggi
Oggi l’AI può essere definita come la volontà di creare una macchina capace di svolgere azioni per le quali generalmente si richiede l’intelligenza dell’uomo (Kurzwell, 1990. Russell, Norving, 2016). Essa risulta composta da tre importanti funzioni:
incameramento dei dati,
elaborazione e memorizzazione degli stessi e
autonoma capacità di apprendimento.
Possiamo inoltre distinguere l’Intelligenza Artificiale debole da quella forte: la prima è in grado di simulare alcune funzionalità cognitive dell’uomo senza raggiungerne le capacità intellettuali tipiche, la seconda è caratterizzata da sistemi in grado di diventare sapienti o addirittura coscienti di sé.
Certamente gli avanzamenti nelle neuroscienze creeranno una maggiore “finezza” nell’intelligenza artificiale a partire dalle tre leggi della robotica “1. Un robot non può recar danno a un essere umano, né permettere che, a causa della propria negligenza, un essere umano patisca danno. 2. Un robot deve sempre obbedire agli ordini degli esseri umani, a meno che contrastino con la Prima Legge. 3. Un robot deve proteggere la propria esistenza, purché questo non contrasti con la Prima o la Seconda Legge. Manuale di robotica 56α Edizione, 2058 d.C.” (Asimov, 1950.).
La Commissione Europea si riferisce a questo tipo di intelligenza in modo ancor più stringente, definendola come un software capace di simulare un complesso ragionamento e/o che sia in grado di imparare (Berti, Zumerle, 2019).
Lo storico Harari sottolinea come l’intelligenza artificiale sia caratterizzata dalle capacità di connettività e di aggiornamento, richieste impossibili per gli esseri umani, ma non per le macchine, le quali sono facili da integrare in una sola rete flessibile, diventa quindi più semplice pensare che le persone vengano rimpiazzate da una rete integrata e non da singoli software (Harrari, 2019).
L’evoluzione tecnologica è “controllata” dalle leggi del diritto d’autore, dalla brevettabilità dei software e dalla tipologia di trattamento dei dati personali e dal diritto alla privacy.
I software e le applicazioni per smartphone fanno largo uso dei servizi di chatbot o chatterbot, termine che definisce un programma progettato per permettere agli utenti di simulare una conversazione con un essere umano. L’operatività di questi sistemi è definita dalla capacità di machine learning, ossia di analizzare nozioni inferendo informazioni che permettano alla macchina di apprendere ed evolvere.
L’utilizzo dell’Intelligenza Artificiale in ambito legale permette di usufruire di software capaci di seguire Step-by-Step il cliente e di stampare un report che evidenzierà le azioni necessarie da parte dell’avvocato, così da velocizzare il flusso di operazioni interne allo studio legale, permettendo inoltre al cliente di ottenere feedback immediati in caso di autonomia del chatbot.
Siamo, come dice Guido Alpa nella prefazione al libro di Ruffolo (2020), “di fronte a una vicenda epocale […] Qui siamo di fronte a vicende che cambiano il modo di pensare, di vivere, di vedere le cose, non solo di lavorare, e che consentono di fare ciò che prima si riteneva impossibile realizzare con le capacità umane”.
Come si può vedere dalle modifiche apportate dalle numerose invenzioni, la tecnologia definisce una rottura nei confronti del tradizionale, “si rompe il confine tra biologia e tecnologia, tra naturale ed artificiale, tra terapia e potenziamento, tra reale e digitale/virtuale” (Ruffolo, 2020).
Differentemente dall’Italia, in USA l’uso delle piattaforme web a supporto degli studi legali è comune. Un’applicazione molto conosciuta è Super Lawyers, la quale permette di accedere a una pagina contenente i nominativi di avvocati e studi legali differenziati per area geografica e di specializzazione; inoltre, l’applicazione offre una sezione interattiva a pagamento in cui gli utenti possono ricevere tempestiva risposta a questioni legali da avvocati appositamente selezionati.
Alcuni esempi di software utilizzati in ambito forense
Nel 2017 lo studio Toffoleto De Luca Tamajo e Soci utilizzava un software gestionale in condivisione con NCTM, l’app si utilizza per segnalare ai clienti le informazioni e gli aggiornamenti, mentre la Law Maps permette di confrontare diverse discipline giuridiche, al suo interno si possono analizzare differenti mappe disponibili (retribuzione, contribuzione e non concorrenza) e in ciascuna è possibile confrontare le informazioni per i diversi stati del mondo.
La IBM nel 2012 iniziò a sviluppare il Project Debater, il primo sistema di intelligenza artificiale capace di dibattere su argomenti complessi con un soggetto umano; questo software è in grado di leggere testi voluminosi, costruire un discorso strutturato su un determinato argomento e accompagnare le persone nel ragionamento fornendo argomenti convincenti basati sull’evidenza e limitando l’influenza di emozioni, pregiudizi e ambiguità.
Questo progetto si basa su tre capacità pioneristiche la cui combinazione consente alla macchina di portare avanti un dibattito:
la scrittura e la consegna di discorsi basati sui dati,
la comprensione dell’ascolto e, infine,
la modellazione dei dilemmi umani.
L’AI si sta muovendo nella direzione di facilitare il dibattito intelligente così da poter costruire argomenti ben informati e prendere le decisioni migliori.
La stessa azienda nel 2016 lanciò il primo robot togato, Ross, il quale fu “assunto” dallo studio legale Baker & Hostetler per occuparsi di diritto fallimentare svolgendo da solo il lavoro di 50 avvocati; nello specifico è stato impiegato nella divisione bancarotta e fallimenti per analizzare i documenti della frode finanziaria messa in atto da Bernie Madoff.
L’obiettivo degli avvocati, per Toffoletto (Morelli, 2017), è quello di imparare a saper investire sulla tecnologia sofisticata.
Nell’ambito dell’intelligenza artificiale non è presente un pensiero unanime sulla possibilità di riduzione o aumento di nuovi posti di lavoro, nello specifico Manpower ha stimato che la digitalizzazione potrebbe creare in Italia tra il 31 e il 40% di nuovi posti di lavoro. Anche Giulio Coraggio afferma che “Al momento gli ostacoli sono culturali, di difesa conservativa, più che tecnologici. Anche se in prospettiva scomparirà l’impiego routinario, non la funzione dell’avvocato, che dovrà anzi allargare il campo delle proprie competenze” (Coraggio, 2019, p. 2).
La multinazionale J.P.Morgan mostra un interessante esempio di Intelligenza Artificiale chiamato COIN (Contract Intelligence), un robot che va a sostituire il lavoro di molti avvocati della società per un totale di 360 mila ore di lavoro l’anno; si tratta di un sistema basato sulla tecnologia della machine learning ed è quindi capace di comprendere accordi commerciali in pochi secondi.
Le applicazioni in fase di separazione e divorzio
Altri esempi di AI sono le applicazioni che, oltre a supportare il lavoro dell’avvocato, aiutano le coppie separate o in fase di separazione; tra questi sistemi troviamo come esempi di particolare interessa tre software, sviluppati in Australia e denominati Amica, Penda e Adieu.
Il primo mette a disposizione delle coppie informazioni gratuite relative alla separazione e le guida nel processo; il secondo è stato lanciato con l’intento di rompere il ciclo della violenza domestica e familiare attraverso la combinazione di informazioni finanziarie, di sicurezza personale e legali con rinvio a livello nazionale; il terzo è un servizio che aiuta le famiglie in via di separazione a trovare il percorso più idoneo anche a livello finanziario.
Anche in Italia è stata sviluppata con il nome di Anthea la prima applicazione utilizzata per facilitare la gestione della conflittualità genitoriale post separazione, che permette alle famiglie di interagire con i servizi sociali attivati dal tribunale anche per fornire loro in tempo reale informazioni sull’andamento della gestione familiare e di coppia.
Nel 2017 presso il Tribunale di Modena, per la prima volta, una coppia di genitori ha concordato sull’utilizzo del Progetto Anthea per la risoluzione della loro separazione consensuale, trattandosi di una piattaforma che esalta la lealtà genitoriale puntando sul mantenimento dell’integrità del concetto di coppia genitoriale (Art. 706 - bis c.p.c “Fase stragiudiziale di separazione e patto di lealtà genitoriale”; Art. 710 c.p.c. – “Uso degli strumenti di telecomunicazione e di strumenti alternativi a sostegno della gestione del conflitto e della lealtà genitoriale”; Art. 7 – “Registro della Bi-genitorialità”).
Nel dibattito attorno all’impatto che l’AI avrà sul mondo del lavoro trova spesso consensi l’idea che questa andrà a sostituire alcune professioni, tra cui quella dell’avvocato, grazie al continuo accesso ai big data che rendere il lavoro di questi sistemi particolarmente competitivo. A tal riguardo è importante sottolineare come il lavoro svolto dall’AI non andrà a sostituire completamente quello umano ma permetterà di ridurre i compiti ripetitivi definendo nuovi ruoli più creativi e gratificanti.
Sebbene già da tempo negli studi legali siano presenti programmi per calcolare la misura del risarcimento in presenza di lesioni invalidanti e sistemi per confrontare la giurisprudenza a disposizione, solo negli ultimi tempi è stato introdotto il termine Legal AI per definire il lavoro delle piattaforme di AI utilizzate in ambito legale in tutte le sue parti, dall’aiuto nella redazione degli atti, fino alla sostituzione del giudice per la decisione.
A tal proposito una prima criticità riscontrata riguardo l’utilizzo della Legal AI ed in particolare di software predittivi è che a questa sottenda una “black box decision”, cioè una decisione priva di motivazione (Contissa, Lasagni, Sartor, 2019); per evitare ciò si sta cercando di ridurre l’utilizzo di report relativi al solo lavoro svolto dai software e si è ipotizzato di definirli come indizi, i quali hanno bisogno di essere corroborati con altri elementi di prova, oppure utilizzati come strumento di double check.
Nuove modalità di utilizzo dell’AI: previsioni, investigazioni e processi decisionali circa il comportamento
La tecnologia si sta inserendo anche nel mondo forense, definendo l’idea di “giustizia predittiva”, nel campo del processo penale si sta facendo spazio lo scenario nel quale si potrebbe arrivare ad un affiancamento, se non sostituzione, del giudice con una macchina. Grazie alla capacità di machine learning questi software promettono la modernizzazione e il miglioramento dell’efficienza del sistema di giustizia penale. In questo caso l’ordinamento statunitense permette un osservatorio privilegiato, lì l’utilizzo di strumenti automated decision systems è raccomandato.
Oltre ai software e alle applicazioni precedentemente citati, alcune start up hanno sviluppato programmi capaci di prevedere l’esito di un processo con un margine di esattezza dell’80% (Ferrari, 2018). Il lavoro svolto dal programma può essere utilizzato in diversi campi a seconda dei dati introdotti nel sistema e può per esempio prevedere la pericolosità del soggetto e la sua capacità futura di delinquere, può interpretare una legge e individuare gli orientamenti giurisprudenziali su specifiche tematiche e può prevedere l’esito di un contenzioso. (Gulotta, 2019)
Per prevenire la commissione di reati si sta facendo sempre più uso degli algoritmi. L’aspetto della prevenzione dei reati, come riporta Paola Severino, è un campo che in Italia è stato poco indagato a differenza della letteratura presente all’interno del panorama angloamericano. I software possono essere utilizzati per l’analisi e la valutazione ex post dei dati aziendali identificando le aree più a rischio di reato sulle quali intervenire. Nonostante i vantaggi, sono presenti anche svantaggi, tra cui l’adottare un software che, essendo prodotto da altri, non va ad indagare le vere carenze che possono caratterizzare l’ente (Severino, 2020).
Nell’ambito dei predictive policing la predizione può individuare luoghi sospetti (crime hotspot) se basato sul placed-based-system o elaborare profili criminali individuali di persone a rischio (predictive composite) se basato sul person-based-system (Manes, 2020, p. 552).
Tra i diversi software impiegati dalla “polizia predittiva” per contrastare o prevenire la commissione di reati, possiamo citare come esempio il programma Keycrime, utilizzato in caso di condotte seriali come rapine, truffe e violenze, il programma XLAW, utilizzato dalla Polizia di Napoli ed applicato in diverse regioni per prevedere furti e rapine, ed il programma PredPol definito dalla UCLA, il quale si mostra come un software capace di formulare previsioni a partire da tre classi di dati: tipo di reato, luogo del reato e data/ora di commissione.
I vantaggi apportati dall’utilizzo di questi sistemi sono una migliore gestione del know how delle forze dell’ordine in un’area geografica specifica e un miglioramento nelle performance investigative attraverso una allocazione più efficiente delle risorse. Ciononostante, si può comprendere come questa attività di monitoraggio possa scontrarsi con alcuni dei diritti fondamentali dell’individuo e andare in contro a bias per l’appartenenza del soggetto a contesti sociali ritenuti “a rischio”. Nel caso dell’utilizzo da parte della macchina di pregiudizi, non è facile trovarvi rimedio visto che i software appartengono ad aziende private, che per il trade secret non ne rivelano il funzionamento, ma anche perché data la loro capacità di machine learning i sistemi si “auto-alimentano con i dati prodotti dal loro stesso utilizzo, col rischio di innescare circoli viziosi” (Basile, 2019)
Nel caso specifico dell’ambito investigativo, l’AI permette di mappare il rischio criminale e provvedere alla razionale allocazione delle risorse. Gli strumenti di supporto per gli investigatori nell’analisi della scena del crimine o nelle situazioni di analisi delle scienze forensi vengono utilizzati come supporto nelle attività quotidiane minimizzando la contaminazione, la perdita di informazioni e l’errore nel bias cognitivo. Questi permettono l’analisi del DNA, il video and image analysis, la gunshot detection, e il cybercrime detection. Per supportare le indagini sulla scena del crimine, gli agenti posso fare uso di visori, come il Microsoft Hololens, il quale permette, attraverso la realtà mista, la visione di ologrammi. Nel caso dell’analisi della scena del crimine attraverso lo spatial mapping e il puntatore gaze si ha la possibilità di interagire con gli ologrammi, i marcatori diventano virtuali con la possibilità di contenere file multimediali, come anche la sagoma di gesso e tutto viene salvato.
Il processo decisionale, grazie all’intelligenza artificiale e ai big data, sta diventando sempre più automatizzato, i software possono essere impiegati per risolvere vertenze penali, divenendo una figura di sostituzione o affiancamento del giudice-uomo e valutare la pericolosità di un soggetto. Ciò può risultare utile per la presa di decisioni sia nel campo pubblico, che nel privato, ma comporta anche la nascita di nuovi rischi.
Alcuni studiosi hanno evidenziato le possibilità di errore e discriminazione poste dalle decisioni algoritmiche: in alcuni casi le scelte proposte si mostravano esplicitamente discriminatorie (discriminazione diretta) perché utilizzavano alla base della disposizione predittori come razza, etnia o genere, in altri casi si evidenziava una discriminazione indiretta attraverso la considerazione dell’appartenenza del soggetto a particolari gruppi, senza però una giustificazione accettabile.
Come anche sottolineato nella conferenza tenuta su “L’uso degli algoritmi nelle sentenze: verso una giustizia informatica?” (Gulotta, 2019) risulta importante evidenziare una sentenza della Corte Suprema del Wisconsin, la quale è intervenuta sulla decisione di un tribunale di utilizzare i risultati elaborati dal programma COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), strumento di risk assessment che attraverso le informazioni fornite da un questionario di 137 domande valuta il rischio di recidiva.
La difesa sottolineava come l’utilizzo dello strumento nel giudizio di determinazione della pena violasse il diritto all’equo processo sotto tre profili: il diritto di essere condannato sulla base di informazioni accurate, il diritto ad essere condannato a una pena individualizzata e l’uso improprio del dato di genere nella determinazione della pena. La Corte Suprema ha affermato che nonostante il software possa essere utilizzato per determinare la pena è necessario servirsene con cautela.
Un altro programma utilizzato nel New Jersey è il software SAVRY (Structured Assessment of Violence Risk in Youth), il quale ha sostituito le udienze per la concessione della libertà su cauzione su ragazzi tra i 12 e i 18 anni con valutazioni di rischio definite da algoritmi. Lo strumento, composto da 24 item suddivisi in aree (storiche, sociali e individuali) considera i fattori di rischio tipici dell’età evolutiva associati normalmente alla violenza interpersonale ed enfatizza la natura del rischio dal punto di vista dinamico e socio-contestuale. La versione italiana ha reso lo strumento anche quantitativo: è stato pensato nello specifico per finalità di screening di adolescenti con condotte a rischio.
Analogamente, nel libro “Il dilemma dello sconosciuto” viene presentato uno studio condotto da un economista di Harvard (Sendhil Mullainathan), tre informatici e un esperto di cauzioni della University of Chicago, i quali raccolsero a New York gli atti processuali di 554.689 imputati chiamati in giudizio penale dal 2008 al 2013; dalle osservazioni emerse che i giudici hanno rilasciato poco più di 400.000 persone (Kleinberg, 2018).
L’economista decise quindi di progettare un sistema di intelligenza artificiale in cui poter inserire le stesse informazioni che l’accusa aveva fornito ai magistrati, dall’analisi emerse una selezione differente, secondo la macchina le persone non dovevano essere assolutamente rilasciate prima dell’udienza, “Molti imputati contrassegnati dall’algoritmo come soggetti “ad alto rischio” vengono trattati dai giudici come se fossero a basso rischio” affermò il gruppo di Mullainathan, quindi come riferiscono i ricercatori, le decisioni dei giudici sulla libertà su cauzione “sono sballate”.
La possibilità che ha l’uomo, a differenza della macchina, di poter vedere l’imputato non sempre si mostra utile.
Malcolm Gladwell: Se non avesse visto l’imputato, sarebbe cambiato qualcosa?
Solomon: Se penso che sarebbe stato meglio?
Malcolm Gladwell: Pensa che sarebbe stato meglio?
Solomon: Una parte di me crede che sarebbe stato meglio, perché a quel punto l’ardua decisione di mettere qualcuno in galera sarebbe sembrata meno ardua. Ma non è giusto. […] Se un essere umano viene arrestato dallo stato, lo stato deve spiegare perché sta privando quell’essere umano della libertà. Giusto? In caso contrario, per me non si tratta più di esseri umani, ma di componenti informatici.
(Gladwell, 2020, p. 153).
Un nuovo e futuro prodotto del settore legale potrebbe essere LegalTech, un tipo di software a disposizione degli avvocati per supportarli nelle loro attività, nello specifico nelle azioni in giudizio, mentre i software CorpTech permetteranno di agevolare l’adozione di decisioni in situazioni complesse, è poi scelta dell’avvocato se seguire o no il “consiglio” dell’algoritmo.
Il possibile futuro dell’AI
Data la già grande capacità dei programmi alcuni studiosi si sono lanciati in previsioni, tra questi troviamo Hawking, il quale afferma che “nell’arco dei prossimi cento anni, l’intelligenza dei computer supererà quella degli esseri umani”, idea confermata da un’analoga previsione contenuta nei Considerado della Risoluzione del Parlamento europeo sulla robotica datato 16 febbraio 2017 nel quale si evidenzia che “è possibile che a lungo termine l’intelligenza artificiale superi la capacità intellettuale umana”.
Per i motivi sopra evidenziati risulta importante che l’ordinamento penale inizi ad aprirsi ad un nuovo scenario, la possibilità che le macchine o “persone senz’anima” possano causare un evento di danno o pericolo, colposo o “doloso”.
Da ultimo risulta importante fare riferimento alla “Carta etica europea sull’uso dell’intelligenza artificiale (AI) nei sistemi giudiziari e in ambiti connessi” elaborata nel 2018 dalla Commissione europea per l’efficienza della giustizia del Consiglio d’Europa che ha definito due possibili cambiamenti nella professione forense a cui l’introduzione dell’AI potrebbe portare: la possibilità che l’utilizzo dell’Intelligenza Artificiale conduca l’uomo a delegare alla macchina (machine learning) decisioni automatiche, o una modifica del ruolo del giurista che diventerà sempre più automatizzato (Ruffolo, 2019).
Si può quindi concludere affermando che la tecnologia dovrebbe puntare a migliorare l’efficienza rispettando i diritti dell’uomo e della non discriminazione, sottolineando l’importanza del “principio di trasparenza delle metodologie e delle tecniche utilizzate nel trattamento delle decisioni giudiziarie”, nello specifico “l’accessibilità e la necessità di comprensione delle tecniche di trattamento dei dati, nonché sulla possibilità per le autorità o gli esperti di effettuare audit esterni” (Ruffolo, 2020).