x

x

Intelligenza artificiale: giudici-robot versus giudici-umani

Intelligenza artificiale
Intelligenza artificiale

La quarta rivoluzione industriale sta amalgamando le dottrine tra il mondo digitale e quello fisico: la tecnologia legale rappresenta l’ultimo esempio di come il miglioramento dell’automazione stia raggiungendo sempre più le professioni orientate ai servizi.

Casetext, ad esempio, è una start-up americana di tecnologia legale che fornisce servizi di ricerca delle fonti basate sull’intelligenza artificiale (AI) per avvocati, che ha recentemente ottenuto 12 milioni di dollari in uno dei più grandi fondi di finanziamento del settore, ma la ricerca delle fonti è solo un’area in cui l’IA viene utilizzata per assistere la professione legale.

Altre aree professionali includono la revisione del contratto e la valutazione dei rischi (due diligence), l’analisi, la previsione, la valutazione di prove e la consulenza legale. La tecnologia e il diritto stanno convergendo e, laddove si incontrano, sorgono nuove domande sui ruoli relativi agli agenti artificiali e umani e sulle questioni etiche coinvolte nel passaggio dall’agente umano all’agente software. Sebbene la tecnologia legale si sia in gran parte concentrata sulle attività del foro competente, essa ci sfida a pensare anche alla sua applicazione nella fase decisoria. In particolare, l’IA potrebbe sostituire i giudici umani?

Prima di inoltrarci ad analizzare questa domanda, dovremmo distinguere gli algoritmi dall’intelligenza artificiale. In parole povere, gli algoritmi sono istruzioni autonome e vengono già applicati nel processo decisionale giudiziario. Ad esempio, nel sistema giudiziario amaricano, l’algoritmo di valutazione della pericolosità sociale integra le decisioni prese dai giudici per l’applicazione di una qualsiasi misura di sicurezza utilizzando i dati per determinare il rischio di concedere la libertà vigilata a un imputato. L’idea è di aiutare i giudici ad essere più obiettivi e aumentare il diritto di accesso alla giustizia.

L’IA è più difficile da definire. Le persone spesso lo confondono con l’apprendimento automatico, che consiste nella capacità di una macchina di lavorare con dati e processi, analizzando schemi che le consentono quindi di analizzare nuovi dati senza essere programmata esplicitamente. Tecniche di apprendimento automatico più approfondite possono acquisire enormi quantità di dati, attingendo alle reti neurali per simulare il processo decisionale umano.

L’intelligenza artificiale include l’apprendimento automatico, ma a volte è anche usata per descrivere una futuristica super-intelligenza artificiale che è ben oltre le nostre capacità intellettive.

L’idea dei giudici-robot solleva importanti questioni etiche in merito ai temi dei pregiudizi e dell’autonomia. I programmi di intelligenza artificiale possono incorporare i pregiudizi dei loro programmatori e degli umani con cui interagiscono. Ad esempio, un chatbot Twitter di Microsoft IA di nome Tay è diventato razzista, sessista e antisemita nel giro di sole 24 ore dall’apprendimento interattivo con il pubblico umano. Ma mentre tali programmi possono replicare i pregiudizi umani esistenti, la caratteristica distintiva dell’IA rispetto a un algoritmo è che – mentre “impara” – può comportarsi in modi sorprendenti e non intenzionali. Sradicare i pregiudizi diventa quindi ancora più difficile, anche se non impossibile. Qualsiasi programma di valutazione dell’IA dovrebbe tenere conto ed essere testato per questi pregiudizi.

Dare all’IA poteri decisionali su casi giudiziari solleva anche una questione fondamentale di autonomia. Nel 1976, lo scienziato informatico tedesco-americano Joseph Weizenbaum si oppose alla sostituzione di quegli esseri umani che svolgono funzioni di rispetto e cura e citava specificamente i giudici. Sosteneva che ciò avrebbe minacciato la dignità umana e avrebbe portato all’alienazione e alla svalutazione.

Facendo appello alla razionalità, la contro-argomentazione è che i giudici umani sono già prevenuti e che l’IA può essere utilizzata per migliorare il modo in cui li affrontiamo, riducendo in modo drastico la nostra ignoranza. Eppure i sospetti sui giudici-robot permangono, e sono già abbastanza preoccupanti da indurre l’Unione Europea a promulgare un regolamento, il GDPR, che riconosce “il diritto a non essere soggetto a una decisione basata esclusivamente sul trattamento automatizzato”.

In ogni caso, un giudice-robot potrebbe effettivamente svolgere ciò che i giudici umani affermano di fare?

Se l’IA è in grado di identificare correttamente i modelli nel processo decisionale giudiziario, potrebbe essere meglio utilizzare i precedenti per decidere in termini analogici o per prevedere come trattare i casi. Ad esempio, una intelligenza artificiale giudiziaria sviluppata di recente da scienziati informatici dell’University College di Londra ha attinto a dati estesi da 584 casi dinanzi alla Corte europea dei diritti dell’uomo (CEDU).

Il giudice AI è stato in grado di analizzare la giurisprudenza esistente ed emettere lo stesso verdetto della CEDU nel 79% dei casi e ha riscontrato che le sentenze della CEDU in realtà dipendevano maggiormente da fatti non giuridici correlati a questioni morali. Se l’IA può esaminare il fascicolo e decidere accuratamente i casi sulla base dei fatti, i giudici umani potrebbero essere riservati ai tribunali gerarchicamente superiori in cui è necessario esaminare questioni legali più complesse.

Ma l’IA potrebbe anche essere in grado di esaminare da sé i casi più difficili. Nel caso di giudici positivisti che separano la morale dalla legge, l’interpretazione giuridica potrebbe trasformarsi in un compito algoritmico secondo un qualsiasi metodo formale. Ad esempio, se crediamo che il diritto sia costruito socialmente e seguiamo il pensiero di uno dei più grandi teorici del diritto del Novecento, H.L.A. Hart allora esiste la possibilità di programmare in questo modo sia le regole “primarie” che impongono obblighi sia quelle “secondarie” che conferiscono poteri di qualsiasi sistema giuridico.

Le regole primarie conferiscono diritti e doveri legali, dicendo alle persone, ad esempio, che non possono uccidere o rubare. Le regole secondarie riconoscono, modificano o giudicano queste regole primarie. Ad esempio, l’IA di deep machine learning potrebbe essere in grado di elaborare come riconoscere quelle fonti del diritto che sono rilevanti nel caso concreto, oggetto di decisione.

In alternativa, se pensiamo che i giudici originalisti come il compianto giudice Antonin Scalia abbiano ragione nel dire che la corretta interpretazione della legge è ciò che le persone ragionevoli, vivendo al momento dell’adozione di una fonte del diritto, avrebbero inteso come il suo significato ordinario, allora l’IA potrebbe essere utilizzata per programmare il linguaggio naturale. L’elaborazione del linguaggio naturale consente all’IA di comprendere e analizzare il linguaggio che utilizziamo per comunicare. Nell’era dei software di riconoscimento vocale come Siri, Alexa e Watson, l’elaborazione del linguaggio naturale non potrà che migliorare.

L’IA potrebbe essere in grado di replicare i metodi interpretativi dei giuristi formalisti. Ancora più importante, potrebbe aiutarli a essere e a rimanere coerenti nei loro giudizi. Come scrisse Jeremy Bentham in An Introduction To The Principles of Morals and Legislation, “in linea di principio e in pratica, stando sulla strada giusta o su quella sbagliata, la più rara di tutte le qualità umane rimane la coerenza”. Con la capacità di elaborare molti più dati e variabili nella valutazione del caso di quanto gli esseri umani potrebbero mai fare, un giudice-robot potrebbe essere in grado di affrontare con successo il giudice umano in molti casi.

Le cose si complicano nel caso dei giudici che introducono la moralità nella legge: un compito complicato perché i valori etici e le origini della moralità sono controvertibili. Programmare l’IA per una comprensione pratica e giudicante delle fonti extra-giuridiche in una società umana in evoluzione è un’impresa estremamente complessa. Inoltre, la natura sorprendente e non intenzionale dell’“apprendimento” dell’IA potrebbe portare a una linea di interpretazione differenziata, una sorta di lex artificialis.

Anche così, i giudici-robot potrebbero non risolvere le classiche questioni di validità giuridica tanto quanto sollevare nuove domande sul ruolo degli esseri umani, poiché, se crediamo che l’etica e la moralità nella legge siano importanti, allora necessariamente mentono, o dovrebbero mentire, nel dominio del giudizio umano. In tal caso, l’IA può assistere o sostituire gli esseri umani nei tribunali inferiori, ma i giudici umani dovrebbero mantenere il loro posto come arbitri finali all’apice di qualsiasi sistema legale. In termini pratici, l’IA potrebbe aiutare a esaminare l’intera ampiezza e profondità della legge concretizzando una sorta di “giudice Hercules”, ma alla fine i giudici umani sceglierebbero quella che considerano un’interpretazione eticamente adeguata al sistema giuridico vigente.

Qualsiasi uso possibile dell’IA sugli algoritmi nel processo decisionale legale probabilmente progredirà verso l’alto attraverso la gerarchia giudiziaria. Organismi di ricerca come l’Associazione internazionale per l’intelligenza artificiale e il diritto (IAAIL) stanno già esplorando l’IA nella raccolta di prove legali e nel processo decisionale.

Il giudice americano Richard Posner ritiene che l’uso immediato dell’IA e dell’automazione dovrebbe limitarsi ad assistere i giudici nello scoprire i propri pregiudizi e nel garantirne la coerenza logica. Tuttavia, l’uso crescente dell’automazione e del processo decisionale dell’IA nei tribunali inevitabilmente modellerà il processo decisionale giudiziario umano. Una maggiore dipendenza dall’IA può quindi offuscare il confine tra umano e IA a elaborare il giudizio giuridico.

La rapidità con cui queste tecnologie si stanno sviluppando ha portato alcuni a chiedere una moratoria completa in modo che la politica e i tribunali possano recuperare il ritardo. È chiaro che la questione del rapporto tra IA e diritto necessita di un’attenzione molto più concertata da parte di politici, esperti di etica e studiosi. Organizzazioni come la IAAIL e gli organismi di regolamentazione dell’IA sono necessari per fornire un’interfaccia tra giuristi, esperti di etica, informatici, governi e pubblico al fine di sviluppare regole e linee guida per l’uso appropriato e la proprietà dell’IA nel sistema legale.

Nel 21° secolo, i giuristi sono chiamati ad affrontare una serie di nuove questioni. Al centro di questi problemi c’è una domanda estremamente impegnativa: cosa significa essere umani nell’era dell’intelligenza artificiale?