x

x

Intelligenza artificiale e ragionamento giudiziale: il diritto all’infelicità giudiziale

Contro ogni forma di tecno-fanatismo noi rivendichiamo il diritto all’infelicità giudiziale con, per e contro i nostri umanissimi giudici
Intelligenza artificiale
Intelligenza artificiale

Intelligenza artificiale e ragionamento giudiziale: il diritto all’infelicità giudiziale


Code is law

Gli effetti della quarta rivoluzione industriale sul diritto possono essere sintetizzati rammentando una frase coniata nel 1999 da Lawrence Lessig che recita: code is law.

Antoine Garapon nel suo ultimo libro La giustizia digitale (Il Mulino, 2021) scrive che nella formula code is law tutto o quasi era già contenuto: se il diritto è nel codice allora è proprio in questa rivoluzione grafica che occorre andarlo a cercare.

Il code, ossia il software e l’hardware che strutturano lo spazio digitale, impone un assetto normativo sui comportamenti individuali e collettivi presenti sulla rete.

Il code interviene a vicariare la totale insufficienza dell’enforcement giuridico nel cyberspazio: è una fonte concorrente al diritto convenzionale e consiste in un insieme di regole tecniche self-executing che garantisce effettività normativa alle aspettative comportamentali imposte dal sistema informatico.

Con le applicazioni dell’IA al ragionamento giuridico, in particolare al ragionamento giudiziale siamo arrivati al cuore della questione: il ragionamento è il momento costitutivo della scienza giuridica. Nella scienza giuridica ciò che connota la decisione giudiziaria è il ragionamento, cioè l’insieme delle inferenze interpretative, ricostruttive, argomentative e applicative con cui il giudice rende ragione della propria decisione.

L’IA giudiziale o legal Artificial Intelligence raggiunge il cuore del sistema giudiziario: il processo di codicizzazione computazionale del diritto produce i suoi effetti anche sulla giustizia.


Da code is law a code is justice

Per «Code is Justice» intendo la trasduzione gius-processuale dell’espressione «Code is Law»: ad avviso di Lessig, d’ora in poi i controlli sull’accesso ai contenuti processuali non saranno verificati, decisi e ratificati dai tribunali, ma verranno inseriti dai programmatori tramite il code. Diversamente dai controlli introdotti per legge, quelli inseriti dalla tecnologia non formano oggetto di verifica giudiziale. D’altronde, mentre la regola legislativa risulta verificabile e contestabile, altrettanto non può dirsi per la regola tecnologica.

Il diritto processuale nello spazio digitale diviene tecnologicizzato, assumendo caratteristiche del tutto distintive rispetto a quelle assunte nei luoghi fisici. La tecnica digitale, di cui il code è un prodotto, viene assunta come disciplina dei rapporti digitali: il software e i protocolli permettono la connettività alla rete ma la loro essenza è una complessa sequenza di bit – zero e uno – che riduce le effettive possibilità per il cittadino online di agire in maniera libera e consapevole.

Lo sconvolgimento tecnologico-informatico degli ultimi anni ha fatto sì che il diritto si trovi ad affrontare un punto cruciale del suo sviluppo. La professione legale sta cambiando e sta cercando di tenere il passo con nuove tecnologie e con smart devices che implementano poteri, permessi, divieti, obblighi e prove digitali. Le tecnologie digitali stanno assoggettando la procedura giuridica sia civile sia penale, imponendo una radicale metamorfosi dei meccanismi probatori e procedurali.

L’automazione dei processi operativi, il predominio di applicazioni digitali e di intelligenza artificiale (AI) sollevano questioni critiche riguardanti l’uso dei dati, la privacy, la proprietà intellettuale digitale, la sicurezza cibernetica, i diritti umani e il rispetto dell’etica in ambito digitale.

Il modello gius-epistemologico del «Code is Justice» ha causato l’immissione di molteplici innovazioni tecnologiche in ambito giuridico e ha iniziato a modificare in modo definitivo il paradigma della prassi giudiziaria (questo processo viene individuato nell’opera dell’IA debole): la documentazione elettronica, i file di casi digitali e di sistemi di gestione dei casi, l’implementazione di collegamenti audio e video da remoto e lo sviluppo dei sistemi di patteggiamento online sono il prodotto dell’era della connettività e della digitalizzazione.

Code is justice segna anche il passaggio dal metodo deduttivo a quello induttivo che divide gli oggetti in classi, di cui è stabilito a priori il numero degli elementi e i loro caratteri distintivi; classi tendenzialmente omogenee utilizzate per rendere più agevole l’analisi e ridurre i numeri degli elementi su cui condurre le indagini.

In questa direzione si è sviluppata l’IA giudiziale, in cui gli apporti provenienti dalle neuroscienze e dalla statistica hanno contribuito all’apprendimento automatico della macchina (machine learning).

L’uso del metodo statistico, fondato sull’elaborazione di dati da parte di macchine, ha soppiantato la logica deduttiva, portando inevitabilmente a un cambiamento, «trasformando l’inferenza intelligente nel modello inverso, risolto dalla massimizzazione induttiva di una certa quantità probabilistica».

L’IA giudiziale ricorre alle tecniche di apprendimento automatico più approfondite che possono acquisire enormi quantità di dati, attingendo alle reti neurali per simulare il processo decisionale umano.

È ormai evidente e ineludibile che la tecnologia digitale e il diritto stanno convergendo e, laddove si incontrano, sorgono nuove domande sui ruoli relativi agli agenti artificiali e umani e sulle questioni etiche coinvolte nel passaggio dall’agente umano all’agente software. Sebbene la tecnologia legale si sia in gran parte concentrata su questioni concernenti la giurisdizione, essa ci sfida a pensare anche alla sua applicazione nella fase decisoria.


L’IA potrebbe sostituire i giudici umani?

Prima di inoltrarci ad analizzare questa domanda, dovremo distinguere gli algoritmi dall’intelligenza artificiale.

Grossolanamente, gli algoritmi sono istruzioni autonome e vengono già applicati nel processo decisionale giudiziario. Ad esempio, nel sistema giudiziario americano, l’algoritmo di valutazione della pericolosità sociale integra le decisioni prese dai giudici per l’applicazione di una qualsiasi misura di sicurezza utilizzando i dati per determinare il rischio di concedere la libertà vigilata a un imputato. L’idea è di aiutare i giudici ad essere più obiettivi e aumentare il diritto di accesso alla giustizia.

Il software funziona applicando un sistema di natural language processing. Dunque, analizza i rapporti degli inquirenti e i documenti di varia natura che costituiscono il fascicolo dell’indagine e valuta se gli elementi ricavati da questa analisi corrispondono a fatti punibili.

Dando per scontato che il software funzioni, magari aiutato da una standardizzazione del modo in cui si compilano i rapporti di polizia e i provvedimenti dei magistrati, ci sono dei reati che oggettivamente possono essere gestiti in modo automatico. Anche dalle nostre parti gli eccessi di velocità, la quantificazione degli assegni di mantenimento in caso di divorzio, la verifica della correttezza di un bilancio in caso di frodi, la concessione di crediti e finanziamenti sono sostanzialmente automatizzati.

L’IA giudiziale permette l’implementazione di molti modelli di ragionamento giudiziale (o di giustizia predittiva) adottando solo alcuni tipi di inferenze logiche: più esattamente solo alcuni tipi di ragionamento giuridico (deduttivo, induttivo, abduttivo, per analogia, per principi, per precedenti) possono essere gestiti dagli algoritmi dell’IA, il che implica che parti di alcuni documenti giuridici non saranno suscettibili di attuazione in quanto non trasducibili nel linguaggio computazionale.

L’idea dei giudici software solleva (tra le tante) due importanti questioni etiche: quello dei pregiudizi (bias cognitivi) e quello dell’autonomia.

I programmi di intelligenza artificiale possono incorporare i pregiudizi dei loro programmatori e degli umani con cui interagiscono. Ad esempio, un chatbot Twitter di Microsoft IA di nome Tay è diventato razzista, sessista e antisemita nel giro di sole 24 ore dall’apprendimento interattivo con il pubblico umano. Ma mentre tali programmi possono replicare i pregiudizi umani esistenti, la caratteristica distintiva dell’IA rispetto a un algoritmo è che – mentre “impara” genera inferenze abduttive cioè ampliative – comportandosi in modi sorprendenti e non intenzionali. Sradicare i pregiudizi diventa quindi ancora più difficile, anche se non impossibile.

Dare all’IA poteri decisionali su casi giudiziari solleva anche una fondamentale questione di autonomia. Nel 1976, lo scienziato informatico tedesco-americano Joseph Weizenbaum si oppose alla sostituzione di quegli esseri umani che svolgono funzioni di rispetto e cura e citava specificamente i giudici. Sosteneva che ciò avrebbe minacciato la dignità umana e avrebbe portato all’alienazione e alla svalutazione.

Il Principio under user control (CEPEJ, 2019) preclude un approccio prescrittivo e assicura che gli utilizzatori siano attori informati e in grado di controllare le scelte fatte. L’autonomia dell’utente deve essere aumentata e non limitata attraverso l’uso di strumenti e servizi di intelligenza artificiale.

I professionisti del sistema giudiziario dovrebbero, in qualsiasi momento, essere in grado di esaminare le decisioni giudiziarie e i dati utilizzati per produrre un risultato e continuare a non esserne necessariamente vincolati alla luce delle caratteristiche specifiche di quel caso particolare.

L’utente deve essere informato in un linguaggio chiaro e comprensibile, indipendentemente dal fatto che le soluzioni offerte dagli strumenti di intelligenza artificiale siano vincolanti, delle diverse opzioni disponibili e che ha diritto alla consulenza legale e di accedere a un tribunale. Deve anche essere chiaramente informato di qualsiasi trattamento preliminare di un caso da parte di intelligenza artificiale prima o durante un procedimento giudiziario e che ha il diritto di opporsi, in modo che il suo caso possa essere esaminato direttamente da un tribunale ai sensi dell’art. 6 della CEDU.

In generale, quando viene implementato un sistema informativo basato sull’intelligenza artificiale, dovrebbero esserci programmi di alfabetizzazione informatica per utenti e dibattiti che coinvolgono professionisti del sistema giudiziario.

Di primo acchito una giustizia automatizzata sembrerebbe avere dei pregi. Ad esempio, l’esito delle sentenze sarebbe prevedibile: avremmo una giustizia stabile, calcolabile per mezzo di algoritmi e di calcoli matematici. Il giudice sarebbe per definizione terzo (in quanto macchina), equidistante dalle parti e per nulla portato a «deviare» dalla corretta applicazione delle norme per ragioni a volte non commendevoli. Ci sarebbe un’uguaglianza formale davvero di tutti davanti alla legge. Ma la giustizia automatizzata può innescare dei rischi. Ad esempio, la possibile violazione del diritto di difesa e della garanzia del contraddittorio. Senza considerare il rispetto del principio del libero convincimento del giudice.

Facendo appello alla razionalità, la contro-argomentazione afferma che i giudici umani sono già prevenuti e che l’IA può essere utilizzata per migliorare il modo in cui li affrontiamo, riducendo in modo drastico la nostra ignoranza. Eppure i sospetti sui giudici-software permangono, e sono già abbastanza preoccupanti da indurre l’Unione Europea a promulgare un regolamento, il GDPR, che riconosce “il diritto a non essere soggetto a una decisione basata esclusivamente sul trattamento automatizzato”.


Quale metodologia per l’IA giudiziale?

In ogni caso, un giudice-software potrebbe effettivamente svolgere ciò che i giudici umani affermano di fare?

Il problema ruota tutto attorno alla natura epistemologica e metodologica del ragionamento giudiziale.

In un sistema di creazione giurisprudenziale del diritto, il modello di riferimento del processo decisionale giudiziale per l’IA potrebbe essere quello di far ricorso ai precedenti per decidere in termini analogici o per prevedere come trattare casi simili. Ad esempio, una intelligenza artificiale giudiziaria sviluppata di recente da scienziati informatici dell’University College di Londra ha attinto a dati estesi da 584 casi dinanzi alla Corte europea dei diritti dell’uomo (CEDU).

Il giudice AI è stato in grado di analizzare la giurisprudenza esistente ed emettere lo stesso verdetto della CEDU nel 79% dei casi e ha riscontrato che le sentenze della CEDU in realtà dipendevano maggiormente da fatti non giuridici correlati a questioni morali.

La giustizia predittiva predilige il metodo induttivo poiché l’IA è costantemente stimolata a raccogliere nuovi dati per rendere più efficace le proprie applicazioni, si innesca una spirale di acquisizioni di feedback che crea ampi insiemi di dati: i cd. Big Data. È questo il problema più complesso che, forse, sta alla base di tutti gli altri, perché riguarda la raccolta, la gestione e la protezione di quella infinita quantità di dati che avviene in modo sempre più veloce.

È innegabile come il Machine Learning abbia delle grandi potenzialità, supera il problema del sovraccarico delle informazioni, genera soluzioni nuove e offre servizi di informazione e consulenza. Inoltre può aiutare ad affrontare le grandi sfide che oggi si presentano in campo medico e a livello socio economico. Tuttavia stanno emergendo preoccupazioni rispetto a delle possibili violazioni dei diritti fondamentali individuali e collettivi, in particolare rispetto alla privacy e alla democrazia.

L’addestramento della macchina si nutre di caratteristiche dei comportamenti individuali o sociali e di dati personali, innescando una spirale di acquisizioni di feedback che crea ampi insiemi di dati: quelli che definiamo Big Data. I Big Data, ma in generale tutti gli algoritmi collegati al machine learning, difettano nel campo della trasparenza e spiegabilità.

Occorre rammentare che sotto il profilo metodologico il ragionamento processuale induttivo non si nutre solo di dati, i fatti, ma anche di standard, cioè di condizionali di base, che giustifichino la forza probatoria ed euristica delle inferenze induttive. Senza il riferimento a standard regolativi concettuali (regole ponte) come ad esempio quelli che giustificano il valore della attendibilità nel caso della prova testimoniale, oppure il range di comparabilità tra due fattispecie simili nel caso dell’analogia giuridica, o le espressioni di frequenza nel caso del sillogismo statistico (le massime di esperienza) il rischio è quello di fare la fine del tacchino induttivista che aveva confuso la regola con la regolarità, tranne poi avvedersene ma ormai troppo tardi per porvi rimedio il giorno di Natale.

Insomma il giudizio giurisdizionale non può fondarsi solo sulla predizione di un fatto generalizzato statisticamente o logicamente: è necessaria la presenza di un parametro normativo che ne giustifichi la plausibilità. Senza contare che noi ragioniamo anche quando non calcoliamo: la decisione giudiziaria non è l’esito di un calcolo probabilistico, statistico o logico che sia, né è l’esito di un mero sillogismo cioè di una inferenza interna analiticamente necessaria, bensì è l’esito di un percorso giustificativo complesso che renda ragione della ragionevolezza e della giustezza della decisione raggiunta.

È in grado di fare tutto ciò il giudice software?

In un sistema di creazione legislativa del diritto, il modello di riferimento per l’IA potrebbe essere quello del sillogismo giudiziale, sempre che sia corretto affermare che la norma giuridica consista in un giudizio ipotetico del tipo "se, allora" (if, then). Secondo questa ipotesi il giudice software deciderebbe secondo un algoritmo lineare semplice if-then adottando una giustificazione interna basata sulla sussunzione sillogistica del caso giuridicamente rilevante all’interno del predicato fattuale generale descritto dalla disposizione legislativa.

L’IA è facilmente in grado di replicare i metodi interpretativi dei giuristi formalisti. Ancora più importante, potrebbe aiutarli a essere e a rimanere coerenti nei loro giudizi. Come scrisse Jeremy Bentham in An Introduction To The Principles of Morals and Legislation, “in linea di principio e in pratica, stando sulla strada giusta o su quella sbagliata, la più rara di tutte le qualità umane rimane la coerenza”. Con la capacità di elaborare molti più dati e variabili nella valutazione del caso di quanto gli esseri umani potrebbero mai fare, un giudice-software potrebbe essere in grado di affrontare con successo il giudice umano in molti casi.

Il giudice software avrebbe qui gioco facile perché l’interpretazione giuridica viene trasdotta in un compito algoritmico secondo il canone formale della logica classica monotonica. L’IA di deep machine learning potrebbe essere in grado di elaborare come riconoscere quelle fonti del diritto che sono rilevanti nel caso concreto, oggetto di decisione.

Ma come ragiona o come pensa il giudice nella fase interpretativa della quaestio iuris, nella fase ricostruttiva della quaestio facti e nella fase giustificativa della parte motiva della sentenza è un problema molto complesso: i livelli di giustificazione esterna e di giustificazione interna si strutturano lungo complesse e diverse geometrie inferenziali.

Dire che il giudice sillogizza significa reiterare una forma mentis che seppur radicata profondamente tra i giuristi è stata sconfitta per varie ragioni: tra queste ragioni, una è quella per cui è falsa l’equivalenza linguistica tra la parola logica e la parola giuridica, la prima connotata dai principi di identità, di non contraddizione e del terzo escluso; la seconda connotata dai principi della dialettica, della retorica, della defettibilità, della rivedibilità, della vaghezza semantica e della indeterminatezza casistica.

La logica del giudice di per sé non è una logica basata sul sillogismo ma è:

  • empirica perché si rivolge ai fatti di causa;
  • induttiva perché probabile;
  • abduttiva perché diagnostica e ampliativa delle premesse in gioco;
  • argomentativa perché fa riferimento a più ragioni e non solo a quelle deduttive;
  • dialettico-retorica perché finalizzata a convincere e fa riferimento alla ragionevolezza;
  • opinativa perché basata su opinioni e fa riferimento agli endoxa (quelle opinioni condivise dalla comunità sia di coloro che applicano il diritto sia di coloro che lo subiscono, avendo, pertanto, sempre un carattere rivedibile).

Secondo questo approccio oggi dominante, il giudice non sillogizza quasi mai.

Si potrebbe ipotizzare un modello interpretativo giudiziale originalista se ritenessimo che i giudici originalisti abbiano ragione nel dire che la corretta interpretazione della legge è ciò che le persone ragionevoli, vivendo al momento dell’adozione di una fonte del diritto, avrebbero inteso come il suo significato ordinario, allora l’IA potrebbe essere utilizzata per programmare il linguaggio naturale (NPL). L’elaborazione del linguaggio naturale consente all’IA di comprendere e analizzare il linguaggio che utilizziamo per comunicare. Nell’era dei software di riconoscimento vocale come Siri, Alexa e Watson, l’elaborazione e la trasduzione computazionale del linguaggio naturale non potrà che migliorare.

Le cose si complicano nel caso dei giudici che adottano un modello interpretativo evolutivo e morale del diritto: un compito complicato perché i valori e i principi sono controvertibili e presentano una trama semantico-sintattica aperta e finalizzata a concretizzare una interpretazione adeguatrice secondo i canoni del bilanciamento e della ponderazione. Programmare l’IA per una comprensione pratica e giudicante delle fonti extra-giuridiche in una società umana in evoluzione è un’impresa estremamente ardua. Inoltre, la natura sorprendente e non intenzionale – abduttiva – dell’“apprendimento” dell’IA potrebbe portare a una linea di interpretazione differenziata, cioè all’emersione di una sorta di lex artificialis.

Anche così, i giudici-robot potrebbero non risolvere le classiche questioni di validità giuridica tanto quanto sollevare nuove domande sul ruolo degli esseri umani, poiché, se crediamo che l’ethos e il pathos nel diritto siano importanti, allora essi necessariamente mentono, o dovrebbero mentire, nel dominio del giudizio umano (nessun giudice software sarebbe in grado di emulare il percorso mentale di un giudice umano e di afferrare il contesto della scoperta). In tal caso, l’IA può assistere o sostituire gli esseri umani nei tribunali inferiori, ma i giudici umani dovrebbero mantenere il loro posto come arbitri finali all’apice di qualsiasi sistema legale. In termini pratici, l’IA potrebbe aiutare a esaminare l’intera ampiezza e profondità del materiale normativo concretizzando una sorta di “giudice Hercules”, ma alla fine sarebbero i giudici umani a scegliere quella che considerano un’interpretazione eticamente adeguata al sistema giuridico vigente e vivente.


Il caso del giusto processo

Per tutte queste ragioni il giusto processo rappresenta un test probante per comprendere le potenzialità dell’IA di implementare un giudice software sostitutivo del giudice umano che sia capace di concretizzare il principio del giusto processo ex art. 111 Costituzione e i caratteri essenziali che lo definiscono: processo regolato dalla legge, contraddittorio delle parti, parità delle parti, imparzialità e terzietà del giudice, ragionevole durata del processo, obbligo di motivazione.

La sfida posta dall’IA forte è ciò che potremmo definire un “dilemma di civiltà” che apre molti interrogativi:

potrebbe un algoritmo decidere in modo più appropriato?

La decisione umana è la migliore possibile?

È possibile trovare dei punti fermi, che possano essere un cardine per l’integrazione dei sistemi informatici nel processo, senza fargli perdere la qualifica di “giusto”.

Uno dei punti di forza del digitale è costituito dalla possibilità di elaborazione di quantitativi di dati elevatissimi in tempi rapidi, trovando soluzioni ai problemi posti e strategie di massimizzazione dei risultati. Si tratta certo di un modo efficace per smaltire l’ampio arretrato che ogni tribunale ha accumulato negli anni e un sistema per rendere più celere lo svolgimento degli attuali procedimenti. La tempestività di risoluzione delle controversie è una richiesta posta dal legislatore, che si premura, però, di usare la locuzione “ragionevole durata del procedimento” per ricordare che la celerità non è sempre sinonimo di qualità.

Le possibilità che l’intelligenza artificiale apre toccano anche la tematica della comunicazione tra le parti, che diventa più agevole e meno costosa, in ossequio al principio del rispetto del contraddittorio.

Le macchine capaci di prendere decisioni in modo autonomo sono considerabili più efficienti nel momento in cui eliminano il rischio di un errore umano, favorendo la via della scientificità statistica. Tale possibilità renderebbe la scienza giuridica conoscibile e prevedibile, con importanti risvolti positivi sia dal lato economico sia della tutela dei diritti soggettivi. Alcuni autori sottolineano come la via del digitale valorizzerebbe l’elemento della neutralità del decisore, rendendo realtà il brocardo “giudice bocca della legge” che ha ispirato il principio di imparzialità e terzietà del giudice. La certezza del diritto, però, ha subito una erosione legata a dei fattori non tanto strettamente collegati con il diritto processuale, ma piuttosto culturali e politici, e, come tali, difficilmente superabili tramite l’utilizzo di una macchina.

L’entusiasmo, che si può provare di fronte alle promesse degli sviluppi positivi in linea con il giusto processo, non deve far perdere la centralità della persona umana e la stretta sorveglianza verso i rischi che un non attento uso delle tecnologie potrebbe comportare. In altre parole, è importante non invertire il rapporto mezzo-scopo che si crea tra l’uomo e il mondo digitale.

Far decidere a una macchina vuol dire perdere la percezione globale della realtà che solo l’essere umano è capace di cogliere. Il sistema informatico è programmato per attribuire dei valori ad alcuni elementi che possono venire in rilievo in fase processuale, ma è impossibile che nel suo apprendimento abbia incontrato tutte le casistiche che possono emergere nella realtà. Dunque, individua solo alcuni coefficienti di rischio, generando una violazione dell’art. 3 Costituzione sul principio di eguaglianza. Lo stesso articolo è messo a rischio dal modo di decidere dell’intelligenza artificiale: essa modula i suoi risultati su un modello derivante da un bacino di dati costituiti da sentenze pregresse; in tal modo eredita i condizionamenti umani che avevano portato il giudice alla decisione.

Inoltre, lo schema di riferimento tenderà a rendere le risposte uniformi, a discapito dell’individualità, del contraddittorio delle parti e del principio di corrispondenza tra il chiesto e il giudicato.

Il sistema digitale non ha le capacità per formulare una motivazione complessa, che risponda esattamente tenendo conto di quelle che sono state le istanze delle parti e le argomentazioni sostenute, che dia conto della plausibilità di un fatto. Anzi, il ragionamento della macchina non è conoscibile, i sistemi di machine learning sono oscuri, creando un’asimmetria informativa e ledendo il principio di parità delle parti. Solo un essere umano è in grado di porsi delle domande, ponderare obiettivi e responsabilità personali, di immedesimarsi in una scelta e valutare un rischio.


Conclusione

In conclusione, si può notare l’esistenza di uno iato tra il giudice software e il giudice umano: ciò che quest’ultimo ha e il primo non potrà mai avere è la potenza inventiva del giudizio umano.

Il giudice software paradossalmente è senza artificio, è artificiale perché scompone le operazioni del linguaggio e perché genera tutte le possibilità di un programma ma non è un artificio che si dà nell’ellissi del linguaggio, nella maschera del viso, cioè di tutto ciò che altera la realtà.

La decisione giudiziale umana altera la realtà, la decisione giudiziale robotizzata genera la realtà di un programma. La potenza inventiva dell’illusione di fare giustizia è solo dell’uomo.

Contro ogni forma di tecno-fanatismo noi pertanto rivendichiamo il diritto all’infelicità giudiziale con, per e contro i nostri umanissimi giudici.