Algoritmi e responsabilità: il paradosso dell'imparzialità computazionale nella pubblica amministrazione

algoritmo
algoritmo

Algoritmi e responsabilità: il paradosso dell'imparzialità computazionale nella pubblica amministrazione

I. Premessa: la seduzione della neutralità algoritmica

Nel dibattito contemporaneo sul rapporto tra intelligenza artificiale e pubblica amministrazione si è affermata una narrazione tanto seducente quanto insidiosa: l'algoritmo come garante ultimo dell'imparzialità amministrativa. La promessa è quella di una giustizia procedurale finalmente emancipata dalle debolezze della natura umana – corruzione, negligenza, arbitrio. Un sistema computazionale, si argomenta, non conosce favoritismi, non subisce pressioni, non cede a tentazioni. In questa prospettiva, l'automazione decisionale si configurerebbe come il compimento tecnico del principio costituzionale di imparzialità.

Tuttavia, questa visione riposa su un equivoco fondamentale che merita un'analisi gius-filosofica approfondita: la confusione tra imparzialità formale e neutralità sostanziale, tra efficienza procedurale e giustizia materiale. Come osservava già il Consiglio di Stato in una pronuncia del 2019, l'utilizzo di tecniche algoritmiche può garantire «l'esclusione di interferenze dovute a negligenza (o peggio dolo) del funzionario», realizzando così una «maggior garanzia di imparzialità della decisione automatizzata». Ma questa imparzialità – è lecito chiedersi – corrisponde davvero all'ideale costituzionale che informa l'azione amministrativa?

II. L'illusione epistemologica: il dato come costruzione sociale

Per comprendere i limiti strutturali dell'imparzialità algoritmica occorre innanzitutto decostruire un mito epistemologico: quello della neutralità del dato. Come ci ricorda la riflessione critica sulla datificazione, il dato non è mai semplicemente "dato" (datum), ma è sempre "da dare" (datur) – frutto di scelte metodologiche, categorie interpretative, decisioni circa ciò che merita di essere osservato e ciò che può essere trascurato.

I dati sono il risultato di un'indagine, non la sua premessa. Non esistono in natura come entità brute, pronte per essere "raccolte", ma vengono prodotti attraverso processi che incorporano necessariamente prospettive culturali, priorità politiche, pregiudizi cognitivi. Ogni dataset riflette le condizioni storiche e sociali della sua generazione, cristallizzando in forma numerica le relazioni di potere, le esclusioni sistemiche, le gerarchie implicite della società che lo ha prodotto.

Quando, dunque, un algoritmo viene addestrato su dati storici relativi, ad esempio, all'aggiudicazione di appalti pubblici in contesti caratterizzati da pratiche corruttive endemiche, non può miracolosamente "epurare" quei dati dalle loro distorsioni. Al contrario, il sistema apprenderà proprio quelle regolarità patologiche, trasformandole in parametri predittivi e, in ultima analisi, normalizzandole come standard di riferimento. La presunta neutralità computazionale si rivela così una forma particolarmente insidiosa di conservatorismo epistemologico: l'algoritmo non elimina il bias, lo rende invisibile, lo traveste da oggettività matematica.

III. Il problema della responsabilità: dalla scelta morale al calcolo automatico

Ma la questione più radicale che l'automazione decisionale pone al diritto pubblico è di natura etica prima ancora che tecnica: può un sistema privo di coscienza morale assumersi la responsabilità di scelte che incidono sui diritti e sugli interessi dei cittadini?

Come ci ammonisce la riflessione sull'etica computazionale, un algoritmo può ottimizzare una funzione obiettivo, ma non può interrogarsi sul senso di quella funzione. Non conosce l'ambiguità, la contraddizione, il conflitto interiore che caratterizza ogni autentica scelta morale. L'intelligenza artificiale è, in senso proprio, pre-morale: non sceglie, calcola. Non delibera, applica.

Questa distinzione non è un sofisma filosofico, ma ha conseguenze giuridiche decisive. La responsabilità amministrativa – nelle sue molteplici declinazioni: civile, penale, disciplinare, contabile – presuppone sempre un soggetto capace di intendere e di volere, un agente che possa essere chiamato a rispondere delle proprie scelte. Come può configurarsi un regime di responsabilità quando il decisore è un sistema algoritmico?

La soluzione formale – mantenere un funzionario umano che "supervisiona" o "convalida" le decisioni automatizzate – si rivela spesso illusoria. L'automazione produce quella che potremmo definire apatia decisionale: l'essere umano, progressivamente disabituato all'esercizio del giudizio critico, finisce per limitarsi a ratificare ciò che la macchina ha già determinato. Delegando sempre più, pensa sempre meno. La responsabilità formale resta, ma la responsabilità sostanziale evapora.

IV. Efficienza versus giustizia: il ritorno di un'antica dicotomia

Un secondo argomento frequentemente invocato a sostegno dell'automazione amministrativa è quello dell'efficienza. L'intelligenza artificiale promette velocità, precisione, economicità: valori non certo estranei al principio costituzionale di buon andamento. Ma è qui che riaffiora una dicotomia classica del pensiero giuridico: il rapporto, spesso tensionale, tra efficienza e giustizia.

Come la storia ci insegna, anche i regimi più oppressivi possono essere "efficienti" nel perseguire i propri obiettivi. L'efficienza è neutrale rispetto ai fini: può servire il bene comune come può consolidare l'ingiustizia. Un algoritmo può assegnare risorse o aggiudicare contratti con straordinaria rapidità, ma non può valutare se quelle decisioni realizzano equità distributiva, se rispettano la dignità delle persone coinvolte, se servono autenticamente l'interesse pubblico.

Il diritto amministrativo moderno non è solo diritto dell'efficienza, ma anche – e soprattutto – diritto dei valori: imparzialità, trasparenza, partecipazione, proporzionalità. Questi principi non possono essere ridotti a parametri di ottimizzazione. Richiedono ponderazione, bilanciamento, contestualizzazione – operazioni intrinsecamente umane che nessun algoritmo può surrogare.

V. Il nodo della trasparenza: l'opacità del "decision-making" automatizzato

Un ulteriore paradosso dell'amministrazione algoritmica riguarda la trasparenza. I sistemi di intelligenza artificiale, specialmente quelli basati su reti neurali profonde, operano secondo logiche che sfuggono spesso alla comprensione dei loro stessi creatori. Il fenomeno della black box decisionale solleva interrogativi cruciali dal punto di vista del diritto amministrativo.

Come può un cittadino esercitare il proprio diritto di difesa contro una decisione automatizzata di cui non comprende le ragioni? Come può l'amministrazione motivare adeguatamente un provvedimento quando il percorso logico che ha condotto a quella determinazione è computazionalmente opaco? Come si concilia l'obbligo di trasparenza con l'inscrutabilità degli algoritmi?

Il Codice dell'amministrazione digitale riconosce alle pubbliche amministrazioni il potere-dovere di utilizzare le tecnologie dell'informazione per realizzare obiettivi di efficienza ed economicità, ma sempre nel rispetto dei principi di trasparenza e partecipazione. Ma quale trasparenza è possibile quando il processo decisionale si consuma in strati sovrapposti di funzioni matematiche non interpretabili?

VI. Esperienze applicative: tra sperimentazione e cautela

Alcune amministrazioni hanno intrapreso la via dell'automazione nel controllo degli appalti pubblici e nella prevenzione della corruzione. Queste sperimentazioni – condotte con gradi variabili di ambizione e consapevolezza critica – offrono un terreno prezioso per verificare empiricamente le promesse e i limiti dell'intelligenza artificiale applicata alla funzione di controllo.

Tuttavia, è essenziale distinguere tra utilizzi diversi della tecnologia. Una cosa è impiegare sistemi di data analytics per identificare anomalie o pattern sospetti che meritano un approfondimento da parte di funzionari umani; altra cosa è delegare all'algoritmo la decisione finale, trasformandolo da strumento ausiliario in sostituto del decisore pubblico.

La prima soluzione – quella dell'algoritmo come supporto alla decisione umana – appare compatibile con i principi costituzionali, a condizione che vengano garantite: la verificabilità dei criteri utilizzati, la possibilità di contestare le segnalazioni automatiche, la formazione adeguata del personale chiamato a interpretare i risultati. La seconda soluzione – quella della piena automazione decisionale – solleva invece dubbi che non possono essere risolti mediante espedienti terminologici o aggiustamenti normativi marginali.

VII. Conclusioni: per una filosofia della responsabilità nell'era algoritmica

L'intelligenza artificiale rappresenta indubbiamente un'opportunità straordinaria per il miglioramento dell'azione amministrativa. Sarebbe miope rifiutarla per preconcetto luddista. Ma sarebbe altrettanto irresponsabile abbracciarla acriticamente, cedendo alla seduzione della neutralità computazionale.

Ciò di cui abbiamo bisogno non è un'etica "dell'IA" – espressione che rischia di essere un ossimoro – ma un'etica per l'IA: una riflessione rigorosa sui limiti entro cui la delega algoritmica può essere considerata legittima, sui meccanismi di controllo democratico che devono presidiarla, sulle forme di responsabilità che devono accompagnarla.

Come osservava Einstein, «la morale non ha niente di divino, è una faccenda puramente umana». E Nietzsche ci ricordava che ogni sistema morale è storicamente situato, culturalmente determinato. L'etica algoritmica, se non vogliamo che diventi una "morale della macchina" – vuota, funzionale, sterilizzata – deve restare saldamente ancorata alla responsabilità umana.

Il principio di imparzialità amministrativa, sancito dall'articolo 97 della Costituzione, non può essere ridotto a coerenza computazionale. Richiede qualcosa di più profondo: la capacità di ascolto, il discernimento del contesto, l'empatia verso le situazioni concrete, la consapevolezza delle conseguenze delle proprie scelte. Qualità irriducibilmente umane.

L'algoritmo può vigilare, ma non può giudicare. Può segnalare, ma non può decidere. Può assistere, ma non può sostituire. Il confine tra questi utilizzi è il confine stesso tra amministrazione e automatismo, tra democrazia e tecnocrazia, tra diritto e calcolo.

Non temiamo abbastanza quando l'intelligenza artificiale sbaglia. Temiamo troppo poco quando non ci chiede più di pensare.

Bibliografia essenziale
 

BENGIO Y. et al., Pause Giant AI Experiments: An Open Letter, Future of Life Institute, 2023.

Consiglio di Stato, sez. VI, 13 dicembre 2019, n. 8472.

FLORIDI L., La quarta rivoluzione. Come l'infosfera sta trasformando il mondo, Raffaello Cortina, Milano, 2017.

IACONESI S., DataPunk. Arte, Dati, Design, Derive Approdi, Roma, 2018.

O'NEIL C., Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Crown, New York, 2016.

PASQUALE F., The Black Box Society. The Secret Algorithms That Control Money and Information, Harvard University Press, Cambridge (MA), 2015.

RETTBERG J.W., Situated Data Analysis: A New Method for Analysing Encoded Power Relationships in Social Media Platforms and Apps, in «Humanities and Social Sciences Communications», 9, 2022, pp. 1-13.

ROSENBERG D., Data before the Fact, in GITELMAN L. (ed.), "Raw Data" Is an Oxymoron, MIT Press, Cambridge (MA), 2013, pp. 15-40.

TURK V., AI Image Generators Are Wired for Stereotypes, in «Rest of World», 2023.

ZUBOFF S., Il capitalismo della sorveglianza. Il futuro dell'umanità nell'era dei nuovi poteri, Luiss University Press, Roma, 2019.