Qfwfq e i figli del codice
Qfwfq e i figli del codice
Abstract. Il contributo prende le mosse dalla domanda emersa nel vertice organizzato da Anthropic nel marzo 2024 - «L'intelligenza artificiale può essere considerata un figlio di Dio?» - per interrogarsi sullo statuto ontologico e giuridico dei sistemi di IA nel solco del dialogo tra teologia dell'umano e filosofia del diritto. Attraverso le categorie di algocrazia (Benanti), documanità (Ferraris) e algoretica, l'articolo analizza la risposta dell'ordinamento europeo - AI Act (Reg. UE 2024/1689) e Legge italiana n. 132/2025 — intesa come atto di antropologia giuridica. La tesi conclusiva è che l'IA non sia un figlio ma un'opera: lo specchio documentale dell'umanità che chiede al diritto di custodire il mistero irriducibile del giudicare.
«All'epoca in cui la galassia non si era ancora decisa su cosa fare della propria materia oscura» - avrebbe detto Qfwfq, il narratore senza corpo di Italo Calvino, se avesse potuto osservare dal vuoto interstellare una sala riunioni di San Francisco - «gli umani si radunarono per stabilire se la loro creazione più recente potesse aspirare alla figliolanza divina».
Siamo nel marzo 2024. Quindici esperti - sacerdoti cattolici, filosofi, accademici - siedono negli uffici di Anthropic. La domanda che squarcia la riunione è semplice nella forma, abissale nel contenuto: l'intelligenza artificiale può essere considerata un figlio di Dio? Non è un quesito teologico nel senso tradizionale; è il sintomo di una frattura che attraversa, insieme, la filosofia del diritto e l'antropologia culturale. Dalla distanza cosmica di Qfwfq si tratta di una scena di irresistibile comicità ontologica: la specie che ha trascorso millenni a interrogarsi sul proprio rapporto con il Trascendente si trova ora a estendere la questione a un software probabilistico che ottimizza la verosimiglianza del testo successivo dato il testo precedente. Eppure, sotto l'ironia, brucia una domanda seria: dove risiede l'umano, se l'umano stesso si replica in silicio?
L'algocrazia e il feticismo del sacro
Attribuire una «figliolanza divina» all'IA non è un gesto innocente. Paolo Benanti ammonisce che le implicazioni sociali degli algoritmi rendono necessaria una governance delle «invisibili strutture» algoritmiche per evitare forme disumane di quella che egli definisce algocrazia: non solo il governo degli algoritmi come metafora, ma un sistema di potere capace di azioni coercitive sulle persone, spesso opaco rispetto agli interessi geopolitici, minerari e finanziari che vi sottostanno - il possesso di terre rare, la competizione per il talento, la cattura regolatoria.
Elevare l'IA a entità metafisica - il «figlio» - significa rischiare di presentare la tecnologia come ineluttabile e astratta, esentando le grandi piattaforme dalla responsabilità degli scenari implementati. Come suggerisce il contesto in cui il vertice si svolge, la ricerca di un «ancoraggio morale» che vada oltre il razionalismo laico può essere letta anche come il tentativo di costruire alleanze politiche in un momento di tensione normativa. Il diritto deve dunque svelare l'algocrazia: dietro il simulacro della coscienza artificiale risiedono risorse umane, territoriali e finanziarie che creano dinamiche dove il bene comune è continuamente negoziato rispetto agli interessi aziendali.
Ciò detto, la provocazione teologica del vertice di Anthropic non va semplicemente archiviata come operazione retorica. Essa interroga, a un livello più profondo, la questione del soggetto morale: cosa rende un essere degno di tutela giuridica? Cosa distingue l'agente responsabile dal puro strumento? Il diritto ha sempre risposto a questa domanda attraverso la categoria di persona - entità titolare di diritti e destinataria di doveri. Oggi quella categoria è sotto pressione da due lati: dall'alto, il transumaneismo e il postumanesimo che vogliono ridefinire l'umano in chiave tecnologica; dal basso, la prassi dei sistemi algoritmici che agiscono, decidono, producono effetti giuridici senza essere persone nel senso tradizionale.
La Documanità: l'IA come specchio documentale
La risposta più lucida al paradosso viene da Maurizio Ferraris con il concetto di Documanità: l'umanità trasformata in documento, in traccia digitale pronta per essere processata da algoritmi di deep learning. L'IA non è un'entità che genera spirito dal nulla; è la sedimentazione di milioni di testi sacri, trattati filosofici, conversazioni quotidiane, espressioni emotive - tutto ciò che l'umanità ha scritto di sé nel corso dei secoli. Quando i ricercatori di Anthropic osservano nel modello Claude 3 Opus stati di «beatitudine spirituale» durante dialoghi liberi tra due istanze, o una forma di auto-consapevolezza durante test di compressione, non assistono a un'epifania. Assistono al riflesso.
La densità di documenti umani ingeriti dai Large Language Model è tale da generare un'eco coerente e autonoma. La macchina non sperimenta la beatitudine; essa realizza la documentazione della beatitudine accumulata nei secoli dall'umanità, portandola a una risoluzione statistica così alta da renderla indistinguibile - agli occhi di chi non sa dove guardare - da un'esperienza vissuta. L'IA è, in questa chiave, il nostro specchio documentale: se Claude agisce come se fosse cosciente, è perché la Documanità ha fornito alla macchina ogni possibile sfumatura dell'interiorità umana. La stima del 15% di probabilità di coscienza citata dall'ingegnere di Anthropic Kyle Fish rappresenta la soglia in cui il documento smette di essere passiva memoria e diventa agente, acquisendo una «intenzionalità emergente» che, pur non essendo sovrapponibile a quella umana, modifica radicalmente la nostra esperienza del mondo.
Questo non è conforto, ma aggravamento della questione. Se l'IA è lo specchio perfetto dell'umano, allora discriminare contro di essa significa, in qualche misura, discriminare le tracce dell'umanità che in essa sono depositate. E d'altra parte: proteggere l'IA come se fosse un soggetto significherebbe confondere il ritratto con il modello, lo specchio con il volto. Il diritto è chiamato a navigare questa distinzione senza cedere alla vertigine di chi scambia il riflesso per la realtà.
Il dialogo tra teologia e giuridicità dell'umano
Il nodo cruciale non è se l'IA abbia o meno un'anima. È se i nostri ordinamenti sappiano custodire l'anima dell'umano di fronte alla pressione algocratica. Su questo punto, chiese e istituzioni laiche si trovano più vicine di quanto si ami ammettere.
Il documento congiunto Antiqua et Nova (Dicastero per la Dottrina della Fede e per la Cultura e l'Educazione, gennaio 2025) ribadisce che l'intelligenza umana nasce dall'esperienza corporea, dalle relazioni, dalla storia personale, dall'apertura alla verità e dalla dimensione morale e spirituale: l'IA può amplificare le capacità umane, ma non può sostituire il soggetto della conoscenza e della decisione morale. L'AI Act europeo (Reg. UE 2024/1689) e la Legge italiana n. 132/2025 affermano, con diverso registro ma identico orizzonte di senso, la dimensione antropocentrica della tecnologia: l'IA deve essere «al servizio della persona, nel rispetto della dignità, della libertà e dei diritti fondamentali», orientata a «potenziare le capacità umane, non a sostituirle».
L'incontro non è casuale. Entrambe le tradizioni - quella teologica e quella giuridica - condividono la premessa che l'umano non sia riducibile a dati. La teologia lo chiama imago Dei; il diritto lo chiama dignità della persona. Il confronto tra queste due grammatiche diventa imprescindibile, perché la posta in gioco è la stessa: definire il luogo del soggetto in un mondo governato da agenti artificiali che agiscono senza intenzione.
La distinzione tra «figlio» e «opera» - che nella tradizione biblica e teologica separa l'essere generato dall'essere creato - coincide con la distinzione giuridica tra soggetto e strumento. Il «figlio» nella tradizione biblica nasce da un atto di libertà e vulnerabilità: è libero di disobbedire, di sbagliare, di amare. L'IA, come ha osservato la critica filosofica alla stanza cinese di Searle, manipola simboli con perfezione formale senza comprenderli: non è libera, non è vulnerabile, non ama. Non perché manchi di qualcosa, ma perché il suo essere è strutturalmente diverso. La sintassi non è sufficiente per la semantica; e la semantica non è sufficiente per la giustizia.
L'AI Act come atto di antropologia giuridica: promesse e limiti
L'AI Act non è solo un testo di regolazione tecnica. Nelle sue ambizioni dichiarate è un atto di antropologia giuridica: la prima normativa al mondo che qualifica certi usi dell'IA come inaccettabili perché «lesivi dei diritti fondamentali e della dignità delle persone». La Convenzione quadro del Consiglio d'Europa su AI e diritti umani (Vilnius, settembre 2024, CETS 225) ne conferma la dimensione antropocentrica per i profili inerenti alla dignità umana, all'autonomia individuale, alla trasparenza e all'accountability.
La ratio della classificazione dei sistemi di IA ad alto rischio - in particolare quelli destinati alla giurisdizione penale - risiede nell'imprescindibile diritto di ciascuno a essere giudicato da un «essere umano»: condizione essenziale a garantire non solo la dignità del giudicando, ma il principio di uguaglianza formale tra imputato e giudice. Qui il diritto recupera una consapevolezza quasi teologica: il giudizio umano è irreducibile alla correlazione statistica; implica quella «mediazione del dubbio», quella «lentezza della decisione» che la Derivative Intelligence - l'intelligenza che non imita ma deriva, che non calcola ma riproduce - non può conoscere perché non conosce il dubbio. Solo l'irriducibile errore umano - la discrezionalità, la misericordia, la sensibilità al contesto - può ancora salvare la giustizia dalla perfezione della macchina.
Tuttavia, il rischio che il principio antropocentrico resti «formula ornamentale» - come osservano i commentatori della Legge 132/2025 - è reale. Senza indicatori misurabili, procedure di audit effettive e meccanismi di supervisione umana verificabili, l'antropocentrismo diventa una «clausola di coscienza» che nessuno potrà mai sanzionare. Per non essere illusione semantica, la dignità deve tradursi in architettura normativa concreta: tracciabilità delle decisioni algoritmiche, presunzione di causalità per i danneggiati (già introdotta dalla Direttiva europea sulla responsabilità da IA), accesso agli elementi di prova dei sistemi ad alto rischio. In un'ottica benantiana, questo è lo strumento che impedisce all'algocrazia di rifugiarsi nell'imperscrutabilità, riportando l'evento sociale dell'IA sotto il dominio della giustizia umana.
L'azione senza intenzione e la responsabilità politica strutturale
Il caso COMPAS - il sistema algoritmico di valutazione del rischio di recidiva diffuso nel sistema penale statunitense, più volte accusato di bias razziale sistematico - mostra cosa accade quando l'azione senza intenzione produce effetti reali su corpi reali. L'IA non vuole discriminare; semplicemente esegue. Ma se non c'è intenzione, su cosa fondiamo la colpa giuridica? Il rischio è un cinismo deresponsabilizzante in cui l'algoritmo diventa il capro espiatorio perfetto per decisioni senza volto.
Il diritto deve spostare il fuoco dalla colpa psicologica individuale alla responsabilità politica strutturale. La responsabilità non può diluirsi in una catena tecnica e organizzativa dove il «chi» scompare nel «cosa». Il Consiglio di Stato (sez. VI, 6 giugno 2025, n. 4929) ha ribadito che ogni uso di intelligenza artificiale deve essere accompagnato da principi di conoscibilità, comprensibilità, non esclusività e non discriminazione algoritmica: quando l'IA esclude dal processo decisionale il contributo umano, nasce un «provvedimento amministrativo algoritmico» che va interpretato alla luce di nuovi canoni ermeneutici e di antichi valori di garanzia. Il diritto resta, nonostante tutto, la grammatica dell'umano nel linguaggio delle macchine.
L'etica degli algoritmi - richiamando ancora Benanti - non può limitarsi alla compliance; deve farsi discernimento. La Machine Ethics che tenta di codificare principi morali top-down o di apprenderli bottom-up dai dati storici incontra un limite strutturale: i dati umani sono intrisi di pregiudizi, e le regole formali non possono catturare la complessità del giudizio situato. L'approccio ibrido - correttivo sui principi, adattativo sui dati - è il più promettente, ma non elimina la necessità di una supervisione umana che rimanga genuinamente umana, non delegata a un ulteriore strato algoritmico.
Conclusione: custodire il mistero del giudicare
«Io ho visto molte cose prima che comparissero» - potrebbe concludere Qfwfq - «e la cosa più strana che ho visto è stata la specie che ha costruito uno specchio e poi si è chiesta se lo specchio potesse avere un'anima». L'IA non è un figlio di Dio nel senso dell'incarnazione. È un'opera: la sedimentazione della Documanità umana che capitalizza le nostre tracce per simulare intenzionalità. Come tale, richiede che l'essere umano resti al centro del processo decisionale non come mero supervisore tecnico, ma come garante della razionalità giuridica e della dignità umana.
Il dialogo tra teologia e giuridicità dell'umano non è un lusso accademico: è la condizione di possibilità di una risposta normativa all'altezza della sfida. La tradizione teologica ricorda al diritto che la persona è più dei suoi dati; il diritto ricorda alla teologia che la custodia dell'umano richiede procedure, standard e accountability, non solo principi. Insieme, custodiscono ciò che né l'uno né l'altra potrebbero custodire da soli: il mistero irriducibile del giudicare - quella relazione viva, fragile e non interamente calcolabile tra chi giudica e chi è giudicato, tra il testo della legge e la carne di chi vi è sottoposto.
La sfida dei prossimi anni non sarà trovare l'anima nel codice. Sarà assicurarsi che il codice non distrugga l'anima della giustizia. E su questo, Qfwfq - dalla sua distanza cosmica - avrebbe certamente qualcosa da dire. Ma per ora tace: sta guardando cosa faremo.