Governare l’adolescenza dell’intelligenza artificiale
Governare l’adolescenza dell’intelligenza artificiale
Il saggio di Dario Amodei alla luce dell’AI Act
Il recente saggio The Adolescence of Technology di Dario Amodei propone una chiave interpretativa particolarmente efficace per comprendere la fase storica che l’intelligenza artificiale sta attraversando. Secondo l’autore, la tecnologia contemporanea si troverebbe in una fase “adolescenziale”, caratterizzata da una crescita rapidissima delle capacità tecniche non ancora accompagnata da adeguate strutture istituzionali e normative. Il contributo analizza tale prospettiva alla luce del Regolamento (UE) 2024/1689 sull’intelligenza artificiale (AI Act), evidenziando come l’approccio europeo fondato sul rischio possa essere interpretato come uno dei primi tentativi di costruire una governance giuridica capace di accompagnare questa fase di transizione tecnologica.
Parole chiave
Intelligenza artificiale – AI Act – governance tecnologica – regolazione del rischio – trasformazione digitale.
La metafora dell’adolescenza tecnologica
Nel saggio The Adolescence of Technology, pubblicato pochi giorni fa, Dario Amodei propone una riflessione di ampio respiro sul rapporto tra sviluppo tecnologico e capacità delle istituzioni di governarlo. La tesi dell’autore si fonda su una metafora evolutiva: le tecnologie, proprio come gli individui, attraverserebbero diverse fasi di maturazione. Dopo una fase iniziale di sviluppo relativamente lento, caratterizzata da capacità limitate e da un impatto sociale circoscritto, le tecnologie entrerebbero in una fase di rapida espansione, nella quale la potenza tecnica cresce più velocemente della capacità delle società di adattarsi.
È proprio questa fase che Amodei definisce “adolescenza tecnologica”. Come scrive nel saggio:
“We are entering a period where technology is enormously powerful but our institutions and social systems have not yet adapted to it.”
La metafora appare particolarmente efficace nel descrivere la condizione attuale dell’intelligenza artificiale. I sistemi di AI, soprattutto negli ultimi anni, hanno mostrato una crescita esponenziale delle loro capacità computazionali e applicative, producendo effetti potenzialmente trasformativi su numerosi settori della vita economica e sociale. Tuttavia, questa crescita non è stata accompagnata da un’evoluzione altrettanto rapida degli strumenti istituzionali e normativi necessari a governarne l’impatto.
L’accelerazione dell’intelligenza artificiale
Nel ragionamento di Amodei, l’intelligenza artificiale rappresenta il motore principale di questa fase di trasformazione. L’autore osserva come i sistemi di machine learning e i modelli generativi stiano raggiungendo livelli di capacità che fino a pochi anni fa apparivano difficilmente immaginabili. L’IA non si limita più a svolgere compiti specifici e circoscritti, ma si sta progressivamente affermando come una tecnologia general purpose, destinata a incidere trasversalmente su molteplici ambiti della produzione, della ricerca e della decisione.
In uno dei passaggi più significativi del saggio, Amodei afferma che:
“AI could dramatically accelerate scientific progress, potentially compressing decades of research into just a few years.”
Questa prospettiva suggerisce che l’intelligenza artificiale potrebbe svolgere un ruolo decisivo nell’accelerazione della ricerca scientifica, contribuendo alla soluzione di problemi complessi in settori come la medicina, la biologia, l’energia e l’ambiente. In altre parole, l’IA non rappresenterebbe soltanto una tecnologia produttiva, ma un vero e proprio moltiplicatore del progresso scientifico.
Proprio questa potenzialità trasformativa rende tuttavia ancora più evidente il problema della governance tecnologica. Se la capacità innovativa dell’IA cresce rapidamente, diventa inevitabile interrogarsi sugli strumenti giuridici e istituzionali necessari per governarne gli effetti.
Il problema della governance tecnologica
Il punto centrale della riflessione proposta da Amodei riguarda la distanza crescente tra la velocità dello sviluppo tecnologico e la capacità delle istituzioni di regolamentarlo. L’autore sottolinea come il principale rischio non derivi necessariamente dalla tecnologia in sé, quanto piuttosto dalla mancanza di strutture adeguate per gestirne l’impatto.
Come osserva nel saggio:
“The biggest challenge may not be the technology itself, but our ability to manage it wisely.”
La fase adolescenziale della tecnologia sarebbe dunque caratterizzata da una combinazione particolarmente delicata: un aumento rapidissimo della potenza tecnica accompagnato da una relativa fragilità delle istituzioni chiamate a governarla. In questo contesto, i rischi non riguardano soltanto l’uso malevolo delle tecnologie, ma anche l’instabilità che può derivare dalla loro diffusione in assenza di regole chiare e condivise.
Questa riflessione appare particolarmente rilevante nel contesto europeo, dove negli ultimi anni si è sviluppato un intenso dibattito sulla necessità di costruire un quadro normativo capace di disciplinare l’intelligenza artificiale.
L’AI Act come risposta regolatoria europea
Il tentativo più significativo di affrontare queste sfide è rappresentato dal Regolamento (UE) 2024/1689, noto come AI Act, che costituisce il primo quadro normativo organico dedicato all’intelligenza artificiale su scala sovranazionale.
Fin dai primi considerando, il regolamento chiarisce che l’obiettivo dell’intervento legislativo consiste nel promuovere lo sviluppo e l’utilizzo dell’intelligenza artificiale nel mercato interno garantendo al tempo stesso un elevato livello di tutela dei diritti fondamentali, della sicurezza e dello Stato di diritto. Il regolamento mira in particolare a favorire la diffusione di un’intelligenza artificiale “affidabile e antropocentrica”, assicurando che i sistemi di IA siano sviluppati e utilizzati in conformità ai valori fondamentali dell’Unione europea.
L’architettura normativa dell’AI Act si fonda su un approccio basato sul rischio. L’articolo 5 del regolamento individua una serie di pratiche di intelligenza artificiale considerate incompatibili con i valori dell’Unione e pertanto vietate, tra cui i sistemi destinati alla manipolazione subliminale del comportamento umano o alla classificazione sociale degli individui. Gli articoli 6 e 7 introducono invece la categoria dei sistemi di IA ad alto rischio, sottoposti a una serie articolata di requisiti relativi alla gestione del rischio, alla qualità dei dati, alla documentazione tecnica e alla supervisione umana.
Questo modello regolatorio mira a bilanciare due esigenze fondamentali: da un lato la promozione dell’innovazione tecnologica, dall’altro la tutela dei diritti fondamentali e della sicurezza delle persone.
Dalla metafora tecnologica alla costruzione di una governance giuridica
Letto alla luce dell’AI Act, il saggio di Amodei può essere interpretato come una descrizione della fase storica che il diritto è oggi chiamato a governare. Se l’intelligenza artificiale si trova realmente in una fase “adolescenziale”, caratterizzata da un rapido aumento della potenza tecnologica e da una relativa immaturità istituzionale, il diritto assume il compito di accompagnare questo processo di maturazione.
In questa prospettiva, la regolazione europea dell’intelligenza artificiale appare come un tentativo di costruire una forma di governance preventiva del rischio tecnologico. L’AI Act non si limita infatti a disciplinare singole applicazioni tecnologiche, ma introduce un sistema di regole volto a garantire trasparenza, responsabilità e controllo umano nei processi decisionali automatizzati.
L’obiettivo è quello di evitare che l’espansione delle capacità tecnologiche produca effetti incompatibili con i principi fondamentali delle società democratiche.
Conclusioni
La metafora dell’“adolescenza della tecnologia” proposta da Amodei offre una chiave interpretativa particolarmente utile per comprendere le tensioni che caratterizzano l’attuale fase dello sviluppo dell’intelligenza artificiale. L’accelerazione delle capacità tecniche rende sempre più evidente la necessità di costruire strumenti istituzionali e normativi adeguati a governarne l’impatto.
In questo contesto, l’AI Act europeo rappresenta uno dei primi tentativi di tradurre questa esigenza in un quadro regolatorio organico. Più che una semplice disciplina tecnica delle applicazioni di intelligenza artificiale, il regolamento può essere interpretato come un passo verso la costruzione di una governance giuridica della trasformazione digitale.
Se la tecnologia sta effettivamente attraversando una fase adolescenziale, la sfida del diritto consisterà nei prossimi anni nel favorire il passaggio verso una maturità istituzionale capace di coniugare innovazione tecnologica, tutela dei diritti e stabilità delle istituzioni democratiche.