x

x

La crucialità della governance dell’intelligenza artificiale come nuovo strumento di politica estera dell’Unione europea

The crucial nature of Artificial Intelligence governance as a new European Union foreign policy instrument
I colori delle albe e dei tramonti
Ph. Ermes Galli / I colori delle albe e dei tramonti

Abstract

L’Intelligenza Artificiale (IA) è diventata uno strumento del potere politico e un elemento della diplomazia di uno Stato. L’Unione Europea (UE), tuttavia, affronta l’IA principalmente da un punto di vista economico, sociale e normativo. Questo documento discute del modo in cui l’IA abbia un impatto sul potere geopolitico dell’Unione europea e sulle sue relazioni con altri paesi. Esso presenta possibili scenari per il modo in cui l’IA può cambiare l’equilibrio internazionale del potere e raccomanda all’UE e ai suoi Stati membri di reagire.

Artificial Intelligence (AI) has become a tool of power politics, and an element of state diplomacy. The European Union (EU), however, approaches AI primarily from an economic, social, and regulatory angle. This paper discusses the way that AI impacts the European Union’s geopolitical power and its relationship with other countries. It presents possible scenarios for how AI may change the international balance of power and recommends ways for the EU and its Member States to respond.

 

Sommario

1. Premessa

2. Panoramica delle capacità di IA in Europa

3. Le ripercussioni dei sistemi dell’IA sugli equilibri dei poteri geopolitici globali

4. Un’analisi comparativa delle strategie nazionali di IA in Europa

5. Considerazioni conclusive

 

Summary

1. Introduction

2. An overview of Europe’s AI capabilities

3. The repercussions of AI systems on the balance of global geopolitical powers

4. A comparative analysis of national AI strategies in Europe

5. Concluding remarks

 

1. Premessa

Raccomandazioni chiave:

• L’UE dovrebbe istituire una Commissione europea di sicurezza sull’IA, i cui membri dovrebbero venire scelti tra i diversi Stati membri UE, il settore privato e la società civile. La Commissione dovrebbe analizzare l’impatto dell’IA sulla sicurezza europea e sviluppare raccomandazioni su come affrontare le sfide di sicurezza create dall’IA.

• L’UE dovrebbe istituire un centro europeo di ricerca incentrato sulle questioni relative all’IA che sono di immediata rilevanza per l’Europa. Potrebbe servire da hub per la comunità fiorente di ricercatori europei che lavorano su questi temi in diversi Stati europei. Dovrebbe anche aiutare a educare i politici, per esempio attraverso una breve formazione e un impegno regolare con le istituzioni e i decision-makers.

• L’UE e gli europei dovrebbero lavorare a stretto contatto con gli USA. Lo studio discute alcune difficoltà nella cooperazione transatlantica in materia di IA, ma propone una serie di settori in cui L’UE e gli USA possono lavorare a stretto contatto.

• L’UE dovrebbe continuare a concentrarsi sull’etica e sull’affidabilità dell’IA e lavorare per diffondere ulteriormente questo approccio in altri paesi.

• L’UE dovrebbe incoraggiare gli Stati membri a pubblicare strategie militari di AI, al fine di consentire un’armonizzazione degli approcci. I membri dell’UE che sono membri della NATO e dovrebbero lavorare all’interno di essa per garantire l’interoperabilità tra gli alleati.

Negli Stati Uniti è emersa una tematica che sta diventando sempre più cruciale: l’intelligenza artificiale sarà un elemento caratterizzante la potenza geopolitica, avrà un forte impatto sul risultato della grande competizione di potere tra gli Stati Uniti e la Cina e sull’equilibrio globale del potere più in generale. Nel 2018, il Congresso degli Stati Uniti ha istituito il “National Security Commission on AI”. La relazione finale della commissione è stata pubblicata nel marzo 2021 e ha presentato una strategia per “vincere l’era dell’intelligenza artificiale”; ha poi notato che i sistemi di AI saranno utilizzati per la ricerca del potere[1]. Nell’agosto 2019, l’ex statista e politico statunitense Henry Kissinger, insieme con l’ex CEO di Google Eric Schmidt e l’accademico Daniel Huttenlocher, hanno avvertito in The Atlantic che l’IA potrebbe comportare lo sviluppo di nuove armi, strategie e tattiche militari e quindi minare o annullare l’equilibrio militare esistente[2]. Il Presidente russo Vladimir Putin aderì in anticipo all’idea che “l’intelligenza artificiale è potere”, asserendo nel 2017 che “l’intelligenza artificiale è il futuro, non solo per la Russia, ma per tutta l’umanità. [...] Chi diventa il leader in questa sfera diventerà il sovrano del mondo[3] e il programma AI 2017 di Pechino prevede il sorpasso dell’Occidente entro il 2025[4]. È stata definita come una “corsa globale all’AI”: anche se il termine e l’idea di fondo sono stati criticati da molti esperti[5].

L’Europa, tuttavia, si avvicina a questa nuova sfida in modo diverso: un sondaggio del 2021 ha rilevato che solo l’11% degli Europei considera il rischio derivante dalle tecnologie come una delle principali sfide globali per il futuro dell’UE, mettendola in classifica al penultimo posto tra tutte le opzioni disponibili[6]. Tuttavia, le istituzioni dell’UE sono attive nello spazio digitale; infatti, la Commissione ha proclamato il “decennio digitale”, lavora su una “bussola digitale” e mira a diventare un “player digitale globale”[7]. Nell’aprile 2021, La Commissione ha presentato, inoltre, il primo piano globale per regolamentare l’intelligenza artificiale[8]. C’è il Digital Services Act, il Digital Markets Act, il Digital Decade, la Cyber-Security Strategy, il Data Strategy e altro ancora. Dopo il Regolamento Generale sulla Protezione dei Dati (GDPR), dal 2018, l’UE ha raddoppiato il suo ruolo di regolatore globale sulla tecnologia e vuole prendere il comando globale in quell’ambito. Tuttavia, non vuole impegnarsi nella politica di potere sempre più associata con l’AI. Possono l’Europa e l’UE stare fuori da questa apparente lotta di potere geopolitico per l’IA, ignorare la retorica e concentrarsi sulla regolamentazione? Per quanto possa sembrare allettante, sembra improbabile – e potrebbe essere sconsigliabile – per due ragioni. In primo luogo, la tecnologia è geopolitica. La regolazione dell’AI può sembrare come un soggetto noioso per i burocrati, tuttavia è anche un campo di battaglia geopolitico, così come lo sviluppo tecnologico e l’adozione di tecnologie più in generale. Tagliare i ponti con le aziende tecnologiche degli Stati Uniti, in un momento in cui gli Stati Uniti stanno lottando per la supremazia con la Cina, è un atto geopolitico. Escludere le società cinesi di telecomunicazioni dalle reti europee è una decisione geopolitica. Le azioni dell’Europa hanno conseguenze geopolitiche che vanno oltre l’Unione. Nel processo di definizione delle politiche, tuttavia, questo è spesso trascurato. Fare Policy-making all’interno dell’UE è così complesso che poco tempo o spazio è lasciato per anticipare l’impatto sugli attori esterni. Se l’impatto sugli altri Stati è riconosciuto, di solito facendo riferimento all’effetto Bruxelles, l’idea è che la regolamentazione UE, attraverso il potere di mercato del blocco commerciale, diventa un modello per gli altri[9]. Questo è spesso raffigurato come un effetto automatico, piuttosto che qualcosa che richiede ulteriore riflessione. In generale, c’è poca considerazione circa gli effetti internazionali di secondo e terzo ordine a seguito delle azioni dell’UE.

In secondo luogo, si pensa troppo poco al modo in cui le azioni interne dell’UE influenzano il suo stesso potere geopolitico. Nel corso della storia, la tecnologia ha trasformato le economie e le società, ha ridistribuito il potere (anche militare) tra gli Stati, ha dato potere a nuovi attori e ha modellato le relazioni internazionali. Tuttavia l’UE, nonostante il suo lavoro di regolamentazione, non sembra avere pienamente compreso le tecnologie digitali geopolitiche di oggi, tra cui l’AI. Alla Conferenza sulla sicurezza tenutasi a Monaco di Baviera nel 2020, è stato dolorosamente ovvio che l’UE è stata, nel migliore dei casi, considerata un moderatore tra le due superpotenze odierne, gli Stati Uniti e la Cina[10]. In parte, questo punto cieco geopolitico è dovuto a questioni di competenza dell’UE, ma ancora di più è legata al modo in cui l’UE vede sé stessa – nonostante la retorica più recente parli di un’“unione geopolitica”[11].

L’UE è un’entità trainata dal mercato in cui “l’alta politica”, come la sicurezza e la difesa, è lasciata nelle mani dei suoi Stati membri. Tuttavia gli Stati membri non hanno preso il testimone geopolitico sull’AI. Mentre si può vedere questo come uno dei tanti progressi di civiltà dell’Unione europea, resta il fatto che, mentre l’Europa può non voler pensare alla geopolitica, la geopolitica sta certamente pensando all’Europa. Quindi, anche se l’Europa non vuole aderire alla tematica del potere politico dell’AI politica, o unirsi alla retorica su un “razza dell’AI”, deve prendere in considerazione le implicazioni geopolitiche dell’AI. Deve considerare la dimensione esterna delle sue azioni e come trattare con gli alleati, i partner, i paesi che vuole sostenere e gli avversari. L’UE ha bisogno di un piano per la diplomazia sull’AI.

 

2. Panoramica delle capacità di IA in Europa

Il campo dell’IA ha attraversato diversi cicli di entusiasmo e di delusione, questi ultimi soprannominati “inverno dell’AI”. Il campo sta attualmente godendo di una “primavera dell’AI”, con lo sviluppo dei sistemi di AI e con la loro adozione, significativamente accelerata negli ultimi anni. Ciò è dovuto alla maggiore disponibilità di grandi set di dati e progressi tecnologici, in particolare nelle prestazioni computazionali. Un rapporto del 2017 ha stimato che il 90 per cento dei dati del mondo è stato creato negli ultimi cinque anni. Nello stesso periodo si è assistito alla crescita di quindici volte del numero di sviluppatori di unità di elaborazione grafica (GPU – Graphics Processing Units), i quali costituiscono hardware cruciali per l’AI[12]. Tutt’insieme, questi sviluppi hanno portato ad un aumento significativo della ricerca sull’IA in tutto il mondo, comportando una disponibilità sempre più ampia, in termini di qualità, degli algoritmi in circolazione. Questo, a sua volta, ha generato una maggiore ricerca su ulteriori sistemi di AI. Al momento, i progressi più importanti in campo di AI sono fatti attraverso tecniche di apprendimento automatico (machine learning techniques), in particolare “deep learning” e reti neurali. I sistemi di machine learning utilizzano la potenza di calcolo per eseguire algoritmi che imparano dai data sets[13]. Tre input chiave sono cruciali per l’AI, la “Triade AI” di dati, talento (per sviluppare algoritmi) e potenza di calcolo[14].

Alcuni hanno chiamato l’AI una tecnologia omni-use o general-purpose technology[15], che può essere utilizzata in vari modi, dall’aiutare gli operatori sanitari, all’interpretazione le letture a raggi X, a rendere l’organizzazione dei magazzini più efficiente, sino ad abilitare i sistemi militari o supportare l’analisi dei dati[16]. Data la vasta gamma di applicazioni, è consigliabile pensare all’AI non come un’unica tecnologia, ma come un abilitatore, e parlare di sistemi “AI-enabled”. Nonostante le discussioni su una possibile “super intelligenza”, le applicazioni dell’AI di oggi sono “ristrette”, il che significa che sono state perfezionate per fare un compito specifico, e “fragili”, nel senso che falliscono di fronte a compiti che differiscono leggermente dalla formazione ricevuta. L’Intelligenza Generale Artificiale (AGI), in grado di riprodurre l’intelligenza a livello umano su compiti diversi, rimane nel regno della fantascienza, con notevole disaccordo tra gli esperti sul se e quando l’AGI possa diventare realtà.

La capacità dei sistemi di AI dell’Europa, tuttavia, ha ricevuto diverse critiche negative; Kai-Fu Lee, ex presidente di Google China, sostiene che l’Europa non sia “nemmeno in corsa per la medaglia di bronzo AI[17]. Uno studio del 2019 del Mckinsey Global Institute ha avvertito che “l’Europa sta accumulando un gap in tema di AI al suo divario digitale[18], ha, inoltre, affermato che le aziende europee sono in ritardo rispetto alle loro controparti statunitensi nell’adozione dell’architettura dei big data e delle avanzate tecniche di machine learning, i quali rappresentano i fondamenti dei sistemi di AI. Il rapporto, tuttavia, ha notato qualcosa che ha tormentato la maggior parte di tali studi, vale a dire che “i dati disponibili sulla diffusione sono scarsi”. Infatti, le panoramiche circa lo stato dell’arte dell’IA spesso non presentano nemmeno l’Europa come attore, o si accenna solo ad alcuni Stati europei. Questo potrebbe essere spiegato da barriere linguistiche e il fatto che il numero di Stati europei è alto – ma è anche una testimonianza della mancanza di interesse da parte dell’UE e dei suoi Stati membri per l’argomento e della mancanza di finanziamenti per tali studi. La valutazione delle capacità di AI degli Stati (o gruppo di Stati) è ostacolata da diverse considerazioni su ciò che l’IA comporta, e dal fatto che gli studi spesso si basano su autovalutazioni, che li rendono meno affidabili. I confronti tra gli Stati devono anche essere letti con particolare attenzione, infatti, come diversi paesi hanno diverse industrie dominanti, così i vari sistemi di AI-abilitati non interessano tutte le industrie allo stesso modo. Infine, nel valutare le capacità di AI di uno Stato, si dovrebbe guardare sia all’AI Output e Input. L’output sono le effettive capacità di IA, misurate, ad esempio, nel numero di aziende di IA, o il livello di utilizzo di IA da parte delle imprese[19]. Tuttavia, come sono in fase di realizzazione importanti progressi nel machine learning e nelle altre tecniche di AI, è altrettanto importante studiare gli input[20] nell’ottica di innovazione dell’AI, che può indicare possibili sviluppi futuri.

Questa breve panoramica non pretende di essere una valutazione completa delle capacità di IA dell’Europa. Come precedentemente menzionato, tale valutazione è difficile in ogni caso, data la scarsità di dati disponibili; inoltre questa panoramica ha dimostrato che l’UE ha delle capacità in tema di IA, ma è carente in alcuni settori e non ha un vantaggio così comodo o sicuro in uno qualsiasi di questi. Per quanto riguarda l’Output dell’AI, l’Europa è dietro altri player mondiali, ma sembra ragionevolmente ben posizionata per quanto riguarda l’IA Input. Ancora, l’UE deve affrontare diverse sfide, come mantenere e valorizzare i vari talenti di AI e la costruzione di un ecosistema AI. La panoramica ha anche mostrato che le differenze europee al suo interno sono significative. È fondamentale affrontare queste differenze, così come assumere altre sfide è complicato, per via di un mercato frammentato e per la mancanza di informazioni. La policy europea circa il tema tecnologico richiede un approccio di governo globale che l’UE, in quanto politica ibrida, stenta ad attuare con continuità[21].

 

3. Le ripercussioni dei sistemi dell’IA sugli equilibri dei poteri geopolitici globali

Mentre nell’ambito economico, e in una certa misura anche in Europa, le ripercussioni sociali del crescente utilizzo dell’IA sono state intese, un settore risulta ancora in gran parte ignorato: il modo in cui l’IA influenza la politica globale e l’equilibrio globale del potere, e come l’IA può contribuire a un riordino della politica internazionale. È stato svolto uno studio[22] che mira a sostenere il lavoro dello Special Committee on Artificial Intelligence in a Digital Age (AIDA) fornendo un’analisi dell’impatto geopolitico dell’IA e discutendo circa il modo in cui l’IA ha un impatto sul potere geopolitico dell’Unione Europea e le sue relazioni con altri paesi.

Sono trattate sei aree attraverso le quali l’IA può cambiare l’equilibrio internazionale del potere:

  • Il ruolo dell’IA nella competizione sino-americana.

Joe Biden, in uno dei suoi primi interventi come Presidente degli Stati Uniti, ha affermato che il futuro delle relazioni degli Stati Uniti con la Cina sarà dominato da una “concorrenza estrema”[23]. Nessuno sviluppo geopolitico è probabile che modelli la stabilità globale tanto quanto la concorrenza sino-americana, che avrà, senza dubbio, un impatto diretto sull’Europa. Non a caso l’AI svolge un ruolo importante; Bill Burns, nella sua audizione di conferma per il direttore della CIA, ha notato che la tecnologia è la componente centrale della competizione con la Cina[24]. La Commissione della Sicurezza Nazionale degli Stati Uniti sull’IA ha assunto una posizione simile – la sua relazione finale ha menzionato la Cina ben 699 volte, più di qualsiasi avversario o alleato[25]. Xi Jingping già nel 2013 aveva osservato che “L’avanzamento tecnologico è l’arma tagliente dello stato moderno. Un motivo importante per cui i paesi occidentali sono stati in grado di mantenere un’influenza sul mondo in tempi moderni era che possedevano le tecnologie più avanzate[26]. I riferimenti ad una “corsa (alle armi) AI” tra gli Stati Uniti e la Cina sono diventati così comuni che un intero sottocampo accademico è emerso per affrontare questa tematica.

Mentre sarebbe una semplificazione equiparare le società private e lo Stato cinese (o l’esercito) rispetto agli Stati Uniti, è meno probabile che le società cinesi siano in grado di rifiutare di lavorare con il governo cinese, e lo sviluppo dei privati in campo AI è probabile che avvantaggi in qualche modo lo stesso Stato cinese. Tuttavia, gli esperti hanno sottolineato che le preoccupazioni degli Stati Uniti sul concetto cinese di “fusione civile-militare”, che mira a rendere disponibili i progressi della ricerca dal settore privato allo Stato e all’esercito cinese, potrebbero essere esagerate[27]. Guardando la triade AI di dati, talento e potenza computazionale, si può sostenere che gli Stati Uniti siano leggermente più avanti della Cina. A conti fatti, sia gli Stati Uniti che le aziende cinesi beneficiano dell’accesso ad una quantità significativa di dati. L’utilità di questi data sets, tuttavia, dipende dalla loro qualità e la loro pertinenza per i rispettivi sistemi di AI. Gli utenti Internet della Cina sono più numerosi di quelli di qualsiasi altro paese e per accedere a Internet vengono utilizzati gli smartphones, che tendono a generare dati particolarmente preziosi[28]. I prodotti delle aziende americane, tuttavia, sono utilizzati in tutto il mondo, il che rende i loro dati differenti da un punto di vista qualitativo. La Cina mira a contrastare questo effetto attraverso la vendita dei suoi prodotti, e la raccolta di dati, all’estero[29]. L’accesso della Cina ai dati sul comportamento degli acquisti cinesi potrà consentire alla Cina di sviluppare algoritmi molto buoni che predicono il comportamento dello shopping cinese, ma è improbabile che siano utili a potenziare significativamente la sua ricerca, ad esempio, sul comando e sul controllo militare.

La competizione sino-americana sulla tecnologia presenta distinti elementi che si ripercuotono sulla sicurezza e sulla difesa nazionale. Già nel 2012, il Comitato di Intelligence della Camera degli Stati Uniti aveva etichettato la società cinese Huawei come una grande fonte di preoccupazione per la sicurezza nazionale[30]. La Military AI – sistema AI utilizzato per sviluppare le capacità militari – è probabile che abbia un impatto importante e strategico sugli scenari dei diversi conflitti di guerra, e verosimilmente sull’equilibrio geopolitico del potere. Sia gli Stati Uniti che la Cina finanziano ampiamente i progetti tesi all’utilizzo dell’IA nell’esercito e, nel perseguire tali finalità, queste due superpotenze sono chiaramente focalizzate l’una sull’altra in questo sforzo[31]. La Commissione di Sicurezza Nazionale degli Stati Uniti ha osservato che gli USA necessitavano di “onnipresenti capacità di IA e nuovi paradigmi bellici”, in quanto, senza tali capacità di sistemi IA, “non saranno in grado di difendersi contro le minacce AI-enabled”; a conferma della strategicità dell’avanzamento tecnologico negli Stati Uniti, è in aumento il timore che si crei un gap d’innovazione tra Stati Uniti e Cina – molto simile alle preoccupazioni per un “gap circa i bombardieri” tra Stati Uniti e Unione Sovietica durante la Guerra Fredda[32]. L’esercito cinese, dal canto suo, sta perseguendo una “military intelligentization”, implicante lo sviluppo e l’operatività dell’intelligenza artificiale e l’abilitazione delle relative tecnologie che sono necessarie per la sua realizzazione e per le applicazioni militari[33]; inoltre, gli strateghi e gli scienziati dell’esercito cinese stanno anche intraprendendo una vasta ricerca teorica sull’impatto dell’IA sulla guerra del futuro[34]. La speranza è che lo sviluppo e l’adozione di sistemi AI nel campo militare e della difesa siano una “rara opportunità strategica per [la Cina] [...] di raggiungere un potente esercito, e [...] di superare [le concorrenti]”. È in questo contesto di competizione per la superiorità militare che il fondatore della società di sorveglianza AI Palantir, Peter Thiel, ha criticato le aziende AI americane per il fatto che lavorino in Cina, e per come la loro ricerca, in ultima analisi, potrebbe avvantaggiare l’esercito cinese[35].

Questa breve panoramica delle capacità, dei progetti e delle visioni cinesi e americane per l’IA mostra che i due Stati sono entrambi capaci di disporre di sistemi avanzati di AI – in un contesto sempre più incardinato in una competizione tra loro sull’AI.

Per l’Europa questa concorrenza pone diverse sfide. In primo luogo, un confronto, anche militare, tra le due potenze globali non è chiaramente nell’interesse dell’Europa, sia in riferimento all’AI o riguardo altri temi simili. In ogni caso, al netto di questo scenario, altre sfide incombono; vale a dire, vi è il rischio che emergano sfere di influenza, nei confronti delle quali l’Europa dovrà schierarsi. Un disaccoppiamento sino-americano sta già avvenendo; Nicholas Thompson e Ian Bremmer affermano che “all’alba di una nuova fase della rivoluzione digitale, le due più grandi superpotenze al mondo si stanno rapidamente ritirando in posizioni di isolamento competitivo[36]. Mentre gli Stati Uniti sono rispetto all’Ue il più importante e più stretto alleato, e la Cina un rivale sistemico, la Cina è anche un partner di cooperazione su alcune aree e un partner importante nel commercio. L’Europa, quindi, deve guardare in due direzioni contemporaneamente: “mentre gli Stati Uniti e la Cina sono impegnati in una corsa bilaterale, l’Europa deve affrontare contemporaneamente la sfide derivanti da politiche tecnologiche americane e cinesi, che sono molto diverse tra di loro e che comportano implicazioni politiche altrettanto differenti[37].

  • L’uso di AI per il controllo autoritario e l’indebolimento della democrazia.

La competizione USA-Cina è stata concepita non solo come una competizione per il potere geopolitico e la predominanza, ma anche come una competizione tra (sistemi AI-enabled basati su) autoritarismo e democrazie liberali. Robert O. Work, Vice Segretario della Difesa sia per le amministrazioni Obama che Trump dal 2014 al 2017 e co-presidente della National Security Commission USA sull’IA, sostiene: “Questa competizione tecnologica è molto più una competizione di valori. Sappiamo già come la Cina vuole utilizzare l’IA. Loro vogliono usarla per sorvegliare la loro popolazione, ed usarla per sopprimere le minoranze, non preoccupandosi delle libertà civili e della privacy personale di ogni singolo individuo. E questo tipo di valori sono semplicemente incompatibili con gli Stati democratici di tutto il mondo. Quindi è importante che si lavori per una concreta alleanza di democrazie che cooperino insieme per stabilire le norme e i valori e per implementare quelle piattaforme che riflettano i nostri valori[38]. Work naturalmente si riferisce al livello crescente di sorveglianza ampiamente segnalato in Cina[39]; la preoccupazione è che i sistemi di AI possano essere una potente arma per la diffusione di leggi autoritarie.

Human Rights Watch avverte che le autorità in Cina “conducono la raccolta di massa obbligatoria di dati biometrici, come campioni vocali e DNA, e utilizzano l’intelligenza artificiale e big data per identificare, profilare e tracciare tutta la popolazione in Xinjiang”, casa della minoranza musulmana uiguri[40]. Altrove in Cina, l’idea di un punteggio sociale di credito era stata testata attraverso un “sistema AI-enabled di sorveglianza pervasivo e altamente intrusivo, che tiene traccia tutto il giorno, ogni giorno e che determina in gran parte tutte le vostre possibilità di vita”[41]. Non tutte queste tecniche di sorveglianza sono necessariamente abilitate all’IA o devono esserlo, ma l’IA certamente può contribuire a migliorarle ed efficientarle ulteriormente.

Quanto detto è di immediata preoccupazione per la libertà dei cittadini cinesi. Tuttavia, geopoliticamente parlando, c’è l’ulteriore preoccupazione che potremmo essere in una nuova era di confronto ideologico, simile alla concorrenza tra la democrazia liberale e il comunismo durante la Guerra Fredda[42]. Questa preoccupazione è alimentata sempre più dalla grande esportazione che sta mettendo in atto la Cina dei suoi sistemi di sorveglianza; questa, infatti, ha schierato software di riconoscimento facciale in Zimbabwe e Malesia, ed i servizi di sicurezza etiopici per il monitoraggio delle attività si basano su apparecchiature di telecomunicazione dalla società cinese ZTE[43]. Molti di questi accordi hanno fatto parte della Belt and Road Initiative (BRI) cinese, lo strumento di investimento che la Cina utilizza per finanziare progetti infrastrutturali all’estero[44]. Pechino ha cercato di mitigare tali preoccupazioni, ad esempio attraverso i “Beijing AI Principles” pubblicati dall’Accademia di Pechino dell'Intelligenza Artificiale, che ha stabilito le regole per l’etica, la diversità e l’inclusione dell’AI[45]. Tuttavia, Elsa Kania, un’esperta degli sforzi cinesi in tema di AI, ha notato che era “difficile non sentire un certo grado di dissonanza cognitiva durante la lettura di questi principi di Pechino AI”. Tali preoccupazioni si aggiungono alle preoccupazioni per le più ampie dinamiche della tecnologia digitale che minano la democrazia più in generale, come l’aumento della polarizzazione nei social network, la disinformazione che intacca la coesione sociale e la fiducia dell’opinione pubblica nello stesso sistema democratico, l’ascesa dei media online e delle grandi aziende tecnologiche, che hanno minato il ruolo tradizionale dei media.

  • Il nazionalismo dell’IA.

La competizione tra i principali Paesi per il primato in tema di AI è in crescita, e gli Stati di tutto il mondo – compresa l’Europa – stanno cercando di sostenere il loro ecosistema di IA attraverso investimenti, agevolazioni fiscali e la creazione di piattaforme per lo scambio di conoscenze e altro ancora. Tuttavia, dati i potenziali guadagni associati all’IA – e il timore di potenziali perdite per chi rimane indietro – gli Stati possono avere fondati incentivi per andare oltre nella ricerca. Questo potrebbe gettare le basi per un nuovo tipo di nazionalismo; uno dei più importanti fautori di questa idea è Ian Hogarth, un imprenditore britannico e investitore, il quale in un articolo del 2018 ha avvertito che il “continuo rapido progresso nel machine learning guiderà l’emergere di un nuovo tipo di geopolitica: [...] AI Nationalism”.

Hogarth si preoccupa che oltre alle normali politiche di sostegno nazionale per la ricerca nell’AI e nelle imprese AI, gli Stati potrebbero adottare politiche più controverse e protezionistiche, come ad esempio bloccare le acquisizioni di società nazionali di IA da parte di società straniere per preservare la loro indipendenza; bloccare degli investimenti in società AI nazionali da parte di investitori stranieri; interrompere partnership internazionali, o anche la nazionalizzazione delle società AI nazionali strategiche. Tali tendenze possono essere esacerbate ulteriormente dal fatto che il mondo ha visto la Cina attuare strategie protezionistiche con un certo successo negli ultimi anni.

Un effettivo passaggio al nazionalismo AI non è garantito, ma gli sviluppi recenti dovrebbero tenere tutti all’erta. Il governo britannico sta attualmente valutando se bloccare la vendita di chip per computer da parte di società con sede nel Regno Unito allo specialista americano di chip di grafica Nvidia[46]. Gli Stati Uniti hanno imposto divieti sull’esportazione di chip – e hanno lavorato con forza per convincere le aziende europee, come la società olandese di semiconduttori e di attrezzature ASML, a non esportare più chip in Cina[47]. E le discussioni europee sull’Autonomia strategica (digitale)[48] potrebbero anche essere fraintese come nazionalismo europeo. Mentre queste azioni non sono necessariamente nazionalistiche, tendenze protezionistiche si stanno sviluppando in molte regioni del mondo. Questo potrebbe mettere in pericolo la libera circolazione delle merci e il libero scambio tra le nazioni che per gli Europei e per l’Europa stessa rappresentano benefici particolari – e che creano interdipendenze che possono aiutare a garantire la cooperazione tra le nazioni.

  • Il Contributo dell’IA all’aumento del potere del settore privato rispetto allo Stato.

Il passaggio del potere dallo Stato al settore privato, e in particolare alle grandi imprese tecnologiche, potrebbe diventare uno dei cambiamenti più radicali e determinanti nel funzionamento della politica in questo secolo. Questo sviluppo è legato alla crescita delle tecnologie digitali più in generale, ma l’IA può esacerbarlo ulteriormente, spingendolo potenzialmente all’estremo, attraverso la determinazione dell’Intelligenza Generale Artificiale (AGI). Mentre negli ultimi decenni, nel mondo occidentale, una parte significativa della ricerca è stata fatta da Stati finanziatori (negli Stati Uniti, in particolare i laboratori finanziati dai militari) e le università, ad oggi, la ricerca sull’AI si sta sviluppando nelle imprese private. Kate Crawford è arrivato fino a dire che “l’AI ha cominciato come un grande progetto pubblico del XX secolo ed è stato implacabilmente privatizzato per produrre enormi guadagni finanziari per una piccola minoranza in cima alla piramide di estrazione[49]. Se gli sviluppi dell’IA da parte del settore privato avvantaggiano direttamente uno Stato, o il suo esercito, dipende da un varietà di fattori; inoltre, il rapporto tra il settore privato e lo Stato diverge in base al paese e alla regione del mondo che si considera. Nel mondo occidentale, il settore privato tende ad essere indipendente dal governo, anche se ci sono diversi settori di cooperazione. Altrove, la separazione potrebbe essere meno chiara. Ciò che è chiaro è che l’aumento della tecnologia digitale ha portato a un significativo aumento del potere del settore privato, che lo ha portato a rivaleggiare con il potere degli Stati.

Il New York Times calcola che “le dieci più grandi imprese tecnologiche, che sono diventate guardiane del commercio, della finanza, dell’intrattenimento e delle comunicazioni, ora hanno una capitalizzazione di mercato combinata di oltre $ 10 trilioni di dollari. In termini di prodotto interno lordo, li classificherebbe come la terza più grande economia del mondo[50].

L’aumento del potere delle imprese private solleva diverse sfide: in primo luogo, significa che lo Stato ha meno incidenza per influenzare la direzione della ricerca in modo che sia utile per questo. Un recente studio di ricerca AI presso le principali aziende statunitensi ha avvertito che “il settore privato potrebbe non essere in grado di fare investimenti nella ricerca che garantiscano la competitività nazionale a lungo termine. Per nessuna delle aziende leader esaminate in questa analisi sembra essere la priorità il lavoro su aree problematiche all’interno della tematica del machine learning che compenserà le più ampie sfide strutturali che gli Stati Uniti si trovano ad affrontare nell’attuazione della tecnologia e nella competizione contro i regimi autoritari[51]. In secondo luogo, la capacità delle grandi aziende tecnologiche di influenzare e modellare la politica è in costante aumento. Al di là del solito lobbying, aziende come Google o Facebook possono raggiungere più persone rispetto alla maggior parte delle comunicazioni ufficiali. Nel 2012, il Congresso degli Stati Uniti ha preso in considerazione la proposta di legge “Stop Online Piracy Act”, legislazione alla quale Google si è opposta in quanto avrebbe messo in pericolo il suo modello di business. Come Jamie Bartlett racconta, “ha usato il suo status di prima pagina dell’Internet per lasciare che questa tematica venisse conosciuta. Per 24 ore i visitatori del sito hanno trovato una scatola nera gigante sopra il logo di Google e un link: ‘Dite al Congresso – per favore non censurare il web’. Cliccandoci sopra, si veniva reindirizzati a una petizione che esortava il Congresso a respingere il disegno di legge. Nessuna azienda è mai stata in grado di raggiungere più persone ed in maniera così rapida. Milioni sono stati i clic al link che, naturalmente, hanno travolto i server del Congresso. Come è facilmente intendibile, il disegno di legge non è andato a buon fine”[52]. Nell’UE, non esistono imprese delle dimensioni del GAFAM[53], ma la portata del GAFAM (e potenzialmente delle BAT[54]) si estende ben oltre i loro paesi di origine; il potere delle aziende implica anche che la regolamentazione di alcune delle loro pratiche più problematiche, come il capitalismo di sorveglianza, siano una sfida da prendere seriamente in considerazione[55].

Per il settore militare, questo spostamento del potere e dell’innovazione dallo Stato al settore privato è stato particolarmente problematico. L’inizio della moderna AI è stato almeno in parte finanziato dai militari: il Summer Research Project on Artificial Intelligence, svoltosi al Dartmouth College nel 1956, viene da molti considerato il propulsore del moderno sviluppo dell’IA; esso è stato finanziato dall’Ufficio di Ricerca Navale degli Stati Uniti, che coordina, esegue e promuove i programmi scientifici e tecnologici della Marina degli Stati Uniti e Marine Corps[56]. La revisione strategica francese del 2017 ha affermato che mentre “in passato le maggiori scoperte nel settore degli armamenti sono state il risultato di finanziamenti dedicati alla R&S militare [...] il settore pubblico e quello privato stanno generando un numero sempre crescente di tecnologie con applicazioni militari[57]. Pertanto, l’esercito ha meno voce in capitolo e riveste il ruolo di cliente, piuttosto che guidare e indirizzare l’innovazione tecnologica. Una dimostrazione sorprendente del cambiamento di potere ha avuto luogo nel mese di dicembre 2015, quando il Governo degli Stati Uniti, a seguito di un attacco terroristico in California, voleva entrare in uno degli iPhone dei terroristi, ma non ha potuto farlo – in quanto il produttore del telefono, la Apple, si è rifiutata di inchinarsi alle pressioni subite nel fornire la back door del sistema operativo del telefono. Alla fine, l’FBI ha dovuto assumere una società privata israeliana, che ha usato una tecnologia sconosciuta alla stessa FBI per decifrare il codice telefonico[58]. Inoltre, in seguito al rifiuto dei dipendenti di Google alla cooperazione della società con il Pentagono negli Stati Uniti, anche in Europa potrebbero verificarsi casi in cui le aziende tecnologiche potrebbero non voler lavorare con i militari, per ragioni etiche o economiche, indebolendo ulteriormente l’accesso dei militari alla tecnologia all'avanguardia.

  • L’impatto dell’IA sul potere militare e sul settore della difesa.

Ci sono stati diversi momenti nella storia in cui la guerra è cambiata a causa dell'introduzione e dell’uso innovativo di una nuova tecnologia militare. Dalla balestra alla polvere da sparo, dai carri armati alle armi nucleari; quando le nuove tecnologie sono state introdotte e utilizzate con nuove modalità, hanno sempre avuto un impatto fondamentale sul modo in cui si è svolta la guerra, nel modo in cui si sono organizzati i militari e si sono sviluppate le tattiche e le strategie militari. Tali momenti sono stati chiamati “rivoluzioni militari” e vi è un’ampia letteratura e successive discussioni sulle rivoluzioni passate, su come e quando le nuove tecnologie provocano rivoluzioni, e quante di queste hanno avuto luogo in passato. Alcune di esse hanno avuto ripercussioni sulla società in modo più ampio: la balestra ha equiparato i soldati a piedi con i cavalieri, rovesciando così l’equilibrio sociale; la bomba nucleare ha cambiato radicalmente le valutazioni strategiche delle grandi potenze e ha colpito la vita di milioni di persone per decenni.

L’intelligenza artificiale nel settore militare e della difesa spesso ruota attorno a discussioni su armi letali autonome, o “robot killer”. Tuttavia, le funzioni e le implicazioni che l’IA può comportare per sostenere il settore militare sono molteplici: dalla logistica alle armi autonome, alla guerra informatica e alla disinformazione, includendo anche i sistemi offensivi e difensivi ed i sistemi di supporto per la prima linea. Le nuove armi tecnologiche possono avere un impatto cruciale e determinante sulla forza militare relativa ad un Paese o per un’alleanza con questo, potrebbero richiedere, ad esempio, la riassegnazione dei fondi, lo sviluppo e il finanziamento di nuovi settori di ricerca e sviluppo, o la creazione di una nuova strategia militare o delle tecniche di addestramento. Gli esperti concordano sul fatto che l’IA sarà sempre più utilizzata nel settore militare e che tale inclusione avrà importanti implicazioni; le valutazioni sul tipo di implicazioni, tuttavia, vanno da affermazioni massimaliste, secondo cui l’AI può “alterare la natura immutabile della guerra”[59] o che l’AI cambierà “l’essenza psicologica delle questioni strategiche”, apportando cambiamenti limitati nella tecnologia degli armamenti[60]. Negli ultimi anni, la lettura massimalista ha preso piede negli Stati Uniti in particolare. La Commissione di sicurezza nazionale degli Stati Uniti sull’AI sostiene che gli Stati Uniti “non saranno in grado di difendersi contro le minacce AI-abilitate senza onnipresenti capacità di IA e nuovi paradigmi di combattimento[61]. Impedire l’uso militare espanso dei sistemi AI è probabilmente impossibile[62]. Fare previsioni su dove l’AI avrà il più grande impatto sui sistemi o sulle operazioni militari è uno sforzo difficile. In primo luogo, fare previsioni su non solo il probabile sviluppo della tecnologia militare, ma soprattutto sul suo impatto sulla guerra e oltre è reso difficile dal fatto che ciò che è importante per l’impatto di una tecnologia militare non sono solo le capacità della tecnologia, ma come viene utilizzata questa tecnologia[63]. Affinché le nuove tecnologie abbiano un impatto concreto, queste devono essere sviluppate al meglio. I carri armati sono stati portati sul campo di battaglia già nel 1916, tuttavia ci sono volute la seconda guerra mondiale e la dottrina Blitzkrieg per mostrare il loro potenziale militare; la Wehrmacht tedesca ha sviluppato un nuovo modo di utilizzare i loro carri armati in combinazione con le radio e come unità indipendenti, permettendo in questo modo di rompere le difese francesi in pochi giorni.

Per quanto riguarda l’IA militare, non sappiamo ancora quali dottrine – così come quali cambiamenti organizzativi e nuovi regimi di formazione – ci saranno e quale impatto avranno. Inoltre, l’IA è ancora in fase di sviluppo, con nuovi metodi ancora in fase di invenzione e importanti miglioramenti in corso. Pertanto, fare dichiarazioni definitive sull’impatto sui sistemi militari è difficile. Siccome la maggior parte del lavoro più innovativo sull’IA non è fatto da e per i militari, ma si sviluppa nel settore civile, diventa ancora più difficile valutare quali sviluppi tecnologici saranno probabili ed in che tempi. Questo è reso ancora più difficile dal fatto che l’IA può essere utilizzata in diversi sistemi militari. Infine, parallelamente allo sviluppo dell’IA, stanno maturando diverse altre tecnologie, molte delle quali sono rilevanti per il settore della difesa, come il calcolo quantistico, la stampa 3D o i sistemi ipersonici. Queste tecnologie interagiscono tra di loro, rendendo più difficile fare dichiarazioni precise sul loro sviluppo. Come nel settore civile, è consigliabile considerare l’IA come uno strumento determinante nel settore militare, piuttosto che definirla come una semplice tecnologia. I sistemi di AI sono di notevole interesse per i militari, in quanto potrebbero migliorare l’efficienza dei costi, la velocità, lo stealth; potrebbero contribuire a proteggere gli esseri umani dalle minacce o alleviare la pressione psicologica e fisica e potrebbero offrire nuove capacità militari. Suddetti sistemi possono esser impiegati in settori come l’intelligence, sorveglianza, ricognizione, logistica, operazioni cyber, comando e controllo, veicoli autonomi e sistemi d’armi all’avanguardia, armi nucleari e disinformazione; tutti questi ambiti strategici e fondamentali per il settore militare di un Paese che abbia intenzione di predominare sullo scenario geopolitico internazionale.

  • La possibilità di uno sviluppo di Artificial General Intelligence (AGI) con un potenziale molto ampio di ripercussioni.

L’Intelligenza Generale Artificiale (AGI), o “AI forte”, descrive l’AI in grado di capire o imparare qualsiasi compito intellettuale che un essere umano può compiere. Alcuni autori hanno anche utilizzato il termine di “Super intelligenza” per descrivere un’AI che supera l’intelligenza umana in ogni compito affidatole[64]. Inoltre, un AGI avrebbe uguali superpoteri, ad esempio, nel settore economico, e sarebbe quindi in grado di leggere perfettamente e trarre profitto dal mercato azionario. L’AGI sarebbe anche superumanamente abile nello sviluppo tecnologico: “sarebbe in grado di fare ricerca e sviluppo simultaneamente in centinaia di sottocampi tecnici e implacabilmente combinare le idee tra i vari campi. Lo sviluppo tecnologico umano cesserebbe e le tecnologie dell’AI diventerebbero rapidamente onnipresenti”, potendo letteralmente rendere gli esseri umani obsoleti.

Il vantaggio comparato dell’umanità rispetto al resto della specie terrestre non sta nella nostra forza, ma nel nostro cervello: “dovremmo temere le entità che sono in grado di batterci al nostro gioco. È l’intelligenza che fa parte dell’AI che dobbiamo temere. Se le macchine possono superarci e ci superano nei campi della dominazione umana – economia, politica, scienza, propaganda – allora abbiamo un problema serio[65]. L’emergere dell’AGI non dovrebbe essere scartato come appartenente al mondo della fantascienza, in quanto suona come improbabile. OpenAI, una società statunitense AI dietro il modello di linguaggio GPT-3, ha come obiettivo dichiarato lo sviluppo della “ricerca, scoperta e attuazione di un percorso verso un’intelligenza artificiale generale sicura”[66]. In un grande sondaggio tra gli esperti di machine-learning trovato nel 2018, i vari ricercatori hanno ritenuto che ci sia un 50% di probabilità che l’AI superi in performance gli esseri umani in tutti i compiti entro 45 anni[67]. In un altro sondaggio, i cui risultati erano simili, gli esperti hanno stimano che “la possibilità che questo sviluppo si possa rivelare dannoso o ‘estremamente dannoso’ per l’umanità è di circa uno su tre”[68].

Questi “esiti negativi” per l’umanità avrebbero anche implicazioni geopolitiche – e, tra l’altro, alcuni non richiederebbero nemmeno l’effettiva comparsa dell’AGI. L’AGI potrebbe creare un rischio esistenziale per l’umanità[69]. La preoccupazione principale non è quella di trasformare l’AGI in un male, ma piuttosto, il rischio che potrebbe derivare da una mancanza di “allineamento del valore” – l’AGI non ha bisogno di motivi umanistici o valori[70]. Un’AGI incaricata di produrre graffette potrebbe finire per divorare tutte le risorse sulla terra per produrre graffette. Un’AGI incaricata di risolvere il cambiamento climatico potrebbe finire per uccidere tutti gli esseri umani e ciò porrebbe effettivamente fine al cambiamento climatico causato dall’uomo. Considerazioni come queste hanno influenzato il campo della sicurezza dell’IA ed è in corso la ricerca da parte delle imprese AI di metodi per garantire l’allineamento del valore per l’IA in fase di sviluppo, compresa l’IA inferiore all’AGI[71]. Affermazioni come quelle di cui sopra potrebbero contribuire ad un’altra preoccupazione geopolitica relativa ad AGI – una che molto probabilmente non dipende dall’effettiva materializzazione dell’AGI. Vale a dire, preoccupazioni, o solo voci, per l’imminente emergenza dell’AGI potrebbero creare un dilemma di sicurezza, se uno Stato dovesse credere che un avversario è prossimo alla creazione di un AGI, potrebbe considerare l’eventualità di colpirlo preventivamente, al fine di anticipare l’aumento di potere associato al possesso di tale tecnologia.

 

4. Un’analisi comparativa delle strategie nazionali di IA in Europa

Gli sforzi dei politici europei per far fronte al rapido ritmo dello sviluppo dell’IA sono passati attraverso diverse fasi nel corso degli ultimi anni: la prima fase è stata caratterizzata da una certa incertezza su cosa fare del rapido e apparentemente rivoluzionario sviluppo nel campo dell’AI. Questa fase è durata fino a circa il 2018 – anche se, in alcuni Stati europei, e circa alcune questioni, permane ancora dell’incertezza[72]. La seconda fase è consistita in numerosi sforzi per inquadrare le nuove sfide politiche dell’AI e per affrontarle a livello nazionale. Nel dicembre 2018 con il “Piano coordinato sull’intelligenza artificiale”, la Commissione europea ha incoraggiato gli Stati membri a sviluppare strategie nazionali per l’IA entro la metà del 2019[73]. Da maggio 2021, ventuno Stati membri hanno pubblicato le loro strategie politiche in cui identificano le aree di interesse, sviluppano raccomandazioni e decidono sulle priorità di finanziamento. Le diverse strategie differiscono in diversi aspetti; la strategia più breve sull’IA è quella dell’Estonia di 10 pagine, la più lunga con 152 pagine è quella presentata dalla Francia; la Finlandia ha già pubblicato ben due strategie sull’IA, mentre alcuni paesi dell’UE non ne hanno ancora pubblicata nemmeno una. Inoltre, quattro Stati membri hanno scelto di pubblicare le loro strategie esclusivamente nella loro lingua nazionale. Una caratteristica unificante è che molte di queste strategie sono sorprendentemente ambiziose. La Repubblica Ceca, per esempio ha fissato l’obiettivo di diventare “un modello per i paesi europei per l’IA”. L’obiettivo del governo svedese, invece, è “di rendere la Svezia un leader nel saper sfruttare le opportunità che l’uso dell’AI può offrire”. Il Portogallo, dal canto suo, mira ad essere “in prima linea nell’educazione all’intelligenza artificiale per tutti” entro il 2030, e la Danimarca vuole essere “in testa alla classifica per uno sviluppo responsabile e per il conseguente utilizzo dell’intelligenza artificiale”. Anche i piccoli Stati come Malta mirano ad essere il “definitivo trampolino di lancio per l’AI”; il Lussemburgo vuole essere un “precursore digitale”.

Ciò che si evince da questo scenario è che le diverse strategie nazionali sull’AI sono viste principalmente attraverso obiettivi da raggiungere; inoltre, quasi tutte le strategie sono scritte da o sotto la guida dei diversi Ministeri dell’economia o, meno spesso, dei Ministeri dell’innovazione. All’interno di questo campo, quindi, le strategie nazionali discutono un’ampia gamma di argomenti, in particolare lo sviluppo dell’IA, la sua adozione ed i principi dell’IA.

Per quanto riguarda la ricerca sull’IA, vi è accordo sull’importanza della cooperazione internazionale ed europea, soprattutto per gli Stati più piccoli. La strategia del Lussemburgo, per esempio, osserva che “le opportunità per il paese di sviluppare una ricerca fondamentale in tema di AI, sono limitate”. La sua soluzione, aggiunge dicendo che: “Il Lussemburgo potrebbe diventare parte di un hub transfrontaliero all’avanguardia per un ricerca, ai massimi livelli di eccellenza, applicata sull’IA”. Tuttavia, anche gli Stati più grandi considerano cruciale la cooperazione in materia di ricerca: la Germania formerà un polo europeo dell’innovazione che fornirà finanziamenti per progetti di ricerca cooperativa nei prossimi cinque anni. La Francia e la Germania hanno inoltre convenuto di costruire un centro comune virtuale di ricerca e sviluppo. Infine, un argomento che appare in tutte le strategie nazionali di AI in tutta Europa è l’etica per l’IA. L’AI Etica, o l’IA “affidabile” è un tema che l’Unione Europea ha definito fin dall’inizio come un settore di primario interesse e di lavoro, mettendosi pubblicamente in prima linea nei confronti della questione etica[74]. La Commissione europea ha creato un “High-Level Expert Group on AI”, che nell’aprile 2019 ha pubblicato le proprie linee guida etiche per un’intelligenza artificiale affidabile, seguita da una politica di investimenti e raccomandazioni per un’intelligenza artificiale affidabile[75]. L’intelligenza artificiale etica non è solo una preoccupazione per le istituzioni dell’UE: il timore per l’utilizzo non etico dell’AI o di un suo abuso è una preoccupazione condivisa in tutta l’Unione, che vede ogni strategia nazionale sull’AI, pubblicata dagli Stati membri, come la Danimarca e la Lituania, identificare le norme etiche come la loro prima priorità[76].

Sorprendentemente, inoltre, le diverse strategie in gran parte ignorano il tema dell’implicazione geopolitica dell’intelligenza artificiale, dell’impatto della AI sulla stabilità internazionale, sulla cooperazione internazionale, e dell’utilizzo dell’IA nel settore militare; con pochissime eccezioni, gli Stati europei non si sono impegnati ad affrontare le sfide poste dalle modalità in cui lo sviluppo e l’adozione dei sistemi di IA potrebbero provocare un impatto sull’equilibri internazionali[77].

Delle 21 strategie nazionali di IA, solo una manciata di queste affronta e discute il tema delle implicazioni militari di AI. Anche gli stati più grandi come l’Italia, il quinto più grande investitore nell’ambito di difesa della NATO, non si impegnano con il tema delle applicazioni militari dell’IA e non si curano di cosa possano significare per il futuro delle operazioni militari o per l’interoperabilità delle alleanze. Se gli elementi militari di AI sono menzionati, è fatto di sfuggita, come ad esempio nella strategia tedesca, che trasferisce la responsabilità di questo settore al Ministero della difesa, affermando che sarà suo il compito di sviluppare la ricerca sulle applicazioni AI, in particolare per la protezione di sicurezza esterna e a fini militari.

La maggior parte delle strategie nazionali non menzionano affatto l’IA militare e pochissimi notano le conseguenti sfide geopolitiche. Su questo, la strategia francese di AI è un’eccezione; infatti, questa si fonda e trova giustificazione dalle preoccupazioni geopolitiche scaturenti. Si afferma che “la Francia e l’Europa devono garantire che le loro voci siano ascoltate e devono fare del loro meglio per rimanere indipendenti. Ma c’è molta concorrenza: gli Stati Uniti e la Cina sono all’avanguardia di questa tecnologia e i loro investimenti superano di gran lunga quelli fatti in Europa”. La strategia avverte, inoltre, che “la Francia e l’Europa possono già esser considerate come delle Cyber colonie per molti aspetti”. La strategia nazionale francese identifica anche i sistemi di difesa basati sull’AI come uno dei quattro settori strategici della politica industriale.

Si discute a lungo di come gli Stati Uniti siano in grado di utilizzare le nuove tecnologie nel settore militare e cosa l’Europa possa imparare da questa esperienza; più sorprendentemente, la Francia è anche l’unico paese nell’UE che ha pubblicato una strategia dedicata all’AI nel settore militare[78]. Oltre alla Francia, anche i Paesi Bassi stanno mostrando un crescente interesse per l’IA militare, un’altra strategia militare per l’AI si dice sia stata elaborata dal Ministero della Difesa olandese, ma deve ancora essere pubblicata. La strategia nazionale olandese sull’AI prende atto delle opportunità offerte dall’applicazione di questa nel campo del supporto decisionale militare, della raccolta di informazioni, dei dati analisi, e della reattività accelerata nella difesa del territorio olandese[79]. Altri Stati membri dell’UE che, almeno inizialmente, sembrano riconoscere l’impatto dell’IA sul settore militare e della difesa sono l’Ungheria, la Svezia e la Lettonia; in molti paesi, però, i funzionari sembrano non disponibili a discutere dell’argomento, a meno che l’attenzione non sia su come vietare i sistemi di armi autonome letali (lethal autonomous weapon systems – LAWS)[80].

 

5. Considerazioni conclusive

L’Intelligenza Artificiale (IA) è diventata ormai uno strumento del potere politico e un elemento della diplomazia di uno Stato. L’Unione europea, tuttavia, affronta l’IA principalmente da un punto di vista economico, sociale e normativo. C’è un ampio consenso sul fatto che l’intelligenza artificiale plasmerà il futuro. L’uso di tecnologie di tipo machine learning promette di rivoluzionare molti settori, trasformare le imprese e il mercato del lavoro e cambiare il modo di fare la ricerca. Ciò è ben inteso in Europa e in tutto il mondo; infatti, gli Stati dell’UE stanno lavorando su come rafforzare il loro ecosistema di IA, integrare l’IA nel settore privato e sostenere l’uso dell’IA nel settore pubblico. Le istituzioni dell’UE stanno lavorando alla regolamentazione dell’IA, da ultimo proponendo il primo piano globale al mondo per regolare l’intelligenza artificiale[81], nonché concentrandosi su un’IA affidabile ed etica. Purtroppo, mentre in economia, e in una certa misura in Europa, le ripercussioni sociali del crescente utilizzo dell’IA sono intesi, un settore risulta ancora in gran parte ignorato: il modo in cui l’IA influenza la politica globale e l’equilibrio globale del potere e come l’IA può contribuire a un riordino della politica internazionale[82].

L’Europa sta lavorando per sviluppare l’intelligenza artificiale, e, nonostante alcuni ostacoli, i diversi Stati membri sono ragionevolmente sulla strada giusta per sostenere la ricerca e lo sviluppo dei sistemi di IA, nonché per l’adozione di sistemi abilitati per l’IA. Le sfide sono reali ed impellenti e devono essere affrontate sia dai governi nazionali che dall’UE, i quali devono saper andare oltre le differenze interne all’Europa. L’UE deve affrontare alcune sfide specifiche, attraverso una politica ibrida, che non ha certamente le stesse capacità di quella delle singole nazioni, ma che riunendo, invece, diverse nazioni, con lingue e culture differenti, non fa ritenere vi siano ragioni fondamentali per cui l’Europa non dovrebbe essere in corsa “per la medaglia di bronzo” o più, in questa “corsa all’AI”.

È, dunque, di fondamentale importanza che l’UE incoraggi il dibattito e finanzi la ricerca europea sugli elementi geopolitici del l’AI, in quanto il punto di vista europeo in materia rimane ad oggi ancora sottostimato. A testimonianza del predominio del pensiero americano in questo campo, e a testimonianza della relativa scarsità di pubblicazioni ufficiali europee, basti pensare al fatto che per approcciarsi alla materia punto di riferimento è la relazione che la National Security Commission on AI degli Stati Uniti ha pubblicato all’inizio del 2021. La Commissione, trattando molti dei punti sollevati dalla relazione, ha anche citato molti studi statunitensi, in particolare le analisi effettuate dal Center for Security and Emerging Technologies (CSET), un centro di ricerca della Georgetown University fondato nel 2019 con il supporto di istituzioni filantropiche e aziende tecnologiche statunitensi. Ciò può essere sorprendente in uno studio sull’interesse geopolitico europeo e sui problemi di sicurezza europei legati all’IA, allo state dell’arte questo predominio della ricerca statunitense è un problema non indifferente per l’Europa.

Naturalmente, gran parte dell’analisi statunitense si applica all’Europa e ad altri alleati, pertanto merita di essere presa in considerazione, ma se l’Europa non affronta questi temi da un punto di vista prettamente europeo, lascia il potere interpretativo agli altri. Il modo in cui gli Stati Uniti concepiranno il dibattito sarà più favorevole agli interessi degli stessi Stati Uniti e questi interessi non saranno sempre perfettamente in linea con gli interessi europei.

In secondo luogo, questa dinamica rischia anche di focalizzare l’attenzione su quelle minacce che sono in primo luogo minacce agli Stati Uniti, il che significa che vi è il rischio che le minacce agli interessi e alla sicurezza europei rimangano sotto traccia se l’Europa non comincia ad assumersene la responsabilità. La comunità di sicurezza degli Stati Uniti è focalizzata principalmente sulla Cina; la relazione della Commissione sull’AI menziona la Cina 699 volte, il CSET traduce regolarmente importanti documenti in lingua cinese rilevanti per la strategia AI della Cina[83]. Altri attori, come la Russia, attirano meno attenzione, infatti la relazione della Commissione menziona la Russia solo 64 volte[84]. Per la sicurezza europea, tuttavia, i piani, le azioni e le capacità russe sono almeno altrettanto importanti. Inoltre, alcune questioni relative ai cambiamenti di potere geopolitici e militari causati dall’IA sono meno rilevanti per gli Stati Uniti, ma altamente rilevanti per gli europei. Ad esempio, l’impatto che i sistemi militari basati sull’IA potrebbero avere sugli Stati più piccoli è di importanza cruciale e di grande interesse per gli europei e merita un’attenzione notevolmente maggiore, che può avvenire solo attraverso la ricerca europea.

Pertanto, l’auspicio è che vi sia la creazione di un istituto di ricerca europeo specificamente incentrato sugli impatti geopolitici e di sicurezza dell’IA e che vi sia anche l’istituzione di una Commissione europea per la sicurezza sull’intelligenza artificiale. L’idea non è quella di copiare le istituzioni americane, o il loro approccio, ma piuttosto di prendere esempio e fare in modo che funzioni per l’Europa. L’istituto europeo di ricerca potrebbe concentrarsi su questioni di immediata rilevanza per l’Europa, oppure potrebbe fungere da centro per la fiorente comunità di ricercatori europei che lavorano su questi temi in diversi Stati europei, e consentire loro di scambiare il loro lavoro e cooperare, e mitigare così il fenomeno della fuga di cervelli europei verso altri Stati extra-Ue. Potrebbe anche aiutare a formare i responsabili della politica monetaria, ad esempio attraverso brevi corsi di formazione e un impegno regolare con le istituzioni e i decisionmakers.

La commissione europea per la sicurezza sull’intelligenza artificiale dovrebbe riunire esperti europei di alto livello, responsabili politici e rappresentanti del settore privato; dovrebbe mirare ad avere una rappresentanza paneuropea, consentendo in tal modo di esprimere opinioni europee diverse e di plasmare i messaggi principali. È importante sottolineare che il suo mandato dovrebbe essere specificamente quello di studiare e formulare raccomandazioni sulle preoccupazioni europee in materia di sicurezza relative all’IA. Sia l’Istituto di ricerca che la Commissione potrebbero, quindi, raggiungere partner al di fuori dell’Europa, contribuendo al raggiungimento degli obiettivi indicati[85].

La tecnologia è, alla luce di quanto esposto, sinonimo di geopolitica. L’intelligenza artificiale è diventata un elemento di grande competizione per il potere e questa è la realtà che l’Unione europea e i suoi Stati membri devono affrontare. L’IA è destinata ad influenzare l’equilibrio globale del potere e le relazioni tra gli Stati, così come la geopolitica più in generale. L’UE deve prendere sul serio questa sfida e impegnarsi con i cambiamenti delineati; deve considerare la dimensione esterna della sua azione e le modalità con cui tratta con gli alleati, i partner, i paesi che vuole sostenere e gli oppositori. È giunto il momento che l’Europa dedichi più tempo, sforzi e, in ultima analisi, fondi per garantire che l’Europa benefici delle sfide internazionali che l’IA sta introducendo, mitigando nel contempo gli aspetti negativi di questo sviluppo.

 

[1] US National Security Commission on Artificial Intelligence, Final Report, March 2021, https://reports.nscai.gov/final-report/table-ofcontents/.

[2] Henry A. Kissinger, Eric Schmidt, and Daniel Huttenlocher, The Metamorphosis, The Atlantic, August 2019:

https://www.theatlantic.com/magazine/archive/2019/08/henry-kissinger-the-metamorphosis-ai/592771/.

[3] James Vincent, Putin says the nation that leads in AI ‘will be the ruler of the world’, The Verge, 4 September 2017:

https://www.theverge.com/2017/9/4/16251226/russia-ai-putin-rule-the-world.

[4] Sophie-Charlotte Fischer, Artificial Intelligence: China’s High-Tech Ambitions, CSS Analyses in Security Policy N. 220, February 2018:

https://css.ethz.ch/content/dam/ethz/special-interest/gess/cis/center-for-securities-stuies/pdfs/CSSAnalyse220-EN.pdf; Dewey Murdick, Daniel Chou, Ryan Fedasiuk, Emily Weinstein, The Public AI Research Portfolio of China’s Security Forces. A High-Level Analysis, C SET, March 2021:

https://cset.georgetown.edu/research/the-public-ai-research-portfolio-of-chinas-security-forces/.

[5] Peter Thiel, Good for Google, Bad for America, New York Times, 1 August 2019, https://www.nytimes.com/2019/08/01/opinion/peter-thiel-google.html; Paul Scharre, Killer Apps. The Real Dangers of an AI Arms Race, Foreign Affairs, May/June 2019:

https://www.foreignaffairs.com/articles/2019-04-16/killer-apps; Franz-Stefan Gady, Elsa B. Kania on Artificial Intelligence and Great Power Competition, The Diplomat, 31 December 2019:

https://thediplomat.com/2020/01/elsa-b-kania-on-artificial-intelligence-and-great-power-competition/; FLI Podcast: Beyond the Arms Race Narrative: AI & China with Helen Toner & Elsa Kania, Future of Life Institute, 30 August 2019:

https://futureoflife.org/2019/08/30/fli-podcast-beyond-the-arms-race-narrative-ai-china-with-helen-toner-elsa-kania/.

[6] Special Eurobarometer 500 – First Results, European Union, 2021:

https://www.europarl.europa.eu/at-your-service/files/beheard/eurobarometer/2021/future-of-europe-2021/en-report.pdf.

[7] The Digital Compass, European Union, https://digital-strategy.ec.europa.eu/en/policies/digital-compass; Brussels Europe’s Digital Decade: Commission sets the course towards a digitally empowered Europe by 2030, Press release, European Commission, 9 March 2021: https://ec.europa.eu/commission/presscorner/detai l/en/IP_21_983.

[8] Proposal for a Regulation laying down harmonized rules on artificial intelligence, European Commission, April 2021, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206

[9] Anu Bradford, The Brussels effect: How the European Union rules the world, Oxford University Press, USA, 2020.

[10] Ulrike Franke, Upstaged: Europe’s struggles to play the great tech game, ECFR, 25 February 2020, https://ecfr.eu/article/commentary_upstaged_europes_struggles_to_play_the_great_tech_game/; Carla Hobbs (ed.), Europe’s digital sovereignty: From rule maker to superpower in the age of US-China rivalry, Essay Collection, ECFR, 30 July 2020, https://ecfr.eu/publication/europe_digital_sovereignty_rulemaker_superpower_age_us_china_rivalry/.

[11] Lili Bayer, Meet von der Leyen’s ‘geopolitical Commission’, Politico, 4 December 2019, https://www.politico.eu/article/meet-ursula-von-der-leyen-geopolitical-commission/

[12] Cfr. Profiles in Innovation Revisited: AI hardware, Goldman Sachs Equity Research, 11 March 2018, p. 7.

[13] Ben Buchanan, “The AI Triad and What It Means for National Security Strategy”, CSET, August 2020, https://cset.georgetown.edu/wpcontent/uploads/CSET-AI-Triad-Report.pdf.

[14] “Profiles in Innovation: Artificial Intelligence: AI, Machine Learning and Data Fuels the Future of Productivity”, Goldman Sachs Research Unit, 14 November 2016. Ben Buchanan, “The AI Triad and What It Means for National Security Strategy”, CSET, August 2020, https://cset.georgetown.edu/wp-content/uploads/CSET-AI-Triad-Report.pdf.

[15] Written Testimony of Jack Clark, Policy Director Open AI, Hearing on “The National Security Challenges of Artificial Intelligence, Manipulated Media, and ‘Deep Fakes’” before the House Permanent Select Committee on Intelligence, 13 June 2019: https://docs.house.gov/meetings/IG/IG00/20190613/109620/HHRG-116-IG00-Wstate-ClarkJ-20190613.pdf.

[16] Nina Bai, “Artificial Intelligence That Reads Chest X-Rays Is Approved by FDA”, University of California San Francisco, 12 September 2019, https://www.ucsf.edu/news/2019/09/415406/artificial-intelligence-reads-chest-x-rays-approved-fda, James Vincent, “Welcome to the automated warehouse of the future”, The Verge, 8 May 2018:

https://www.theverge.com/2018/5/8/17331250/automated-warehouses-jobs-ocado-andover-amazon.

[17] Carly Minsky, “One former Google exec says there’s no hope for Europe’s artificial intelligence sector”, Sifted, 14 December 2018:

https://sifted.eu/articles/interview-google-kaifu-lee-ai-artificial-intelligence/.

[18]Tackling Europe’s gap in digital and AI”, McKinsey Global Institute, 7 February 2019:

https://www.mckinsey.com/featured-insights/artificial-intelligence/tackling-europes-gap-in-digital-and-ai#.

[19] Un sondaggio del 2020 ha rilevato che solo tra l’uno e il tre per cento delle imprese dell’UE con dieci dipendenti o più dicono di utilizzare l’IA come l’apprendimento automatico, l’elaborazione del linguaggio naturale, o il riconoscimento vocale (settore finanziario non considerato) 23. Vi sono notevoli differenze tra i vari paesi: il 20% degli irlandesi, e il 12% delle aziende maltesi riferiscono analizzano i big data internamente utilizzando la macchina apprendimento, contro solo il 5% in Danimarca, il 2% in Germania, Francia e Italia, e l’1% in Grecia, Lettonia, e Polonia, cfr. Eurostat, Artificial Intelligence, last update 11/03/2021, https://ec.europa.eu/eurostat/databrowser/view/ISOC_EB_AI__custom_784358/bookmark/table?lang=en&bookmarkId=f34cd95d-77aa-45bd-8496-eabf49549c02. La classifica dell’IA globale di Tortoise Media classifica gli stati secondo Implementazione, Innovazione, e Investimento e dà un punteggio aggregato (probabilmente mescolando misure di output e input). Qui, solo tre sono gli Stati membri dell’UE menzionati tra i primi dieci (Germania, Paesi Bassi e Francia); 15 Stati membri dell’UE sono tra i primi 30 e 22 sono tra i primi 50; cfr. The Global AI Index, https://www.tortoisemedia.com/intelligence/global-ai/.

[20] Si annoverano tre input che sono cruciali per l’AI: 1) Dati, Per il momento, la maggior parte dei sistemi di AI è addestrata utilizzando grandi quantità di data. Ad un sistema di AI possono essere mostrate migliaia di immagini per imparare a identificare gli oggetti. I dati rilevanti per l’apprendimento automatico possono esser raccolti in molte forme ed includono, per esempio, i dati di censimento, o le informazioni circa la salute. L’Europa si trova di fronte a una sfida per la raccolta di dati, in quanto i paesi europei sono relativamente piccoli e presentano forti norme di sicurezza dei dati, il che comporta, rispetto ai colleghi in altre parti del mondo, gli sviluppatori europei di AI hanno un accesso relativamente limitato ai dati. Mentre la Cina e gli Stati Uniti beneficiano di una grande quantità omogenea di mercati e molti clienti all’estero, gli europei devono affrontare un mercato frammentato. L’UE ha lavorato duramente per creare il mercato unico digitale, ma la raccolta di dati non è stata unificata per la misura in cui è possibile all’interno dei singoli paesi, e, anche nel migliore dei casi, la lingua rimane barriera culturale non indifferente. 2) Talento (di sviluppare algoritmi), L’UE educa e coltiva dei buoni talenti, non a caso si è posizionata in buona posizione in tema di creazione di talenti. Tuttavia l’Europa lotta per mantenere questi talenti che educa, con i ricercatori e imprenditori in partenza, soprattutto per gli Stati Uniti. Ciò è dovuto al problema dello scarso finanziamento, motivo per cui lo sviluppatore di AI Cédric Villani raccomanda “pesanti stipendi top-up” nella strategia francese sull’AI per evitare questa fuga di talenti. 3) Potenza computazionale, anche se l’AI si riferisce generalmente al software, richiede un elemento hardware su cui lavorare per eseguire il suo calcolo, e allenare i suoi algoritmi. I chip semiconduttori avanzati sono al centro di questo hardware – e sono sempre più percepiti come asset strategici dai politici. I chip sono un importante elemento della crescente rivalità tecnologica tra gli Stati Uniti e Cina, L’Europa in quest’ambito rimane in gran parte dipendente da chip-maker stranieri; negli ultimi tre decenni, la quota di mercato globale del l’industria dei semiconduttori del l’UE era di circa il 10%.

[21] Alice Panier, “Europe in the Geopolitics of Technology, Connecting the Internal and External Dimensions”, IFRI, April 2021, p. 1:

https://www.ifri.org/sites/default/files/atoms/files/pannier_europe_geopolitics_technology_2021_.pdf.

[22] Cfr. Franke, U., 2021, Artificial Intelligence diplomacy | Artificial Intelligence governance as a new European Union external policy tool, Study for the special committee on Artificial Intelligence in a Digital Age (AIDA), Policy Department for Economic, Scientific and Quality of Life Policies, European Parliament, Luxembourg.

[23] Demetri Sevastopulo, “Biden warns China will face ‘extreme competition’ from US”, Financial Times, 7 February 2021: https://www.ft.com/content/c23a4e67-2052-4d2f-a844-e5c72a7de214.

[24] Statement for the Record, Senate Select Committee on Intelligence Director of CIA Nominee William J. Burns, 24 February 2021:

https://www.intelligence.senate.gov/sites/default/files/documents/os-wburns-022421.pdf.

[25] US National Security Commission on Artificial Intelligence, Final Report, March 2021, https://reports.nscai.gov/final-report/table-ofcontents/. Siamo in una competizione con la Cina e AI è al centro assoluto di tale concorrenza”, hanno sottolineato i membri della Commissione, cfr. Commissioners Robert O. Work and Safra Catz at Atlantic Council event “A conversation with the National Security Commission on Artificial Intelligence”, 29 April 2021, https://www.youtube.com/watch?v=3IwHPOxvj9E.

[26] Chris Buckley and Paul Mozur, “What Keeps Xi Jinping Awake at Night”, New York Times, 11 May 2018: https://www.nytimes.com/2018/05/11/world/asia/xi-jinping-china-national-security.html.

[27] Elsa B. Kania and Lorand Laskai, “Myths and Realities of China’s Military-Civil Fusion Strategy”, CNAS, 28 January 2021:

https://www.cnas.org/publications/reports/myths-and-realities-of-chinas-military-civil-fusion-strategy.

[28]China may match or beat American in AI”, The Economist, 15 July 2017.

[29] Arthur Gwagwa, “Exporting Repression? China’s Artificial Intelligence Push into Africa”, CFR, 17 December 2018: https://www.cfr.org/blog/exporting-repression-chinas-artificial-intelligence-push-africa; Francisco Toro, James Bosworth, “Opinion: China exports its high-tech authoritarianism to Venezuela. It must be stopped”, Washington Post, 5 December 2018: https://www.washingtonpost.com/opinions/2018/12/05/china-exports-its-high-tech-authoritarianism-venezuela-it-must-be-stopped/.

[30] Michael S. Schmidt, Keith Bradsher, Christine Hauser, “U.S. Panel Cites Risks in Chinese Equipment”, New York Times, 8 October 2012:

https://www.nytimes.com/2012/10/09/us/us-panel-calls-huawei-and-zte-national-security-threat.html.

[31] Margarita Konaev, “U.S. Military Investments in Autonomy and AI: A Budgetary Assessment”, CSET, October 2020:

https://cset.georgetown.edu/research/u-s-military-investments-in-autonomy-and-ai-a-budgetary-assessment/; Elsa B Kania, “National AI Strategies, Chinese Military Innovation in the AI Revolution”, RUSI Journal, Volume 164, 2019 – Issue 5-6, pp. 26-34, 29 November 2019:

https://doi.org/10.1080/03071847.2019.1693803; Dewey Murdick, Daniel Chou, Ryan Fedasiuk, Emily Weinstein, “The Public AI Research Portfolio of China’s Security Forces”, CSET, March 2021:

https://cset.georgetown.edu/research/thepublic-ai-research-portfolio-of-chinas-security-forces/.

[32] Laura Schousboe, “The Pitfalls of Writing About Revolutionary Defense Technology”, War on the Rocks, 15 July 2019:

https://warontherocks.com/2019/07/the-pitfalls-of-writing-about-revolutionary-defense-technology/

[33]Translation: Tianjin Municipal Action Plan for Military-Civil Fusion Special Projects in Intelligent Technology”, CSET, https://cset.georgetown.edu/wp-content/uploads/t0033_Tianjin_mil_civil_fusion_EN.pdf; Elsa B. Kania, “Chinese Military Innovation in Artificial Intelligence. Hearing of the U.S.-China Economic and Security Review Commission”, 7 June 2019:

https://www.cnas.org/publications/congressional-testimony/chinese-military-innovation-in-artificial-intelligence.

[34] Elsa B. Kania, “Chinese Military Innovation in Artificial Intelligence. Hearing of the U.S.-China Economic and Security Review Commission”, 7 June 2019:

https://www.cnas.org/publications/congressional-testimony/chinese-military-innovation-in-artificial-intelligence.

[35] Peter Thiel, “Good for Google, Bad for America”, New York Times, 1 August 2019, https://www.nytimes.com/2019/08/01/opinion/peter-thiel-google.html. Si veda Jessica Bursztynsky, “Ex-Defense chief: Google has a duty to the US, not China, to ‘take our values to the battlefield’”, CNBC 18 July 2019, https://www.cnbc.com/2019/07/18/ex-defense-secretary-ash-carter-google-has-a-duty-to-the-us-notchina.html.

[36] Nicholas Thompson, “The AI Cold War that threatens us all”, Wired, 23 October 2018, https://www.wired.com/story/ai-cold-war-china-could-doom-us-all/.

[37] Alice Panier, “Europe in the Geopolitics of Technology, Connecting the Internal and External Dimensions”, IFRI, April 2021, p. 1, https://www.ifri.org/sites/default/files/atoms/files/pannier_europe_geopolitics_technology_2021_.pdf. Si veda inoltre la discussione del Parlamento Olandese “Impact van technologische ontwikkeling op het buitenlands beleid (via videoverbinding)”, 3 february 2021:

https://debatgemist.tweedekamer.nl/node/24887.

[38]Oh My, AI”, War on the Rocks podcast, 12 May 2021, https://warontherocks.libsyn.com/oh-my-ai.

[39] Ross Andersen, “The Panopticon Is Already Here”, The Atlantic, September 2020, https://www.theatlantic.com/magazine/archive/2020/09/china-ai-surveillance/614197/.

[40] “China’s Campaign of Repression Against Xinjiang’s Muslims” Human Rights Watch, 9 September 2018, https://www.hrw.org/report/2018/09/09/eradicating-ideological-viruses/chinas-campaign-repression-against-xinjiangs.

[41] Francisco Toro, James Bosworth “Opinion: China exports its high-tech authoritarianism to Venezuela. It must be stopped”, Washington Post, 5 December 2018:

https://www.washingtonpost.com/opinions/2018/12/05/china-exports-its-high-tech-authoritarianismvenezuela-it-must-be-stopped/

[42] Nicholas Thompson, “The AI Cold War that threatens us all”, Wired, 23 October 2018, https://www.wired.com/story/ai-cold-war-china-could-doom-us-all/.; Nicholas Wright sostiene che la sorveglianza AI-enabled crea una valida alternativa alla democrazia liberale; “offre un modo plausibile per grandi paesi economicamente avanzati per arricchire i propri cittadini mantenendo il controllo loro” cfr. Nicholas Wright, “How Artificial Intelligence Will Reshape the Global Order”, Foreign Affairs, 10 July 2018:

https://www.foreignaffairs.com/articles/world/2018-07-10/how-artificial-intelligence-will-reshape-global-order.

[43]Ethiopia: Telecom Surveillance Chills Rights,” Human Rights Watch, March 25, 2014, https://www.hrw.org/news/2014/03/25/ethiopia-telecom-surveillance-chills-rights. Lynsey Chutel, “China is exporting facial recognition software to Africa, expanding its vast database”, Quartz, May 25, 2018, https://qz.com/africa/1287675/china-is-exporting-facialrecognition-to-africaensuring-ai-dominance-through-diversity/; Arthur Gwagwa, “Exporting Repression? China’s Artificial Intelligence Push into Africa”, Council on Foreign Relations, December 17, 2018:

https://www.cfr.org/blog/exporting-repression-chinas-artificialintelligence-push-africa.

[44] Alina Polyakova, Chris Meserole, “Exporting digital authoritarianism. The Russian and Chinese models”, Brookings Institute, August 2019:

https://www.brookings.edu/research/exporting-digital-authoritarianism/.

[45] Beijing AI Principles:

https://www.baai.ac.cn/news/beijing-ai-principles-en.html.

[46]UK government intervenes in Nvidia takeover of chip designer Arm”, BBC, 19 April 2021:

https://www.bbc.co.uk/news/business-56804007.

[47] Alexandra Alper, Toby Sterling, Stephen Nellis, “Trump administration pressed Dutch hard to cancel China chip-equipment sale: sources”, Reuters, 6 January 2020, https://www.reuters.com/article/us-asml-holding-usa-china-insight-idUSKBN1Z50HN. Si vd. Noah Barkin, “Export Controls and the US-China Tech War”, China Monitor, Merics, March 2020:

https://merics.org/en/report/export-controls-and-uschina-tech-war.

[48]2030 Digital Compass: the European way for the Digital Decade”, Communication from The Commission to the European Parliament, The Council, The European Economic and Social Committee and The Committee of The Regions, Brussels, 9.3.2021:

https://eurlex.europa.eu/legal-content/en/TXT/?uri=CELEX%3A52021DC0118.

[49] Kate Crawford, Atlas of AI, Yale University Press, 2021, p. 217.

[50] Paul Mozur, Cecilia Kang, Adam Satariano, David McCabe, “A Global Tipping Point for Reining in Tech Has Arrived”, New York Times, Updated April 30, 2021:

https://www.nytimes.com/2021/04/20/technology/global-tipping-point-tech.html.

[51] Rebecca Gelles, Tim Hwang, Simon Rodriguez, “Mapping Research Agendas in U.S. Corporate AI Laboratories”, CSET, April 2021:

https://cset.georgetown.edu/research/mapping-research-agendas-in-u-s-corporate-ai-laboratories/.

[52] Bartlett, Jamie. The People vs Tech: How the Internet is killing democracy (and how we save it). Random House, 2018, p. 148.

[53] Con il termine GAFAM si indicano nel loro assieme le 5 maggiori multinazionali dell’IT occidentali: Google, Apple, Facebook, Amazon, Microsoft. Sebbene tali multinazionali si pongano in concorrenza diretta tra loro per beni e servizi offerti, il loro gigantismo e l’esser diventati una scelta obbligata, quasi dittatoriale, li accomuna e li identifica facendoli diventare oggetto di critiche sociali, di abuso di posizione dominante, di accertamenti fiscali, di intromissione nella vita privata dei propri utenti.

[54] Nel panorama economico-digitale cinese sono tre i giganti di Internet che ne fanno da padroni: Baidu, Alibaba e Tencent. Quasi il 60% del tempo speso su un dispositivo mobile in Cina viene speso su una app affiliata a questi tre giganti.

[55] Zuboff, Shoshana, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, Profile Books, 2019.

[56] Kate Crawford, Atlas of AI, Yale University Press, 2021, p. 184.

[57] French Defence and National Security Strategic Review 2017, Ministry of Defence, October 2017, https://www.defense.gouv.fr/layout/set/popup/content/download/520198/8733095/version/2/file/DEFENCE+AND+NATIONAL+SECURITY+STRATEGIC+REVIEW+2017.pdf.

[58] Sanger, David E., The perfect weapon: War, sabotage, and fear in the cyber age. Broadway Books, 2019, p. 98.

[59]Getting to grips with military robotics”, The Economist, 25 January 2018:

https://www.economist.com/specialreport/2018/01/25/getting-to-grips-with-military-robotics.

[60] Paul Scharre, “How swarming will change warfare”, Bulletin of the Atomic Scientists, Volume 74, Issue 6, pp. 385-389, 22 October 2018:

https://www.tandfonline.com/doi/abs/10.1080/00963402.2018.1533209.

[61] US National Security Commission on Artificial Intelligence, Final Report, March 2021, https://reports.nscai.gov/final-report/table-ofcontents/.

[62] Greg Allen, Taniel Chan, “Artificial Intelligence and National Security”, Belfer Center, 2017:

https://www.belfercenter.org/sites/default/files/files/publication/AI%20NatSec%20-%20final.pdf.

[63]Michael Horowitz and Casey Mahoney, “Artificial Intelligence and the Military: Technology Is Only Half the Battle”, War on the Rocks, 25 December 2018:

https://warontherocks.com/2018/12/artificial-intelligence-and-the-military-technology-is-only-half-the-battle/.

[64] Armstrong, Stuart, Smarter than us: The rise of machine intelligence. Machine Intelligence Research Institute, 2014., p. 14.

[65] Ibid. p. 7.

[66] OpenAI: https://openai.com/.

[67] Müller, Vincent C. and Bostrom, Nick (forthcoming 2014), ‘Future progress in artificial intelligence: A Survey of Expert Opinion, in Vincent C. Müller (ed.), Fundamental Issues of Artificial Intelligence (Synthese Library; Berlin: Springer). https://www.nickbostrom.com/papers/survey.pdf.

[68] Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang, Owain Evans, “When Will AI Exceed Human Performance? Evidence from AI Experts

https://arxiv.org/pdf/1705.08807.pdf.

[69] Allan Dafoe, Stuart Russell, “Yes, We Are Worried About the Existential Risk of Artificial Intelligence”, MIT Technology Review, 2 November 2016:

https://www.technologyreview.com/2016/11/02/156285/yes-we-are-worried-about-the-existential-risk-ofartificial-intelligence/.

[70] Nick Bostrom, Superintelligence: Paths, dangers, strategies, Oxford University Press, 2014.

[71] Iason Gabriel, “Artificial Intelligence, Values and Alignment”, Deep Mind, 13 January 2020:

https://deepmind.com/research/publications/Artificial-Intelligence-Values-and-Alignment.

[72] Ulrike Franke, “Artificial Divide. How Europe and America could clash over AI”, ECFR, January 2021, https://ecfr.eu/publication/artificial-divide-how-europe-and-america-could-clash-over-ai/.

[73] Cfr. Coordinated Plan on Artificial Intelligence, European Commission, https://ec.europa.eu/digital-single-market/en/news/coordinated-plan-artificial-intelligence.

[74] Janosch Delcker, “In global AI race, Europe pins hopes on ethics”, Politico, 25 April 2018:

https://www.politico.eu/article/europecommission-andrus-ansip-hopes-ethical-approach-will-be-its-edge-in-global-ai-artificial-intelligence-race/.

[75]Ethics Guidelines for Trustworthy Artificial Intelligence”, High-Level Expert Group on AI, April 2019:

https://digitalstrategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai; “Policy and investment recommendations for trustworthy Artificial Intelligence”, High-Level Expert Group on AI, https://digital-strategy.ec.europa.eu/en/library/policy-and-investment-recommendations-trustworthy-artificial-intelligence.

[76] Malta, a riguardo di AI etica, ha proposto il “primo programma di certificazione nazionale AI del mondo” come misura concreta nella sua strategia; la Spagna, invece, propone l’elaborazione di un “Codice etico dell’IA, in linea con gli sforzi compiuti dalla Commissione europea”. È interessante notare che la strategia danese rileva che l’IA etica è un frutto di un particolare approccio dell’Unione: “L’Europa e la Danimarca non dovrebbero copiare gli Stati Uniti o la Cina. Entrambi i paesi stanno investendo pesantemente nell’intelligenza artificiale, ma con poco rispetto sotto i profili della responsabilità, dei principi etici e della privacy”.

[77] Ulrike Franke, “Not smart enough: The poverty of European military thinking on artificial intelligence”, ECFR, December 2019, https://ecfr.eu/publication/not_smart_enough_poverty_european_military_thinking_artificial_intelligence/.

[78] Communiqué: Publication du rapport du ministère des Armées sur l’intelligence artificielle, September 2019, https://www.defense.gouv.fr/english/salle-de-presse/communiques/communique_publication-du-rapport-du-ministere-des-armeessur-l-intelligence-artificielle.

[79]Strategic Action Plan for Artificial Intelligence”, Government of the Netherlands, October 2019, https://www.government.nl/documents/reports/2019/10/09/strategic-action-plan-for-artificial-intelligence.

[80] Ulrike Franke, “Europe needs a plan for AI in the military realm”, The Security Times, February 2020, https://www.the-security-times.com/europe-needs-plan-ai-military-realm/.

[81] Proposal for a Regulation laying down harmonized rules on artificial intelligence, European Commission, April 2021, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206

[82] Cfr. Franke, U., 2021, Artificial Intelligence diplomacy | Artificial Intelligence governance as a new European Union external policy tool, Study for the special committee on Artificial Intelligence in a Digital Age (AIDA), Policy Department for Economic, Scientific and Quality of Life Policies, European Parliament, Luxembourg.

[83]Translation: Outline of the People’s Republic of China 14th Five-Year Plan for National Economic and Social Development and Long-Range Objectives for 2035”, CSET:

https://cset.georgetown.eu/publication/china-14th-five-year-plan/; “Translation: A Study of Shenzhen’s International Technology Transfer Model and Measures to Improve It”, CSET, April 29, 2021 https://cset.georgetown.edu/publication/a-study-of-shenzhens-international-technology-transfer-model-and-measures-to-improve-it/; “Translation : Miao Wei: Advancing the High-Quality Development of the Manufacturing Industry”, CSET, April 15, 2021, https://cset.georgetown.edu/publication/miao-wei-advancing-the-high-quality-development-of-the-manufacturing-industry/; “Translation: Certain Opinions of the Ministry of Education, the China National Intellectual Property Administration , and the Ministry of Science and Technology on Improving the Quality of Patents at Institutes of Higher Education and Promoting [Patent] Conversion and Use”, CSET, March 26, 2021:

https://cset.georgetown.edu/publication/certain-opinions-of-the-ministry-of-education-the-china-national-intellectual-property-administration-and-the-ministry-of-science-and-technology-on-improving-the-quality-of-patents-at-institutes-of/.

[84] Il CSET ha lavorato anche sulla Russia: “Translation: Draft Resolutions Have Been Prepared Concerning the Allocation of 16.5 Billion Rubles in Subsidies for the Development of AI in Russia”, CSET, April 15, 2021, https://cset.georgetown.edu/publication/draft-resolutions-have-been-prepared-concerning-the-allocation-of-16-5-billion-rubles-in-subsidies-for-the-development-of-ai-in-russia/; “Translation: Development of Artificial Intelligence”, CSET, April 15, 2021, https://cset.georgetown.edu/publication/development-of-artificial-intelligence/.

[85] Cfr. Michael C. Horowitz, Lauren Kahn, “The AI Literacy Gap Hobbling American Officialdom”, War on the Rock s, 14 January 2020, https://warontherocks.com/2020/01/the-ai-literacy-gap-hobbling-american-officialdom/.