2023: odissea nell'AI act, viaggio alla scoperta della normativa
2023: odissea nell’AI act, viaggio alla scoperta della normativa
PRIMA STAGIONE Episodio 1 – sistemi AI e diritti da tutelare
Non c’è luogo o ambito oramai in cui non si parli di algoritmi di intelligenza artificiale, delle prodigiose applicazioni e della rilevanza degli output.
Al contrario pochi, troppo pochi, parlano delle regole che disciplineranno questa tecnologia emergente che si sta diffondendo in modo endemico. Al di là delle considerazioni di carattere etico che riguardano l’impatto che la tecnologia avrà su persone e i rapporti personali e sociali, è oramai prossima la promulgazione del Regolamento europeo già battezzato come “AI ACT”, contenente le norme giuridiche che disciplineranno lo sviluppo, l’uso e la distribuzione dei sistemi di AI.
L’Unione Europea con questo provvedimento intende evitare la frammentazione normativa e dunque il governo di una nuova tecnologia che altrimenti rischia di generare conseguenze gravi per ogni paese del pianeta.
Per evitare un algoritmic devide occorre pertanto munire lo sviluppo delle AI di norme certe, creare una convergenza di definizioni e un catalogo certo e aggiornato di tecniche e approcci specifici impiegati per sviluppare, giuridicamente riconosciuto.
L’AI ACT ci precisa subito all’art. 1 quali siano gli scopi, o per usare una terminologia giuridica, la ratio del Regolamento.
In particolare le norme si prefiggono l’intento di disciplinare innanzitutto regole per governare il mercato e la distribuzione e dunque l’immissione, la messa in servizio e l’uso dei sistemi AI.
Altro obiettivo che il provvedimento si pone è introdurre e stabilire quali siano le pratiche da ritenersi vietate e che conducono a considerare proibiti i sistemi AI che le applicano.
Sotto il profilo dello sviluppo degli algoritmi, la norma stabilisce il rispetto di criteri tassativi che chi produce sistemi AI ad altro rischio dovrà rispettare, se intende poterli commercializzare, definendo parallelamente una serie di obblighi per i fornitori e le altre categorie di soggetti che contribuiscono alla distribuzione.
L’art. 1 poi si affretta a puntualizzare, che le norme si preoccuperanno di distinguere una
specifica disciplina per tutti quei sistemi AI che provvedono ad effettuare il riconoscimento delle emozioni, la biometria che consenta la manipolazione di video, immagini e audio. Altra area che l’art. 1 indica fra le finalità della disciplina è quella di provvedere a concepire e regolamentare un sistema di monitoraggio e di sorveglianza per gli algoritmi di AI.
Prima di procedere ad esplorare (e conoscere) le “regole del gioco” che siano applicabili ai sistemi di intelligenza artificiale, è importante capire che dai “considerando” dell’AI Act – i considerando motivano in modo conciso le norme essenziali dell'articolato, senza riprodurne o parafrasarne il dettato normativo – emerge che i sistemi di AI devono preservare i seguenti diritti della persona fisica che deve essere scopo prevalente e preordinato:
- diritto alla dignita’
- diritto alla vita privata
- diritto alla protezione dei dati personali
- diritto alla vita familiare
- diritto del consumatore
- diritto del lavoratore
- diritto alla non discriminazione
- diritto al giudizio imparziale
- diritto di difesa
- diritto di presunzione di innocenza
- diritto di tutela dei diritti dei disabili
- diritto alla buona p.a.
- libertà di espressione, di riunione e di associazione
Questi i beni giuridici da proteggere, tutti orientati a non compromettere i diritti della persona fisica e i sistemi AI che impattano su questi diritti si definiscono ad alto rischio.
A tale riguardo viene chiarita l’esigenza di determinare una chiara classificazione dei sistemi AI, uno spartiacque per così dire, fra diversi sistemi.
Uno spartiacque determinato da:
- natura e modalità di funzionamento del sistema AI;
- tipologia di prodotto (allegato II);
- ambito sociale (allegato III);
- ambito territoriale (art. 2);
L’informatica ci conferma che questa tecnologia può avere una forma autonoma (stand alone), ma anche integrata (embedded), inoltre può, in relazione al tempo, produrre un output in tempo reale o a posteriori. L’insieme di queste caratteristiche ha determinato una classificazione fra tipologie di sistemi AI che ha individuato in particolare e in modo dettagliato quali siano i Sistemi di AI c.d. ad “alto rischio”.
Si definisce ad alto rischio un sistema è in grado di incidere in modo sensibile sui diritti fondamentali delle persone fisiche, quali per esempio, la salute, il lavoro, ecc.
La norma è costruita per introdurre due macro aree di applicazione, rimandando poi ad un allegato - l’ ALLEGATO III - la possibilità di aumentare nel tempo le singole categorie che sono individuate e specificamente indicate.
In particolare l’art. 6 dell’AI ACT stabilisce che possono considerarsi ad alto rischio:
1. Sistemi che costituiscono una componente per la sicurezza di prodotti di cui all’allegato II (soggetto a valutazione conformità): macchine, apparecchi e sistemi per atmosfera esplosiva, attrezzature per imbarcazioni da diporto, impianti fune e a combustione gas, apparecchi radio, giocattoli, ascensori, attrezzature a pressione dispositivi medici e diagnostici;
2. Sistemi AI individuati per ambito ed elencati all’allegato III, ossia per:
- Identificazione e categorizzazione dati biometrici;
- Gestione e funzione di strutture critiche (per esempio, traffico stradale, forniture utenze primarie)
- Occupazione e lavoro
- Istruzione e formazione
- Accesso ai servizi pubblici e privati essenziali (per esempio, affidabilità creditizia, emergenza primo soccorso)
- Attività di contrasto
- Attività migratorie
- Amministrazione giustizia e processi democratici.
Chiarito che cosa si debba intendere per intelligenza artificiale ad alto rischio, occorre poi capire quale sia l’ambito di applicazione delle disposizioni contenute dall’AI ACT.
Certamente le norme saranno dirette a regolamentare sistemi AI che vengono immessi nel territorio UE: dunque quando il produttore, il fornitore o il distributore sono in Europa il regolamento si potrà applicare. Altro elemento utile a stabilire se l’AI Act è invocabile è dove si trova l’utente/fruitore: infatti se chi fruisce dei sistemi AI si trova nella UE dovrà osservare e potrà godere dele garanzie di questo articolato.
Infine se l’output del sistema AI è disponibile e fruibile nella UE, anche se il produttore ha sede altrove, le norme dell’AI Act potranno ritenersi applicabili.
L’inquadramento del regolamento intende evidenziare che ,by design, l’impostazione e l’approccio da seguire sono certamente quelli che riconoscono nel corso dell’attività di sviluppo, il valore e l’importanza dei diritti delle persone che devono sempre avere il primato per garantire alla popolazione ed alla umanità stessa di restare al comando del governo dei sistemi che vengono progettati e realizzati, sorvegliando a garanzia della preservazione dei diritti del singolo e della collettività