IA: nuove regole sui rischi inaccettabili

intelligenza artificiale
intelligenza artificiale

IA: nuove regole sui rischi inaccettabili

 

Dal 2 febbraio 2025 entreranno in vigore nuove misure del Regolamento 13.06.2024, n. 2024/1689 dell’Unione europea. Le disposizioni vieteranno l’uso dell’IA nel caso di esposizione degli utenti a “rischi inaccettabili”.
 

AI ACT

Il Regolamento n. 2024/1689, conosciuto come AI ACT stabilisce un insieme di regole armonizzate per lo sviluppo, la commercializzazione e l’uso dei sistemi di intelligenza artificiale. In questo senso, rappresenta un passo fondamentale per conciliare l’innovazione tecnologica e la tutela dei diritti fondamentali, garantendo un elevato livello di protezione per i cittadini europei e promuovendo allo stesso tempo la sicurezza e la trasparenza. Esso si fonda su un sistema di classificazione tripartita dei rischi associati. La prima categoria è rappresentata dal rischio inaccettabile, ovverosia da tutti quei sistemi che violano i valori fondamentali dell'UE o i diritti umani. La seconda categoria è rappresentata dell’alto rischio. Rientrano in quest’ultima i sistemi che influenzano settori sensibili, come l’occupazione e l’accesso ai servizi essenziali. Infine, la terza categoria contiene il rischio limitato o minimo, con i sistemi soggetti a obblighi meno rigorosi.
 

Il rischio inaccettabile

Nello specifico, il rischio inaccettabile è definito dall’AI ACT, come quello che può nel contempo, a seconda delle circostanze relative alla sua applicazione, al suo utilizzo e al suo livello di sviluppo tecnologico specifici, “comportare rischi e pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dal diritto dell'Unione. Tale pregiudizio può essere sia materiale sia immateriale, compreso il pregiudizio fisico, psicologico, sociale o economico”.
 

Le novità

Dal 2 febbraio 2025 entreranno in vigore nuovi divieti di tale categoria di rischio. Le principali restrizioni di cui all’articolo 5 dell’AI ACT riguarderanno: l’utilizzo di tecniche subliminali manipolative che distorcano il comportamento di singoli o gruppi; la manipolazione del comportamento di individui o gruppi sfruttandone vulnerabilità come età, disabilità o condizioni socioeconomiche; sistemi di social scoring che causino trattamenti discriminatori o sproporzionati, basati sulla valutazione del comportamento sociale o di caratteristiche personali, reali o presunte; la profilazione finalizzata a valutare il rischio di commissione di reati; l’ampliamento di banche dati di riconoscimento facciale tramite scraping non autorizzato di immagini da internet o riprese di telecamere a circuito chiuso; l’analisi delle emozioni nei luoghi di lavoro o negli istituti scolastici; la classificazione di persone fisiche sulla base di dati biometrici per inferire caratteristiche come razza, opinioni politiche, appartenenza sindacale, religione, orientamento sessuale; l’identificazione biometrica remota “in tempo reale” in luoghi pubblici.