L’illusione del controllo
L’illusione del controllo
E se alcune norme fossero il prodotto di un bias cognitivo?
Questo può essere definito come “un giudizio (o un pregiudizio), non necessariamente corrispondente all’evidenza, sviluppato sulla base dell’interpretazione delle informazioni in possesso, anche se non logicamente o semanticamente connesse tra loro, che porta dunque ad un errore di valutazione o a mancanza di oggettività di giudizio”[1].
Purtroppo, risulta essere questa la sensazione che si ha approfondendo alcune recenti norme, in cui il Legislatore - in primis quello europeo - ha finito con il rappresentare una sorta di “illusione del controllo”, in riferimento alla possibilità di governare gli effetti di un mondo in cui ogni caratteristica o attività umana è traducibile in dati e, in quanto tale, può essere oggetto di un servizio digitale.
Si pensi al primo articolo del Regolamento europeo sull’intelligenza artificiale[2]: “Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno e promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica”.
Ebbene, non occorre essere degli esperti di distorsioni cognitive per trovare paradossale, se non a tratti tragicomica, la formulazione di questa norma, in cui probabilmente il Legislatore ha voluto imprimere una connotazione addirittura teleologica ai sistemi di intelligenza artificiale, non ritenendo invece di dover stabilire esplicitamente come condizione necessaria e inderogabile che gli stessi siano sviluppati in modo da garantire il rispetto dei diritti fondamentali (poiché si prevede pure che l’entità dell’eventuale lesione degli stessi debba essere semplicemente oggetto di una valutazione del rischio).
Anche nel Regolamento europeo dedicato all’identità digitale e ai servizi fiduciari[3], in cui è stato recentemente introdotta la disciplina del c.d. wallet europeo, ossia del “portafoglio digitale” attraverso i cui servizi sarà possibile attestare l’identità di una persona fisica o giuridica e i relativi attributi e qualifiche, ci sono tracce del bias cognitivo che sembra aver viziato la scrittura di alcune norme.
Un esempio è rappresentato da quelle disposizioni dedicate a ciò che viene definito come un “pannello di gestione” dei dati personali.
In particolare, tale pannello di gestione dovrebbe consentire agli utenti anche di “segnalare facilmente la parte facente affidamento sulla certificazione all’autorità nazionale di protezione dei dati competente qualora sia ricevuta una richiesta di dati personali presumibilmente illecita o sospetta”[4].
Questo, ovviamente, solo dopo che l’utente medio sia riuscito a comprendere intuitivamente cosa sia una “parte facente affidamento sulla certificazione” e, al contempo, che lo stesso abbia avuto modo di rendersi conto che tale soggetto o entità ha richiesto illecitamente i suoi dati.
Questi esempi possono essere utili a farci comprendere come, nell’intento di disciplinare complessi servizi digitali e sistemi di intelligenza artificiale, sia facile cadere nell’illusione del controllo, ingannandoci sul fatto che scrivere dettagliatissime normative possa garantirci il pieno governo dei sistemi e dei servizi digitali che si nutrono dei dati che descrivono ogni sfaccettatura delle nostre vite.
[1] Si veda Cannito, Loreta. 2017. “Cosa sono i bias cognitivi?”. Economia Comportamentale.
[2] Approvato dal Parlamento europeo e dal Consiglio, ma in attesa di pubblicazione in GUUE, nel momento in cui si scrive.
[3] Ci si riferisce al Reg. eIDAS 910/2014/EU, così come recentemente modificato dal Reg. 1183/2024/EU.
[4] Si veda il nuovo art. 5 bis del Regolamento 910/2014/UE, così come modificato dal Regolamento 1183/2024/UE.