x

x

Il problema della disinformazione in rete: i limiti del diritto penale e le potenzialità del nuovo Codice rafforzato di buone pratiche dell’UE

disinformazione in rete
disinformazione in rete

Il problema della disinformazione in rete: i limiti del diritto penale e le potenzialità del nuovo Codice rafforzato di buone pratiche dell’UE


Disinformazione e “passioni tristi”

L’epoca contemporanea può essere definita – citando due psicanalisti lungimiranti che a loro volta parafrasavano Spinoza – l’“epoca delle passioni tristi”[1]: un’epoca in cui la pandemia da Covid-19, l’emergenza climatica, la guerra in Ucraina e la crisi energetica ed economica hanno contribuito alla diffusione di un pervasivo senso di impotenza e di incertezza, che porta a vivere il futuro come una minaccia.

In questo contesto, l’eccezionale sviluppo del web – secondo alcuni studiosi prossimo al collasso[2] – ha acuito il senso di incertezza plasmando un mondo “infodemico”, vale a dire in cui la circolazione di una quantità eccessiva di informazioni, talvolta non vagliate con accuratezza, rende difficile orientarsi per la difficoltà di individuare fonti affidabili. Sebbene un diritto incondizionato alla verità non possa essere garantito, vi è chi mette in luce come la mancanza di verità provochi danni individuali e collettivi da non sottovalutare. Da una parte, come segnalato dalla psicanalisi, la mancanza di verità può produrre danni al benessere psichico individuale; dall’altra, l’occultamento di fatti veri e rilevanti e la diffusione di credenze false producono malessere sociale e minano il funzionamento del sistema democratico, potendosi «riconoscere senza difficoltà che la distorsione delle credenze (più o meno prodotta strategicamente e/o sistematicamente) determina un danno politico oggettivo»[3].

 

I limiti del diritto penale

Come spesso accade a fronte di fenomeni che creano allarme sociale, anche l’erompere dell’emergenza “fake news” ha determinato in alcuni ordinamenti (incluso il nostro) la presentazione di progetti di legge volti a introdurre nuovi reati. Nondimeno, il ricorso al diritto penale in questo settore pare collidere irrimediabilmente con i principi di extrema ratio, offensività, determinatezza e precisione.

Anzitutto, non potendo il diritto alla verità, genericamente inteso, assurgere al rango di bene giuridico, occorrerebbe individuare oggetti di tutela “diretti” (il diritto alla verità sarebbe tutelato solo indirettamente) che varierebbero al variare dell’argomento su cui verte la condotta disinformativa e che finirebbero probabilmente per essere identificati in beni collettivi dai confini incerti. In secondo luogo, si tratterebbe di introdurre un reato di pericolo astratto, categoria sempre a rischio di comportare un’eccessiva anticipazione della tutela, o un reato di pericolo concreto, che chiamerebbe il giudice al non facile compito di accertare case by case l’idoneità della notizia a fuorviare il destinatario e il pericolo per il bene giuridico di volta in volta tutelato (es. la salute individuale o collettiva in caso di notizie false sul coronavirus o sull’efficacia dei vaccini).

Ancora, si tratterebbe di decidere se punire solo le condotte dolose o, almeno se provengono da esperti, anche le condotte colpose. Se si decidesse di punire solo le condotte dolose, come si proverebbe il dolo? Come si proverebbe che l’autore e, soprattutto, chi non ha prodotto ma ha solo condiviso la notizia sapeva che fosse falsa e l’ha diffusa con l’intenzione o con la certezza (dolo intenzionale o diretto) o l’avrebbe diffusa anche se avesse avuto la certezza (dolo eventuale) di influenzare il comportamento altrui[4]?

Inoltre, non va sottovalutato che la diffusione della disinformazione è un fenomeno complesso e marcatamente multifattoriale, a cui concorrono alcune caratteristiche della rete, fra cui l’indicizzazione algoritmica dei contenuti, fondata sulla profilazione dell’utenza, che dà origine ai noti fenomeni di “filter bubble” ed “echo chamber”. A queste dinamiche si sommano, oltre alle caratteristiche individuali dell’utente, quei meccanismi di “risparmio cognitivo” che ci portano, ad esempio, a credere a ciò che conferma i nostri pregiudizi[5].

Considerate la complessità e la multifattorialità del fenomeno, la criminalizzazione delle condotte “disinformative” rischierebbe di rappresentare una delle tante «promesse non mantenibili del diritto penale»[6], in quanto avrebbe poche chances di raggiungere il risultato di tutela prefissato e finirebbe per collocarsi nel solco del recente trend che tale ramo del diritto ha assunto, ossia quello di aumentare quantitativamente deteriorandosi qualitativamente e perdendo credibilità. Al contrario, come dimostra lo studio comparatistico degli ordinamenti che prevedono reati di disinformazione (es. Russia, Cina, Vietnam, Malesia), la scelta dell’incriminazione, lungi dal tutelare il diritto dei cittadini a ricevere informazioni veritiere, rischia di tradursi nell’istituzione di poteri censori volti ad erodere gli spazi di libertà individuale e collettiva[7]. A ciò si aggiungono i limiti derivanti dalla territorialità degli strumenti di diritto interno, che mal si attaglia all’a-territorialità della rete.

 

Verso una “costituzionalizzazione” europea della rete fra hard e soft law

In risposta a queste criticità, l’Unione europea ha messo in campo una “strategia integrata”, che si avvale di strumenti di hard law e soft law e che è stata elaborata cercando di bilanciare i vari interessi in gioco: il diritto dell’utente a un habitat informativo autenticamente pluralistico (espressamente riconosciuto all’art 10 della CEDU e all’art. 11 della Carta di Nizza), la libertà di espressione e la libertà di iniziativa economica privata dei gestori dei servizi internet e delle piattaforme digitali. Un maggior coinvolgimento dei gestori è una delle principali innovazioni previste nel Digital Services Act (DSA), il nuovo Regolamento approvato dal Parlamento europeo il 5 luglio 2022 che, una volta entrato in vigore, è destinato a innovare la cd. “direttiva sul commercio elettronico”. Un coinvolgimento che, sulla falsariga di quanto previsto in Germania con la Netzwerkdurchsetzungsgesetz, impone ai provider obblighi, via via più stringenti all’aumentare delle dimensioni della piattaforma, di gestione virtuosa delle segnalazioni di contenuti falsi o offensivi, di creazione di sistemi di reclamo avverso i provvedimenti di inibizione, di trasparenza sulla moderazione dei contenuti e sull’uso degli algoritmi.

Il principio cardine che dal GDPR in poi pare permeare la regolamentazione europea e attorno al quale ruota anche il DSA è il principio di accountability, che impone ai destinatari di condurre un’analisi dei rischi e di adottare misure adeguate ai rischi rilevati, potendo essere chiamati a rispondere delle proprie scelte. In questo quadro, che richiama la dinamica della responsabilità amministrativa dell’ente ex d.lgs. 231/2001, strumenti di soft law, come il “Codice rafforzato di buone pratiche”, svolgono una funzione complementare di esemplificazione delle misure e delle strategie da adottare per poter dimostrare la propria compliance alle norme di hard law. Del resto, il DSA espressamente prevede che “le norme sui codici di condotta stabilite dal presente regolamento potrebbero fungere da base per le iniziative di autoregolamentazione già stabilite a livello dell’Unione, tra cui (…) il codice di buone pratiche sulla disinformazione”[8] e che “l’adesione a un determinato codice di condotta e il suo rispetto da parte di una piattaforma online di dimensioni molto grandi possono essere ritenuti una misura di attenuazione dei rischi adeguata”[9].

 

Il Codice rafforzato di buone pratiche, l’anonimato e la “tirannia dell’algoritmo”

Il Codice elenca, dopo ogni “commitment” una serie di “measures”, ossia indicazioni operative per prestare fede a quell’impegno. Gli impegni assunti dai soggetti firmatari mirano a neutralizzare alcune delle principali “variabili usurpatrici” della rete[10], vale a dire quelle caratteristiche dell’architettura virtuale e social-mediatica che favoriscono la diffusione della disinformazione e di contenuti offensivi: i guadagni associati alla viralizzazione di certi contenuti sensazionalistici, la mancanza di trasparenza sulle modalità di moderazione dei contenuti e sui sistemi di intelligenza artificiale impiegati, la scarsa informazione dell’utente sulle dinamiche di funzionamento della rete, ecc.

Fra le variabili usurpatrici che il DSA e il Codice non disciplinano, vi è l’anonimato in rete. Alcune delle principali piattaforme social da tempo chiedono ai titolari di account presumibilmente fittizi di autenticarsi mediante fotografia o documento di identità se vogliono evitare la disattivazione, ma non vigono indicazioni univoche a riguardo. Sebbene spesso l’anonimato consenta all’utente di esprimere liberamente pensieri e riflessioni, e a certi gruppi di rivendicare diritti e organizzare mobilitazioni, con effetti positivi di “ridistribuzione del potere sociale”, esso produce altresì documentati effetti di deresponsabilizzazione[11] e rende molto complicato risalire alla fonte del contenuto. Si potrebbe dunque riflettere sull’opportunità di imporre o “raccomandare” alle piattaforme digitali di chiedere agli utenti di identificarsi in fase di registrazione, garantendo la scrupolosa tutela dei dati personali così forniti. In altri termini, fatta salva la prerogativa dello pseudonimato, ossia di esprimersi e interagire in rete attraverso uno pseudonimo, si tratterebbe di prescrivere ai gestori – quanto meno delle piattaforme social – di richiedere agli utenti, quale condizione per registrarsi, di fornire le proprie generalità. Tale misura potrebbe avere effetti deterrenti rispetto alla produzione e diffusione di disinformazione e di contenuti offensivi[12].

Un’altra variabile disciplinata “timidamente” dal DSA e che forse meriterebbe maggiore attenzione nel Codice rafforzato è quella concernente l’indicizzazione dei contenuti sulla base di algoritmi ricavati dalla profilazione dell’utenza. Dette logiche algoritmiche non solo favoriscono la viralizzazione di notizie false, operando a pregiudizio degli utenti che si imbattono in tali notizie, ma concorrono anche alla radicalizzazione di pregiudizi e teorie complottiste (il riferimento è sempre ai noti fenomeni di filter bubble e di echo chamber), privando chi ne è portatore di quel confronto pluralistico che è condicio sine qua non della libertà di pensiero e del pieno sviluppo della persona umana[13].

Nella parte introduttiva al DSA viene enfatizzato come «il modo in cui i sistemi algoritmici strutturano i flussi di informazioni online» sia «fonte di preoccupazione per un’ampia categoria di portatori di interessi», che «hanno sottolineato la necessità di sottoporre a audit la responsabilità e la trasparenza degli algoritmi, soprattutto per quanto riguarda il modo in cui le informazioni vengono messe in ordine di priorità e indirizzate». In una prospettiva di rafforzamento della strategia europea di contrasto della disinformazione, sia il DSA sia il Codice potrebbero disciplinare in maniera più dettagliata i sistemi di auditing, consulenza, certificazione cui le maggiori piattaforme potrebbero/dovrebbero sottoporre gli algoritmi impiegati, così da progredire in direzione di una rete più pluralistica e quindi più democratica.

Note

[1] M. Benasayag – G. Schmitt, L’epoca delle passioni tristi, Milano, 2004.

[2] Cfr. E. Paniagua, Error 404. Siete pronti per un mondo senza internet?, Torino, 2022.

[3] F. D’Agostino, Diritti aletici, in Biblioteca della libertà, gennaio-aprile 2017, 10. Secondo questa interessante prospettiva filosofica, nelle moderne democrazie contemporanee dovrebbero essere riconosciuti e tutelati sei tipi di diritti alla verità, cd. diritti aletici (dal greco aletheia: “verità”), riconducibili a tre aree in cui il bene verità emerge come bene socialmente importante: l’area dell’informazione, l’area della scienza e della conoscenza condivisa, l’area della cultura.

[4] Cfr. M. Lamanuzzi, La disinformazione ai tempi dei social media: una nuova sfida per il diritto penale?, in Arch. pen., 1/2020, 1-36.

[5] Cfr. D. Kahneman, Pensieri lenti e veloci, Milano, 2012.

[6] G. P. Demuro, Ultima ratio: alla ricerca di limiti all’espansione del diritto penale, in Riv. it. dir. proc. pen., 4/2013, 1678.

[7] Cfr. T. Guerini, Fake news e diritto penale. La manipolazione digitale del consenso nelle democrazie liberali, Torino, 2020.

[8] Considerando n. 69.

[9] Considerando n. 68.

[10] M. Lamanuzzi, Il “lato oscuro della rete”: odio e pornografia non consensuale. Ruolo e responsabilità dei gestori delle piattaforme social oltre la net neutrality, in Leg. pen., 2021, 6 ss.

[11] P. Wallace, La psicologia di Internet, Milano, 2016, 139 ss.

[12] G. Resta, Anonimato, responsabilità, identificazione: prospettive di diritto comparato, in DI, 2/2014, 204-205.

[13] G. Forti – M. Lamanuzzi, Digital Violence: A Threat to Human Dignity, a Challenge to Law, in D. E. Vigan – S. Zamagna – M. Sánchez Sorondo (a cura di), Changing Media in a Changing World, Città del Vaticano, 2022, 183-191. Cfr. M. Benasayag, La tirannia dell’algoritmo, Milano, 2020.