Il Code of Practice on Disinformation dell’UE: tentativi in fieri di contrasto alle fake news
Di Matteo Monti
Il problema delle fake news e dell’impatto dirompente che stanno assumendo all’interno delle democrazie occidentali[1] non è sfuggito all’Unione Europea, che dopo aver sponsorizzato il report denominato “A multi-dimensional approach to disinformation”,[2] ha emanato la comunicazione “Tackling online disinformation: a European approach”[3], di cui il Code of Practice on Disinformation[4] è diretta propagazione.
Partendo dagli obiettivi della comunicazione succitata, il Codice riunisce su base volontaria alcuni dei più importanti attori del mondo digitale (si veda l’Annex I “Signatories”) e tenta di delineare una serie di principi comuni che possano orientare l’azione di questi soggetti privati nel contrasto alla diffusione di fake news: a ogni sottoscrittore è rimessa l’applicazione dei principi contenuti nel Codice nel modo più consono al proprio “strumento”[5]. Vi è, inoltre, piena libertà per ogni firmatario di ritirare la propria adesione al Codice o ad ogni suo specifico impegno, mediante notifica alla Commissione e agli altri firmatari. Parimenti, vi è piena libertà per nuovi attori di aderirvi e ogni modifica del Codice deve essere approvata all’unanimità.
Il Codice illustra, innanzitutto e in linea con i precedenti interventi europei, una definizione di fake news che contribuisce a dissipare alcune problematiche che dalla stessa potrebbero sorgere. Nella complessa intersezione di definizioni e concetti[6], il Codice ha l’indubbio merito di chiarire che cos’è una fake news[7]: ossia una informazione “verificabilmente falsa o fuorviante” (“verifiably false or misleading information”), creata, presentata e diffusa per motivi economici o con l’obiettivo di disinformare. Si tratta dunque di una definizione che sembra incentrata sul concetto di “notizia”, che viene arricchita dall’esclusione di fattispecie salvaguardate dalle disposizioni costituzionali ed eurounitarie tutelanti la libertà d’espressione. Il concetto si lega, infatti, nella visione datane a una definizione ritagliata “in negativo”, escludendo che possano essere considerate fake news: la satira, gli errori giornalistici o le comunicazioni politiche[8]. Proprio su queste ultime tipologie di pensiero e di espressione il discorso si fa più scivoloso e si può apprezzare appieno il discrimen compiuto dal Codice: il “falso” nella comunicazione politica rientra appieno in quel concetto di libertà di manifestazione del pensiero che è proprio di ogni ordinamento democratico occidentale[9], mentre il falso come informazione no. Se, infatti, appare legittimo agire sui mezzi di comunicazione che online non si conformano – nella veste delle Internet Platforms – alle regole etiche e deontologiche del giornalismo e della stampa, al contrario è necessario prestare particolare attenzione a non incentivare indirettamente forme di “censura privata” sul pensiero politico. Questo a maggior ragione in considerazione della pervasività delle Internet platforms nell’ecosistema dell’informazione[10] e della comunicazione politica. La definizione di fake news è, infine, ulteriormente arricchita “in positivo” da un elemento di “pericolosità” che si estrinseca in concetti piuttosto generici quali “threats to democratic political and policy making processes as well as public goods such as the protection of EU citizens’ health, the environment or security”. Il richiamo alla comunicazione “Tackling online disinformation” della Commissione sembra rendere necessaria una sua lettura al fine di consentire un’interpretazione autentica di questo passaggio.
Le finalità (c.d. “purposes”) a cui è etiologicamente orientato il Codice sono specificamente definite e vengono di seguito elencate: i) la lotta alla disinformazione; ii) il miglioramento dei meccanismi di controllo nell’assegnazione delle pubblicità; iii) la trasparenza sulla targetizzazione degli utenti a cui sono rivolti i contenuti informativi; iv) la promozione di policies anti misrepresentation; v) la chiusura degli accounts falsi e la regolamentazione dell’attività dei bots; vi) l’attenzione rinnovata agli sforzi contro i diffusori di fake news; vii) investimenti in tecnologie per favorire la ricerca e l’indicizzazione delle informazioni affidabili, senza tuttavia cedere a pressioni governative o censure basate sulla mera “falsità” dei contenuti; viii) la garanzia della trasparenza delle informazioni ricevute dagli utenti in relazione alla loro affidabilità e all’identità delle fonti da cui provengono; ix) il disincentivo della disinformazione rispetto all’informazione affidabile; x) l’aumento delle possibilità e della capacità degli utenti di trovare informazioni con diversi orientamenti e punti di vista; xi) il favor per le attività di “fact checking”.
Le suddette finalità non appaiono, però, sempre coerenti fra loro rispetto alle soluzioni a cui potrebbero condurre e come specificato dal Codice non sono ostative allo sviluppo di policiesdifferenti[11].
Gli impegni (c.d. “commitments”) che si legano ai suddetti fini concernono i vari campi dell’attività delle Internet platforms. In sintesi si auspica che nel campo dello “Scrutiny of ad placements” si disincentivi la creazione di disinformazione, impendendone la monetizzazione e promuovendo la “corretta” informazione mediante marchi di affidabilità di qualità, tramite collaborazioni dirette con fact checkerso aiutando l’allocazione ottimale delle pubblicità sui siti dalla buona reputazione o comunque ritenuti affidabili. Nel settore del “Political advertising and issue-based advertising” si auspica di rendere consapevole l’utente delle informazioni cosiddette targettizate e che, contestualmente, le Internet platforms si impegnino ad assicurare una particolare protezione del discorso pubblico nei periodi elettorali, mediante la garanzia della conoscibilità della natura politica di alcuni contenuti proposti e financo della provenienza dei contenuti sponsorizzati. Per quanto riguarda, invece, la “Integrity of services” si ritiene necessaria una regolamentazione dell’uso dei bots e dell’AI nell’ambito della diffusione di informazione. Inoltre, in relazione all’“Empowering consumers”, si richiede che le Internet Platforms non cedano a richieste provenienti da governi o autorità politiche per la rimozione di contenuti leciti tacciati di essere “falsi”, ma le si sollecitano a favorire informazioni affidabili e disvelare l’identità dei diffusori delle informazioni, incentivando anche la ricezione di informazioni diversificate e incrementando un pensiero critico nei propri utenti. A questo impegno si affianca, infine, l’“Empowering the research community” che impegna i firmatari a non impedire e anzi a favorire le attività di ricerca sulla disinformazione online.
Oltre allo sviluppo di policies che siano coerenti con i commitments esposti, il Codice richiede la preparazione di report annuali che registrino le strategie intraprese dai firmatari e i risultati ottenuti: i reports devono esplicare i livelli di trasparenza raggiunti, oltre che i vari obiettivi nei singoli campi di intervento. Il Codice incoraggia, con la stessa cadenza, incontri fra le parti con la possibilità di incrementare le strategie attuate o discuterne di nuove. In questa dinamica le Internet platforms s’impegnano anche a cooperare con la Commissione UE, rendendo fruibili informazioni su richiesta, informandola sulle nuove adesioni o su eventuali ritiri, rendendosi disponibili a rispondere alle domande o a partecipare alle consultazioni della Commissione, discutendo le valutazioni e i reports effettuati e invitando la Commissione agli incontri di cui sopra.
L’Annex II delinea come punto di partenza le attuali migliori pratiche poste in essere da alcuni dei firmatari del Codice (Facebook, Twitter, Youtube, Google, Mozilla etc.).
Nel complesso novero di approcci alla tutela della democrazia e dei suoi valori online (digital governance, digital ethics o digital regulation[12]) il Codice appare ascrivibile alla categoria della autoregolamentazione, anche se in parte eterodiretta. Senza pervenire alla forza discreta ma intrusiva del c.d. Codice di condotta per lottare contro le forme illegali di incitamento all’odio online dell’Unione Europea[13], lo strumento in esame traccia tuttavia precise linee d’azione e illustra diverse buone pratiche che i soggetti privati risultano liberi di attuare e/o implementare.
Il Codice, come strumento di soft law, esplicita che esso non si sovrappone in alcun modo alle legislazioni vigenti (proponendone una diversa interpretazione o rimpiazzandole)[14]. La previsione è molto simile a quella prefigurata dalla Commissione per il Codice “anti-hate speech”[15], ma in maniera similare a quest’ultimo, che finisce per delegare alle Internet platforms forme di bilanciamento della libertà di espressione online[16], una deriva analoga potrebbe configurarsi anche per questo nuovo strumento.
Il “Codice” sembra, inoltre, delegare interamente alle Internet platforms i tentativi di regolamentare e contrastare la diffusione della disinformazione online, rinunciando a qualsiasi tipo di controllo sulla sua efficienza e correttezza. Da questo punto di vista, un’attività pervasiva delle Commissione in relazione alle richieste di informazioni, alle interrogazioni e allo studio dei reports, potrebbe in futuro essere prodromica a una azione normativa, che possa limitare l’arbitrio nella lotta alle fake news da parte dei suddetti soggetti privati. La fiducia nel paradigma delle Good Samaritan platforms[17] tipica del sistema statunitense sembra, infatti, aver attecchito in questo campo, a cui si affianca, in parallelo, una diffidenza verso le autorità governative e il conseguente contestuale invito rivolto alle Internet platforms a non cedere a richieste arbitrarie da parte degli stati.
Se appare sicuramente giustificato o comprensibile il timore che dietro il contrasto alle fake news si possano celare tendenze autoritarie, appare allo stesso tempo opinabile affidarsi in toto alle Internet platforms. A tale proposito torna in mente il paragrafo “Autoregolazione versus regolazione: è possibile trovare un equilibrio?” di un saggio di Giovanni Pitruzzella[18]. In tale scritto l’Autore si poneva la suddetta domanda: «Ma è possibile affidare ad un manipolo di compagnie multinazionali, ciascuna dotata di un enorme potere economico e di un’incredibilmente vasta capacità di influenza, il monopolio in ordine al controllo dell’informazione sulla rete (una sorta di censura privata)?». «Agli interventi che fanno leva soltanto sull’autoregolazione delle tech companies ed agli interventi di terze parti, pure private, si dovrebbe affiancare, in una logica collaborativa e sussidiaria, un insieme di regole che specifichino meglio quali sono gli obblighi nella rete, le responsabilità delle piattaforme, e che prevedano, in caso di conflitto, un rapido intervento di istituzioni terze rispetto alle parti. Seguendo questa seconda prospettiva, avevo ipotizzato […] l’introduzione di Istituzioni specializzate, terze e indipendenti (giudici o autorità indipendenti) che, sulla base di principi predefiniti, intervengano successivamente, su richiesta di parte e in tempi rapidi»[19]. E forse una partnership pubblico-privata appare la soluzione più auspicabile anche per poter riflettere su una evoluzione del Codice che possa assicurare una corretta informazione e, contestualmente, il pluralismo informativo, scongiurando i rischi della privatizzazione della censura.
Redatto il 30 gennaio 2019
[1] Si veda il numero monografico di questa Rivista, 1, 2017.
[3] Consultabile online.
[4] Consultabile online.
[5] “The Signatories recognize that because the various Signatories operate differently, with different purposes, technologies and audiences, the Code allows for different approaches to accomplishing the spirit of the provisions herein”. Code of Practice on Disinformation, p. 2.
[6] C. Wardle, Fake news. It’s complicated, in medium.com, 16 February 2017.
[7] Code of Practice on Disinformation, 1 ss.
[8] Sulla necessità di distinguere la fattispecie della “bufala” da quella di altri contenuti espressivi, relativamente all’ordinamento italiano, si permetta di richiamarsi a quanto scritto in altra sede: M. Monti, Le “bufale” online e l’inquinamento del public discourse, in P. Passaglia – D. Poletti (a cura di), Nodi virtuali, legami informali: Internet alla ricerca di regole, Pisa, 2017, 182 ss.
[9] Se si pensa all’utilizzo di fake news fatto dai movimenti populisti nell’ambito della comunicazione politica, serve rilevare che difficilmente si potrebbe pensare o incentivare forme di censura su soggetti politici: M. Monti, The New Populism and Fake News on the Internet: How Populism Along with Internet New Media is Transforming the Fourth Estate, in StalsResearchPaper, 4, 2018.
[11] «This Code is without prejudice to other initiatives aiming at tackling Disinformation on platforms». Code of Practice on Disinformation, 4.
[12] L. Floridi, Soft Ethics and the Governance of the Digital, in Philosophy & Technology, 2018, 3.
[13] Consultabile online. Per un’analisi sulla genesi del Codice si veda: D. Keats Citron, Extremist Speech and Compelled Conformity, in Notre Dame Law Rev., 93, 2018, 1040 ss.
[14] «The Code shall apply within the framework of existing laws of the EU and its Member States and must not be construed in any way as replacing or interpreting the existing legal framework, and, in particular». Code of Practice on Disinformation, 2.
[15] «The balance between freedom of speech and what is prohibited illegal hate speech is set out in European case law, starting with the Jurisprudence of the European Court of Human Rights [..] It is neither a privatisation of justice nor is it excessive to ask all companies to do the same when they are notified about the existence of illegal content on their services». Code of Conduct – Illegal online hate speech, Questions and answers, 2016, consultabile online.
[16] Il Codice «puts companies – rather than the courts – in the position of having to decide the legality of content». Article 19, Eu: European Commission’s Code Of Conduct For Countering Illegal Hate Speech Online And The Framework Decision, 14 giugno 2016, 16. Cfr. H. Zhen Gan, Corporations: The Regulated or the Regulators – The Role of IT Companies in Tackling Online Hate Speech in the EU, in Colum. J. Eur. L., 24, 2017, 118.
[17] Cfr. K. Klonick, The New Governors: The People, Rules, and Processes Governing Online Speech, in Harv. L. Rev., 131, 2018, 1606-1607.
[18] G. Pitruzzella, La libertà di informazione nell’era di Internet, in G. Pitruzzella-O. Pollicino-S. Quintarelli, Parole e potere: libertà di espressione, hate speech e fake news, Milano, 2017, 94. Anche in questa Rivista, 1, 2018, 25.
[19] G. Pitruzzella, La libertà di informazione nell’era di Internet, cit., 26.