L’intelligenza artificiale: tra disinformazione e tutela nell’anno più elettorale della storia

Intelligenza artificiale
Intelligenza artificiale

L’intelligenza artificiale: tra disinformazione e tutela nell’anno più elettorale della storia


Abstract

Il 2024 rappresenta un “piatto ghiotto” per la disinformazione online - considerando la sempre più elevata diffusione di fake news e deepfake - sia per le scorse elezioni europee, sia per le presidenziali negli Stati Uniti di questo inizio novembre. Il dato che preoccupa è quello del Global Risks Report 2024 del World Economic Forum, con il quale si parla di una vera e propria minaccia delle fake news sulle elezioni globali, grazie al  crescente sviluppo di chatbot e intelligenza artificiale, che potrebbe compromettere la democrazia. Al tempo stesso il 2024 incarna il banco di prova per stimare l’effettiva incidenza della disinformazione e permettere all’UE di vagliare interventi mirati.


Introduzione

Il diritto all'informazione corretta, ampiamente considerato una questione cruciale per il futuro delle democrazie, in tutti i suoi aspetti può essere considerato un diritto sociale fondamentale (secondo comma dell’art. 3 Cost.).

Il dato che lascia sconcertati è che nonostante esso sia un diritto estremamente importante, venga messo in discussione dalla sempre più crescente diffusione della misinformation tramite le c.d. fake news[1]. Non deve sorprendere, dunque, che le fake news siano state le protagoniste delle elezioni europee e lo sono state anche nelle elezioni presidenziali negli Stati Uniti del novembre 2024. La diffusione di tali notizie ha contribuito ad alimentare una generale sfiducia nei confronti del livello di credibilità delle informazioni disponibili online tra gli stessi cittadini, che conoscono gli effetti/ricadute reali di questa pratica.

Sebbene questo problema mina molti aspetti della vita privata pubblica, è ancora più preoccupante la manipolazione dell’IA di notizie, dichiarazioni politiche e altri temi legati allo sviluppo dell'opinione pubblica. Questo contributo, senza preferenze politiche, ha come scopo analizzare scientificamente l'impatto delle fake news sulla realizzazione delle campagne elettorali[2], utilizzando come termini di paragone le elezioni presidenziali americane del 2016 e quelle brasiliane del 2018.

Avendo individuato la falsificazione delle informazioni, si cerca di comprendere quale risposta sociale, ma soprattutto istituzionale,  sia necessaria per riscattare l’onestà come pratica essenziale della vita democratica.

 

Cosa sono le Fake news?

Fake news[3], letteralmente “notizie false”, indica, a livello di senso comune, qualsiasi notizia fuorviante, inventata, spesso rilanciata dai media con lo scopo di influenzare atteggiamenti e comportamenti di un certo target di pubblico. Il termine si è ampiamente diffuso a partire dal 2016, quando Donald Trump ne ha fatto largo uso durante la sua campagna elettorale per “bollare” come fittizie le informazioni rilanciate dal Partito Democratico in sede di dibattito. Se ad un primo impatto il concetto di fake news sembra chiaro ed univoco, la comunità scientifica si è invece a lungo scontrata riguardo una definizione precisa ed inequivocabile. Alcuni autori, per la sua natura polisemica e complessa, gli hanno preferito costrutti meno ambigui, come “inquinamento informativo” o “disordine informativo”, ed altri ancora hanno perfino rifiutato la sua validità. Nonostante questa apparente contraddittorietà, una definizione interessante è stata proposta da Baptista e Gradim in una recente metaanalisi: le fake news sono "un tipo di disinformazione online, con affermazioni fuorvianti e/o false che possono o meno essere associate a eventi reali, create intenzionalmente per fuorviare e/o manipolare un pubblico, attraverso l'apparizione di un formato di notizia con una struttura opportunistica (titolo, immagine, contenuto) per attirare l'attenzione del lettore, al fine di ottenere più condivisioni e, quindi, maggiori entrate pubblicitarie e/o guadagni ideologici". Le fake news sono concepite come una forma di “disinformazione”, ovvero l’insieme di informazioni false e scorrette diffuse deliberatamente per ingannare il pubblico. La disinformazione, però, non comprende solamente informazioni che imitano graficamente e linguisticamente le “notizie vere”, bensì tutto ciò che viene condiviso con l’intento di ingannare.

Al giorno d’oggi, la maggior parte delle persone incontra quotidianamente fake news e disinformazione. In un rapporto dell’IPSOS del 2022, il 99% dei candidati coinvolti ha dichiarato di averne già sentito parlare almeno una volta, e oltre l’80% ha affermato di incontrarle quotidianamente. Inoltre, il 73% del campione ha risposto di essere sicuro di avere le competenze per individuare con assoluta certezza una notizia falsa, sottostimando, invece, le abilità degli altri, i quali sarebbero in grado di riconoscerle solo nel 35% dei casi. Questa forma di sopravvalutazione delle proprie capacità rispecchia ciò che gli psicologi definiscono “third person effect” (Perloff, 1993), ovvero la convinzione che i messaggi dei mass media abbiano un’influenza maggiore sugli altri rispetto a se stessi.

Alla base di molte fake news ci sono i c.d. Dark Pattern, che sfruttano i bias cognitivi e le scorciatoie del pensiero umano per aggirare la volontà degli utenti in modo semi automatico, spesso senza che questi se ne accorgano. 


Come le fake news hanno inciso e incideranno sulle elezioni: confronto comparato

Il termine post-verità, proclamato parola dell’anno 2016 dall’Oxford Dictionaries, ha visto una crescita esponenziale del suo utilizzo in concomitanza con eventi politici di grande risonanza, come il referendum sulla Brexit e le elezioni presidenziali americane. In quell'occasione, internet si è rivelato un potente strumento di propaganda elettorale, contribuendo alla diffusione massiva di notizie false, o fake news. Sebbene il concetto di fake news non fosse del tutto nuovo, il fenomeno ha assunto nuove proporzioni, diventando un vero e proprio eufemismo per descrivere informazioni completamente o parzialmente false che, puntando sulle emozioni o sugli interessi personali, riescono ad attirare l’attenzione e catalizzare il dibattito pubblico. Queste notizie non vanno confuse con la satira o le parodie, che hanno una funzione dichiaratamente umoristica e non intendono ingannare il pubblico. Alcune testate giornalistiche sono notoriamente dedicate alla creazione di notizie false per scopi satirici, con il solo obiettivo di far sorridere i lettori.

Nel 2017, la diffusione di fake news è cresciuta al punto da far sì che il Collins Dictionary inserisse questa espressione tra le parole dell’anno, segnalando come il termine fosse ormai parte integrante del linguaggio comune. Tuttavia, il fenomeno si è esteso ben oltre il semplice uso quotidiano della terminologia, acquisendo una rilevanza tale da essere oggetto di studio anche nelle scienze sociali. La propagazione di informazioni di bassa qualità è particolarmente evidente online, dove si osserva un altissimo volume di misinformation, ovvero disinformazione, che circola senza ostacoli.

Le dinamiche alla base di questo fenomeno sono piuttosto chiare. Le fake news riguardano argomenti di pubblico interesse, capaci di suscitare preoccupazione o stupore. Non si tratta di informazioni banali, ma di contenuti che riguardano tematiche rilevanti per la collettività. Dal punto di vista della diffusione, esse sfruttano principalmente il web, dove sono condivise da utenti che, spesso inconsapevolmente, ne amplificano la portata. Inoltre, il singolo individuo gioca un ruolo centrale nella diffusione delle notizie false, in quanto deve esistere un interesse personale che lo spinga a diffondere o accettare tali informazioni. Qui interviene il confirmation bias, cioè la tendenza degli individui a cercare e credere a contenuti che confermano le proprie opinioni preesistenti, ignorando o rifiutando quelli che le contraddicono.

Le notizie false, pur essendo sempre esistite, oggi si diffondono con una rapidità e una facilità mai viste prima, grazie alle tecnologie digitali. Anche la legislazione italiana, pur prevedendo già misure per contrastare la disinformazione, come l’obbligo di rettifica sancito dall'articolo 8 della legge sulla stampa del 1948, appare inadeguata di fronte alla complessità della comunicazione odierna. Le norme esistenti sono pensate per regolamentare i giornalisti e i professionisti dell'informazione, mentre le notizie diffuse online da privati o in forma anonima sfuggono a questo controllo. Di fronte alla viralità delle fake news, i soggetti come partiti politici, candidati o persino governi, appaiono spesso indifesi.

Un altro aspetto critico riguarda la formazione delle cosiddette echo chambers, ovvero quei gruppi chiusi di utenti che condividono le stesse idee e che, all’interno dei social media, si rafforzano a vicenda nelle loro convinzioni. In questi ambienti, le notizie non vengono filtrate o verificate, ma trovano diffusione proprio perché confermano l’ideologia dominante del gruppo. Questa dinamica è pericolosa poiché le informazioni, una volta condivise, tendono ad acquisire una sorta di “aura di verità”, indipendentemente dalla loro accuratezza o veridicità.

Dal punto di vista giuridico, la questione si complica ulteriormente. La Costituzione italiana, infatti, non impone che le espressioni di pensiero siano sempre corrette o fondate, e protegge anche quelle dichiarazioni che si basano su informazioni che chi le diffonde ritiene vere, purché non vi sia dolo. Tuttavia, chi diffonde notizie sapendo che sono false può essere soggetto a sanzioni, soprattutto quando queste ledono diritti costituzionalmente protetti, come l’onore e la reputazione altrui o gli interessi pubblici, ad esempio quelli legati a indagini investigative o alla libertà dei cittadini di formarsi un’opinione informata durante le campagne elettorali. Non è raro che, proprio in periodi elettorali, l’uso di notizie false aumenti, poiché esse diventano un potente strumento per manipolare il consenso popolare.

La professoressa Melissa Zimdars ha osservato che il termine fake news, originariamente riferito a satira o stampa scandalistica, si è progressivamente evoluto per descrivere informazioni totalmente inventate, diffuse per manipolare il pubblico con l’obiettivo di ottenere un qualche vantaggio. Durante le campagne elettorali, le fake news assumono un valore particolarmente pernicioso, poiché riescono a influenzare l’opinione pubblica e a orientare il voto verso uno specifico candidato, attraverso la distorsione dei fatti.

Dal punto di vista legale, la denigrazione politica non è vietata, e la Corte di Cassazione ha sottolineato che, in contesti elettorali, il diritto alla critica politica può essere esercitato in toni particolarmente aspri, purché resti collegato a una discussione razionale sui programmi o sulle visioni politiche. Tuttavia, la diffusione consapevole di false informazioni con l’intento di manipolare l’esito elettorale rappresenta un problema diverso, con implicazioni che toccano il cuore della democrazia, ossia la corretta espressione della sovranità popolare.

Il fenomeno delle fake news è amplificato dai social media e dal web, che permettono la rapida diffusione di tali contenuti, rendendo il problema particolarmente acuto in contesti politici. Uno studio del MIT ha rivelato che le notizie false, soprattutto in ambito politico, si diffondono più rapidamente e con maggiore efficacia rispetto alle notizie vere, esacerbando i conflitti e facendo leva sulle emozioni delle persone. In Italia, il Censis ha rilevato che oltre la metà degli utenti di internet ha creduto almeno una volta a notizie false, e il 77,8% della popolazione considera il fenomeno delle fake news come un pericolo per la democrazia, in quanto capace di inquinare il dibattito pubblico e alimentare il populismo.

A peggiorare la situazione vi sono anche gli algoritmi dei social network, che filtrano le informazioni in base agli interessi degli utenti, rinchiudendoli in una sorta di “bolla informativa” che limita la loro esposizione a opinioni diverse dalle proprie. Questo meccanismo rafforza le convinzioni preesistenti e contribuisce alla diffusione di fake news conformi al pensiero di chi le riceve, riducendo la libertà di formarsi un'opinione indipendente.

In America, già nel 2016, l’utilizzo delle fake news durante la campagna elettorale, ha reso evidente l’estremizzazione della propaganda politica basata su mezze verità o interpretazioni distorte della realtà, che mirano a screditare gli avversari e manipolare l’opinione pubblica.  Dopo lo svolgimento delle elezioni presidenziali, è emerso che le notizie false potrebbero aver giocato un ruolo significativo nei risultati finali. Molte opinioni sostengono che la diffusione di informazioni non veritiere abbia ampiamente favorito l'ascesa al potere di Donald Trump. Allcott e Gentzkow tentarono di chiarire, attraverso una ricerca, il livello di esposizione alle fake news e cercarono di valutare l'effetto che queste ebbero sull'esito elettorale. Furono raccolte, in un archivio, ben 156 notizie false relative alla campagna elettorale, che circolavano già nei tre mesi precedenti le elezioni. Lo studio si basava principalmente su un sondaggio, a cui parteciparono 1200 persone, alle quali vennero poste diverse domande. I primi quesiti riguardavano le caratteristiche demografiche dei partecipanti, mentre altri si concentravano su questioni di natura politica e sull'approccio delle persone alle informazioni. Da questa indagine emerse che la maggior parte delle persone si era informata tramite la TV via cavo, mentre circa il 14% aveva utilizzato i social network. La figura 2 mostra i vari tipi di fonti principali di informazione usate nel 2016. Le notizie false possono avere un forte potere persuasivo, soprattutto per chi utilizza principalmente i social media come unica fonte di informazione. Complessivamente, questi risultati suggeriscono che, con il tempo, i social media sono diventati sì una risorsa importante per le notizie e le informazioni politiche, ma non quella dominante. Infatti, la televisione continua a essere la fonte di notizie principale. Lo studio stima che, mediamente, un americano durante il periodo delle elezioni sia stato esposto e abbia ricordato almeno una fake news online. L’esposizione agli articoli pro-Trump era significativamente superiore rispetto a quelli a favore di Clinton. Inoltre, dallo studio emerse che i repubblicani sono più inclini a credere nelle fake news, mentre i democratici tendono a essere più scettici nei confronti delle notizie in generale. La conclusione alla quale giunsero Allcott e Gentzkow evidenzia come vi siano prove dell’influenza delle fake news sulle opinioni degli elettori, ma al contempo è difficile misurare con precisione il livello di esposizione e l'effettiva rilevanza sull'esito elettorale. Spenkuch e Toniatti (2016) dimostrarono che, esponendo gli elettori a una campagna televisiva aggiuntiva, si possono modificare le percentuali di voto di circa 0,02 punti percentuali, il che ci porta a concludere che, se una notizia falsa fosse persuasiva quanto una campagna televisiva, questa cambierebbe di poco le percentuali di voto. Tali variazioni risultano comunque troppo limitate rispetto al margine di vittoria di Trump. È altrettanto vero che ci sono molte ragioni per cui una notizia falsa possa essere percepita come più credibile ed efficace rispetto a uno spot televisivo, anche se lo studio non ha preso in considerazione il contenuto di ogni singola fake news. In effetti, in questa indagine sono stati valutati solo gli effetti delle storie lette e ricordate. Infine, un aspetto importante a sostegno dell'argomentazione sull'ininfluenza delle fake news sull'esito elettorale risiede nel fatto che l’effetto di tali notizie su un elettorato già ampiamente polarizzato non è forte, poiché gli elettori sanno già per chi intendono votare a causa del loro sentimento di appartenenza politica. Come già accennato, infatti, gli elettori tendono ad affiliarsi direttamente a un partito politico, selezionando le informazioni che confermano la loro posizione e ignorando quelle che la mettono in dubbio. Pertanto, sembra che le notizie false abbiano probabilmente avvantaggiato Donald Trump nelle elezioni, ma probabilmente non in modo decisivo. Le discussioni sull’influenza delle fake news del 2016 continuano ancora oggi a essere un tema aperto negli Stati Uniti.

Secondo il New York Times, per influenzare le elezioni statunitensi in favore di Trump, dalla Russia sono stati creati ben 2700 account falsi su Facebook e diffusi 80.000 post, con i quali sono stati raggiunti 126 milioni di cittadini americani. I votanti in quelle elezioni furono 137 milioni! Eppure, lo stesso Trump, usava attaccare senza tregua le fake news, utilizzando il suo mezzo preferito, Twitter: "Le fake news causeranno una guerra, sono pericolose e disgustose, un mezzo per diffondere divisioni e sfiducia". L'inchiesta del MIT cita due episodi in cui Trump, nonostante si dice abbia ottenuto la presidenza grazie a milioni di messaggi falsi, sembra essere vittima delle fake news. Entrambi i casi risalgono al periodo della campagna elettorale.

Primo episodio. Agosto 2015: su internet inizia a circolare la notizia che Trump avrebbe permesso a un bambino malato di usare il suo aereo per ottenere un trattamento medico urgente. Snopes, uno dei siti più autorevoli nello smascherare le fake news, conferma che la maggior parte dei dettagli della storia è vera. Tuttavia, solo 1300 persone condividono o ritwittano la notizia.

Secondo episodio. Febbraio 2016: si diffonde la notizia che il cugino più anziano di Trump sarebbe morto, lasciando un necrologio che diceva: "Da fiero portatore del nome Trump, vi prego, non permettete a quel sacco di muco ambulante di diventare presidente". Snopes non trova prove né dell'esistenza del cugino né del necrologio, confermando che la notizia è falsa. Eppure, 38.000 utenti di Twitter, a differenza dei 1300 del primo episodio, condividono e rilanciano la storia, contribuendo a rafforzare l’attacco contro il futuro presidente. La storia era più interessante della prima, confermando più pregiudizi.

*Nell'agosto del 2018, i troll russi hanno raggiunto l’Italia. Il Corriere della Sera e Repubblica citano il sito di statistiche americano FiveThirtyEight, fondato da Nate Silver, noto per aver predetto correttamente la vittoria di Obama nel 2008. Silver ha indagato sulla "fabbrica di troll" dell'Internet Research Agency, coinvolta nelle elezioni statunitensi, che tra il 2012 e il 2018 ha prodotto quasi 3 milioni di tweet da 3000 account. La maggior parte dei tweet in italiano era favorevole a Lega e Movimento 5 Stelle. Immediata la reazione del PD, che ha denunciato l’influenza sulle elezioni del marzo 2018. Due deputati, Anzaldi e Miceli, hanno richiesto l'istituzione di una commissione d’inchiesta. La rivista Wired ha cercato di approfondire la questione, scoprendo che i tweet in italiano erano solo 18.000, lo 0,6% dei 3 milioni totali. Di questi, 13.000 erano retweet, principalmente dall'Italia. Pubblicati tra gennaio e marzo 2018, erano appena tre. Ciò solleva almeno un sospetto: la politica potrebbe cercare di sfruttare, creando a sua volta notizie false, la diffusione delle fake news.

*Da sempre il campo fertile per le bufale sono le guerre. In queste situazioni, anche il giornalista inviato sul posto può essere ingannato, poiché durante i conflitti, ogni cittadino sembra impegnato a fare propaganda per la propria parte, e i giornalisti sono spesso presi di mira. Durante la caduta di Ceaușescu in Romania, nel dicembre 1989, un gruppo di giornalisti fu portato in un campo a Timișoara, dove videro quindici cadaveri - corpi legati ai piedi con filo di ferro, tra cui un bambino sul corpo della madre - e fu loro detto che si trattava di "rivoluzionari" uccisi dai lealisti del presidente. I media di tutto il mondo, grazie anche alle immagini, diffusero la notizia di 5000 morti a Timișoara. La storia successiva avrebbe rivelato poco più di 100 vittime. Quel campo era in realtà il cimitero dei poveri della città, e i corpi erano stati appena dissotterrati, una trappola per i giornalisti.

*Quattordici anni dopo, abbiamo un altro caso emblematico di fake news utilizzate dalla politica contro i giornalisti e i cittadini: il discorso di Colin Powell, Segretario di Stato degli Stati Uniti, al Consiglio di Sicurezza dell'ONU, il 5 febbraio 2003. Powell mostrò una fiala di antrace, sostenendo di avere prove certe riguardo ai programmi di proliferazione chimica e batteriologica del regime iracheno. La fonte di Powell era un ingegnere chimico iracheno, che anni dopo ammise di essersi inventato tutto. Le ispezioni dell'ONU successive al 2003 smentirono le affermazioni di Powell. Un mese e mezzo dopo quel discorso, gli Stati Uniti, supportati da Gran Bretagna e Italia - con i primi ministri Blair e Berlusconi - diedero il via alla guerra in Iraq.

*Un altro caso celebre riguarda un tweet che mostrava la foto di una bambina "che corre per salvarsi dopo che tutta la sua famiglia è stata massacrata dagli uomini di Assad" ad Aleppo, in Siria. In realtà, si trattava di un'immagine tratta da un videoclip del 2014 della cantante libanese Hiba Tawaji, che non aveva alcun legame con Aleppo.

Nell'agosto 2017, dopo l'attentato a Barcellona che causò 13 morti e fu attribuito allo Stato Islamico, un blog spagnolo diffuse una notizia che insinuava che i manteros—i venditori ambulanti che espongono la merce su teli per terra—fossero scomparsi poco prima dell'attentato, insinuando che, essendo musulmani, fossero a conoscenza di qualcosa in anticipo. Tuttavia, i residenti di Barcellona sapevano che da tempo i manteros non frequentavano la parte superiore delle Ramblas, dove avvenne l'attentato, se non in tarda serata e in piccola quantità. Sapevano anche che la loro presenza si era ridotta a causa della politica restrittiva della Generalitat. Una delle immagini che accompagnava l'articolo mostrava i manteros sulla Rambla, ma si scoprì che era stata scattata durante una protesta l'anno precedente. Nonostante fosse una notizia falsa, il seme del razzismo era stato piantato.

Dopo guerra e terrorismo, i produttori di fake news hanno trovato un nuovo campo d'azione: le elezioni, un elemento cruciale della democrazia, come già visto nel caso di Trump e del PD.

Brexit. Il 23 giugno 2016, il Regno Unito ha deciso di uscire dall'Unione Europea. Durante la campagna elettorale, circolò la notizia che l'UE costava al Regno Unito 350 milioni di sterline (circa 450 milioni di euro) a settimana. In realtà, il contributo netto era di 160 milioni di sterline (200 milioni di euro) a settimana. Un autobus con la scritta dei 350 milioni divenne celebre; fu un'idea di Dominic Cummings, lo spin doctor della campagna, che in seguito divenne il consigliere principale del primo ministro Boris Johnson.

Abbiamo già parlato dell'attività dei troll russi durante la campagna Trump-Clinton. Secondo il Washington Post, citando una ricerca del gruppo PropOrNot, circa 200 siti web rilanciarono la propaganda di media russi come Russia Today o Sputnik durante la campagna elettorale. L'obiettivo era screditare Hillary Clinton. Questo sistema è pericoloso: la propaganda attirò circa 15 milioni di americani che, a loro volta, condivisero quelle storie 213 milioni di volte. In pratica, alcuni erano consapevoli di diffondere la propaganda, mentre altri rilanciavano fake news senza saperlo.

La Brexit vinse il referendum con un margine di 1,25 milioni di voti, mentre Trump vinse le elezioni presidenziali grazie al sistema elettorale, nonostante avesse ottenuto 1,3 milioni di voti in meno rispetto a Hillary Clinton. Cosa sarebbe successo senza l'intervento delle fake news? Non lo sapremo mai, ma è probabile che abbiano avuto un certo impatto.

Gilet gialli francesi. Anche in questo caso si è parlato di troll russi. Secondo Alliance for Securing Democracy, a metà del 2018, 600 account Twitter noti per promuovere le posizioni del Cremlino si concentrarono sulla Francia, utilizzando l'hashtag #giletsjaunes. In quelle settimane, siti collegati alla Russia diffondevano notizie false su un presunto sostegno della polizia ai manifestanti. Il portavoce di Putin, Dmitri Peskov, smentì queste accuse, affermando: "Non interferiamo negli affari di nessun Paese". Alliance for Securing Democracy fa parte del German Marshall Fund, che promuove la cooperazione tra Stati Uniti ed Europa.

Anche il team di fact-checking dell'Agenzia Agi ha un capitolo dedicato alle bufale sui gilet gialli. Un esempio è la foto di una ghigliottina in piazza, usata in una protesta sindacale contro i tagli alla cultura nel gennaio 2018, spacciata per un'azione dei gilet gialli. La foto era manipolata: nell'originale, i nastri della ghigliottina erano rossi e i manifestanti non indossavano gilet gialli. Un altro esempio è un video, visto da oltre 4,5 milioni di persone, che mostrava il presidente Macron e sua moglie Brigitte mentre ballavano due giorni prima delle proteste. In realtà, le immagini erano di ottobre e si riferivano a una visita di Macron a Yerevan, in Armenia, durante un ricevimento in cui il presidente francese aveva partecipato a una danza tradizionale.

Sandy Hook. Il 12 dicembre 2012, a Sandy Hook, in Connecticut, un uomo armato entrò in una scuola elementare e uccise 20 bambini e sei insegnanti, prima di togliersi la vita. I genitori di una delle vittime hanno scritto una lettera a Mark Zuckerberg: "Da quel giorno, abbiamo subito molestie online, telefoniche e di persona, ricevendo abusi e minacce di morte". La tragedia di Sandy Hook scatenò una valanga di notizie false, alimentate da chi temeva un giro di vite sulla legislazione sulle armi. Venne diffusa la falsa convinzione che la strage fosse una messa in scena, con i bambini e gli insegnanti uccisi interpretati da attori e i parenti delle vittime complici di questa "recita". Il motivo? Spingere per una riduzione della vendita di armi da fuoco.

Un video intitolato "The Sandy Hook Shooting - Fully Exposed", che analizzava le incongruenze dell'attacco, raggiunse 8 milioni di visualizzazioni in nove giorni. In una scena si vedeva Obama con alcuni parenti delle vittime, tra cui una bambina che sembrava essere Emily Parker, una delle bimbe uccise. Questo portò alla conclusione che la bambina fosse ancora viva, ma si scoprì che si trattava della sorella di Emily. I genitori delle vittime scrissero a Zuckerberg perché Facebook era diventato il principale veicolo di diffusione delle teorie complottiste e degli inviti all'azione contro i parenti.

Questo caso esemplifica come una potente lobby—quella delle armi—abbia usato i media per creare una realtà parallela, ignorando il dolore delle famiglie e manipolando i fatti. I giornalisti si sono trovati al centro della tempesta, costretti a distinguere con cura tra verità e falsità non per una questione politica, ma per il bene pubblico, che ha il diritto di conoscere la verità.

L'analisi delle dinamiche delle fake news durante il referendum costituzionale del 2016 in Italia ha evidenziato un fenomeno noto come "polarizzazione", in cui gli utenti del web tendono a rimanere chiusi in echo chambers, ovvero ambienti informativi che rispecchiano le loro idee e convinzioni preesistenti. Questo porta a una limitata esposizione a punti di vista differenti e rafforza la divisione tra le diverse opinioni politiche.

Per le elezioni italiane del 2018, la consapevolezza riguardo alla diffusione di fake news era ancora più elevata. Fu sviluppato un algoritmo, chiamato Bias Tracker, da un gruppo di ricerca per monitorare il sentimento degli utenti sui social media. L'algoritmo ha analizzato 57 mila post sulle pagine Facebook di testate nazionali e ha rilevato che solo nel 10% dei casi si verificò un cambiamento di atteggiamento degli utenti. Anche se questa percentuale non sembra allarmante, un sondaggio della Doxa del febbraio 2018 ha rivelato che oltre il 40% degli italiani intervistati ammetteva di non saper riconoscere le fake news, e l'80% considerava tali informazioni capaci di influenzare l'opinione pubblica.

L'AGCOM (Autorità per le Garanzie nelle Comunicazioni), preoccupata per l'impatto della disinformazione online, ha rilasciato un comunicato nel 2018 in vista delle elezioni europee, invitando piattaforme come Facebook, Google e Twitter a svolgere un ruolo più attivo nella regolamentazione e nel contrasto alla diffusione di notizie false e contenuti che incitano all'odio. L'obiettivo era prevenire che queste dinamiche potessero influenzare la campagna elettorale.

Questi fenomeni dimostrano che il contesto delle fake news è strettamente legato alla polarizzazione e all'isolamento degli utenti, i quali finiscono per consumare contenuti che rinforzano le proprie convinzioni, creando divisioni tra le varie comunità online. La circolazione di notizie false durante una campagna elettorale può influenzare il processo decisionale degli elettori, contribuendo a distorcere il libero convincimento degli stessi.

Sebbene non esistano dati concreti che dimostrino in che misura le fake news abbiano cambiato le intenzioni di voto durante le elezioni italiane, l'influenza che queste notizie possono avere è indiscutibile. Alcuni studiosi sostengono che le fake news potrebbero essere persuasive tanto quanto le campagne televisive, anche se la mancanza di studi specifici impedisce di affermare con certezza questa equivalenza. Tuttavia, le fake news rappresentano chiaramente uno strumento per catalizzare il consenso e influenzare l'elettore.

Si discute frequentemente, specialmente riguardo al Brasile, se l'intolleranza osservata durante i dibattiti politici delle elezioni del 2018 sia stata un fenomeno scaturito dall'uso massiccio delle piattaforme digitali, alimentato dalle fake news e dagli scontri politici, oppure se essa rappresenti semplicemente un’espressione estrema di una polarizzazione politica già esistente. Si ritiene che entrambe queste ipotesi siano corrette e, pertanto, si completino a vicenda. La disinformazione avvelena il dibattito e genera un clima di incertezza e sfiducia, ma ciò che appare ancora più pericoloso è la capacità che questo inquinamento ha di rafforzare e amplificare la polarizzazione delle opinioni nella società.

L’aspetto etico, fondamentale nelle campagne elettorali, ha perso la sua importanza, e le discussioni politiche superano ormai i confini delle questioni puramente ideologiche. L’utilizzo di pratiche dannose per la convivenza civile, soprattutto in politica, con la diffusione di falsità, un tempo veicolate dalla stampa tradizionale o attraverso lettere e volantini anonimi, ha raggiunto proporzioni enormi a causa dello sviluppo tecnologico. In questo senso, le reti sociali riflettono e giudicano i comportamenti e le posizioni dei politici e dei partiti, già danneggiati dalla crisi democratica.

In queste circostanze, la politologa belga Chantal Mouffe attribuisce la crescente intolleranza sociale alla ricerca errata di un consenso assoluto, accompagnata dal vano tentativo di eliminare il dissenso naturale dell’umanità. Secondo Mouffe, l’agonismo dovrebbe prevalere sull’antagonismo, sostenendo che “[...] ciò che la democrazia richiede è che si formuli la distinzione noi/loro in modo compatibile con l’accettazione del pluralismo, elemento fondante della moderna democrazia”.

Il regresso della civiltà, causato dall’influenza delle fake news nel dibattito politico globale, è strettamente connesso al declino etico della politica. Nel best-seller How Democracies Die (Come muoiono le democrazie), gli autori Steven Levitsky e Daniel Ziblatt affrontano il tema, evidenziando come il deterioramento delle relazioni politiche abbia contribuito alla polarizzazione, amplificata nell'era digitale. Gli autori sostengono che la costante violazione delle norme di condotta politica (spesso non scritte) e il disprezzo verso le istituzioni democratiche abbiano innescato una crisi democratica. Questa crisi si manifesta nell'inasprimento delle tensioni politiche tra i candidati e i rispettivi partiti.

Levitsky e Ziblatt individuano il degrado della politica americana nella falsità della cosiddetta tolleranza reciproca, affermando che i politici non considerano più i loro avversari come cittadini rispettabili e patriottici. Gli autori osservano che “[...] riconosciamo che i nostri avversari politici sono cittadini onesti, patriottici e rispettosi della legge – che amano il nostro Paese e rispettano la Costituzione come noi”. I professori di Harvard aggiungono che un altro fattore chiave della degenerazione democratica, da loro definito violazione delle norme istituzionali, si manifesta quando lo spirito democratico viene violato, anche se gli atti non contravvengono formalmente alla legge. Ad esempio, citano l'assenza di una regola che impedisca un terzo mandato presidenziale negli Stati Uniti, norma comunque rispettata dai partiti in passato.

Il radicalismo e la rottura dell'etica politica hanno spinto anche gli utenti di internet a comportarsi in modo intollerante, emulando i politici, trasformando il web in uno spazio di scontro personale e di affermazione di valori ideologici. Questo fenomeno legittima, consapevolmente o meno, la disonestà digitale. Al contempo, i social media permettono agli utenti di ottenere visibilità esprimendo le loro preferenze politiche, e questa esposizione – spesso manipolata artificialmente – ha contribuito a mettere in scena uno spettacolo di intolleranza già vissuto nell’ambito politico.

Sfortunatamente, questo spettacolo di intolleranza si è replicato anche in Brasile, durante le elezioni del 2018, seguendo l’esempio della società statunitense nelle elezioni del 2016. Questo effetto boomerang sembra aver incentivato la persistenza dell’intolleranza in gran parte della classe politica.

Le fake news, che hanno caratterizzato i processi elettorali in diverse nazioni, presentano somiglianze significative per quanto riguarda il loro contenuto rivolto agli elettori. Tuttavia, vi sono differenze specifiche che emergono nel contesto brasiliano. In questo caso, se ne possono individuare almeno due. La prima riguarda l'uso dell'applicazione WhatsApp, che è principalmente concepita per la comunicazione privata tra persone. Tuttavia, in Brasile, a causa della creazione di grandi gruppi, WhatsApp ha avuto un ruolo fondamentale nella diffusione di notizie manipolate, rendendo difficile il controllo da parte della Giustizia Elettorale. Questo perché il servizio di pubblicazione su WhatsApp è gratuito e non richiede rendicontazioni sul contenuto o sulle somme spese per la propaganda elettorale, sia essa positiva o negativa, da parte dei candidati o dei partiti.

L'assenza di criteri di controllo da parte dello Stato fa sì che le app di comunicazione interpersonale conferiscano un grado di credibilità maggiore rispetto ad altre piattaforme sociali, basato sulla presunzione di fiducia tra i partecipanti del gruppo, che si conoscono o hanno legami. Questo favorisce la rapida diffusione delle notizie senza che vengano messe in discussione, rendendo quasi impossibile risalire alla loro origine e creando una sorta di "bolla protettiva" intorno all'informazione.

Un esempio emblematico di questa dinamica è stato riportato dal giornale Folha de São Paulo nell'edizione del 18 ottobre 2018, in un articolo intitolato "Imprenditori finanziano la campagna elettorale contro il PT tramite WhatsApp". L'articolo denunciava l'uso di WhatsApp nella modalità di "invio massivo", che si avvaleva di diverse banche dati, incluse quelle fornite dallo stesso candidato e da agenzie di consulenza digitale. Tra le agenzie menzionate figurano Quickmobile, Yacows, Croc Services e SMS Market, tutte coinvolte nelle strategie di propaganda elettorale digitale finanziata da imprenditori. Questo comportamento potrebbe configurare un abuso di potere, dato che viola l'accesso a banche dati proibite dalla legge elettorale e coinvolge donazioni da parte di persone giuridiche, utilizzate per finanziare propaganda elettorale negativa su larga scala.

Tale caso è stato oggetto di indagine nell'ambito dell'Azione di Investigazione Giudiziaria Elettorale (AIJE) nº 11.527, processo nº 0601771-28.2018.6.00.0000, presso il Tribunale Superiore Elettorale (TSE). Tuttavia, le richieste cautelari di blocco sono state respinte, con il TSE che ha motivato la decisione sulla base di irregolarità procedurali e dell'orientamento giurisprudenziale dello stesso Tribunale, il quale dà grande importanza alla libertà di espressione. Altre decisioni del TSE hanno seguito questa linea, nonostante la legislazione vigente preveda l'intervento dello Stato in presenza di notizie false e diffamatorie nei confronti dei candidati.

Un altro esempio rilevante è rappresentato dal caso nº 0601846-67.2018.6.00.0000, in cui i candidati Fernando Haddad e Manuela D'Ávila hanno richiesto la rimozione immediata di una fake news diffusa su diverse piattaforme social, che li accusava falsamente di aver gettato una Bibbia nella spazzatura durante un evento politico a Fortaleza, e di essere associati a sentimenti anti-religiosi.

Un ulteriore caso, l'esposto nº 0601545-23.2018.6.00.0000, riguardava la richiesta di rimozione di un'accusa apparsa su un blog, secondo la quale il senatore Álvaro Dias avrebbe ricevuto tangenti per 37 milioni di reais dalla Commissione Parlamentare di Inchiesta (CPI) della Petrobras. In tutte queste azioni, il TSE ha attribuito agli utenti di internet la responsabilità di verificare l’autenticità delle informazioni e di formarsi un'opinione personale, invocando la libertà di informazione, il libero scambio di idee e il dibattito pubblico, anche nel caso di offese personali o falsità comprovate. Le decisioni del Tribunale Superiore Elettorale (TSE) riguardo ai noti casi di notizie false che hanno influenzato il processo elettorale brasiliano, si sono orientate verso una chiara scelta di non intervenire sui contenuti online, attribuendo agli elettori la responsabilità di filtrare tali informazioni. Questo nonostante la legislazione brasiliana garantisca esplicitamente il diritto di replica e la rimozione di contenuti diffamatori, come stabilito dall’articolo 58 insieme all'art. 57-D § 3º della Legge 9.504/97, in cui si afferma che “[...] anche in forma indiretta, per concetto, immagine o affermazione calunniosa, diffamatoria, ingiuriosa o palesemente falsa, diffusa attraverso qualsiasi mezzo di comunicazione sociale” è prevista la possibilità di intervento.

L'atteggiamento del TSE, che sembra disinteressarsi dell'informazione illegale durante le elezioni, solleva una questione importante: la decisione del TSE è stata una scelta di principio, in contrasto con la norma stabilita, o riflette la palese incapacità dello Stato di esercitare il controllo elettorale promesso sulle fake news? Quel che appare evidente è l’inerzia della Giustizia Elettorale di fronte alle norme che regolano il processo elettorale. L’abuso dei mezzi di comunicazione sociale, infatti, è sanzionato con la punizione più severa nel contesto elettorale, come indicato nell’art. 22 della Legge Complementare 64/90, che ha dato attuazione all'art. 14 § 9º della Costituzione Federale. Tale legge prevede la perdita del mandato e l'ineleggibilità come misura per tutelare la legittimità delle elezioni. Tuttavia, la giustizia specializzata non ha minimamente affrontato la complessa realtà delle fake news.

È noto che il sistema giuridico brasiliano è fortemente influenzato dal diritto statunitense, che pone la libertà di espressione quasi come un principio assoluto, rendendo difficile qualsiasi controllo giurisdizionale, anche quando si tratta di contenuti chiaramente sanzionabili dalla legislazione brasiliana, la quale garantisce l'intervento dello Stato nei casi di disinformazione. Si pone quindi l’accento sull'autoregolamentazione sociale. Aline Osório, ad esempio, sostiene che la libertà di espressione “[...] è la realizzazione della democrazia e dell'autodeterminazione collettiva”, aggiungendo che “[...] è essenziale garantire piena libertà affinché tutti i gruppi di individui possano accedere a opinioni e punti di vista su temi di interesse pubblico”.

Con l’evoluzione tecnologica, le fonti di informazione si sono moltiplicate. Oggi, non si tratta più solo di notizie diffuse tramite mezzi di comunicazione tradizionali o giornalisti professionisti che esercitano la libertà di stampa. L'informazione è anche generata da individui comuni attraverso blog, social network e altre piattaforme, che consentono una maggiore partecipazione del pubblico.

L'idea di una libertà assoluta di espressione politica trova risonanza in Ronald Dworkin, che afferma che lo “[…] Stato insulta i suoi cittadini e nega loro la responsabilità morale quando decide che non ci si può fidare di loro per ascoltare opinioni che potrebbero persuaderli ad adottare convinzioni pericolose o offensive”. Esiste, dunque, la libertà di espressione, opinione e idee, ma i fatti rimangono fatti, indipendentemente dalle interpretazioni soggettive. Come recita il famoso adagio, "possiamo avere le nostre opinioni, ma non i nostri fatti". La distorsione o manipolazione dei fatti, e in particolare le fake news, devono essere esaminate dalla giustizia, come stabilito dalla legge per quanto riguarda affermazioni “calunniose, diffamatorie, ingiuriose o palesemente false”.

Non si trattava di questionare, ad esempio, l'affermazione che l'ex presidente Barack Obama non fosse nato negli Stati Uniti, come sostenuto dal movimento "birther" guidato da Donald Trump. Steven Levitsky e Daniel Ziblatt riportano nelle loro opere i comportamenti di Trump, che dichiarava: "[...] In verità, ho persone che stanno studiando la questione", aggiungendo, "e non possono credere a quello che stanno scoprendo". Trump è diventato il principale sostenitore del movimento birther negli Stati Uniti, apparendo frequentemente in programmi televisivi e invitando Obama a mostrare il certificato di nascita. E anche quando Obama pubblicò il suo certificato nel 2011, Trump continuò a insinuare che fosse un falso.

Sebbene Trump non si sia candidato contro Obama nel 2012, il persistente dubbio sulla nazionalità del presidente gli garantì grande attenzione mediatica e lo rese una figura popolare tra i sostenitori del Tea Party. L’intolleranza si dimostrò politicamente utile. Il dubbio pubblico e il mantenimento della questione non potevano essere considerati come semplici opinioni o esercizio di libera espressione, soprattutto quando erano parte di una strategia deliberata per ottenere vantaggi politici. Trump, tuttavia, non ha mai ammesso la falsità delle sue affermazioni, che, secondo le ricerche citate da Levitsky e Ziblatt, continuavano a far parte delle convinzioni del 37% degli intervistati.

L'esempio brasiliano non si discosta dal modello statunitense in quanto a uso di disinformazione elettorale. Durante la campagna elettorale, Jair Bolsonaro accusò il governo del PT, e in particolare il Ministero dell'Istruzione sotto Fernando Haddad, di aver distribuito un presunto "kit gay" nelle scuole, il cui obiettivo, secondo Bolsonaro, sarebbe stato incentivare l'omosessualità tra i bambini. Questa affermazione fu ripetuta più volte, anche durante un'intervista alla Rete Globo nel corso del Notiziario nazionale, in cui Bolsonaro mostrò una pubblicazione che sosteneva fosse parte del presunto kit. Nonostante l'intervento della giustizia, che vietò la diffusione di questa notizia falsa, essa continuò a circolare, sia in programmi radiofonici sia attraverso la comunicazione personale, come confermato dai media.

Dall'altro lato, il Partito dei Lavoratori (PT) associò l'immagine di Bolsonaro alle torture della dittatura militare brasiliana nel suo spazio elettorale gratuito del 16 e 17 ottobre 2018, mostrando immagini di torture commesse dal regime. Questo collegamento venne fatto senza prove storiche concrete, basandosi solo su vecchie dichiarazioni di Bolsonaro che sembravano giustificare la tortura in "certe" circostanze. Il messaggio veicolato suggeriva che Bolsonaro avrebbe torturato i suoi avversari politici in caso di vittoria elettorale. A seguito di una denuncia, il TSE sospese questa propaganda con l'ordinanza n° 0601776-50, affermando che "[...] la distopia simulata nella propaganda, considerando il clima di polarizzazione ed estremismo del momento politico attuale, potrebbe generare reazioni emotive nella popolazione tali da incitare a comportamenti violenti".

Sia Bolsonaro sia Haddad, seguendo l'esempio di Trump, non hanno mai riconosciuto di aver diffuso false informazioni, e entrambi hanno tratto vantaggio elettorale dalle fake news. Uno studio della IDEIA Big Data/Avaaz, pubblicato il 1º novembre 2018, ha rivelato che l'83,7% degli elettori di Bolsonaro credeva alla notizia falsa secondo cui Haddad aveva distribuito il "kit gay" quando era ministro dell'Istruzione. Questo dato dimostra come i fatti siano stati distorti a beneficio delle candidature, violando la libertà di espressione e l'accesso a un'informazione di qualità, che lo Stato dovrebbe tutelare.

Ne emerge un quadro preoccupante, in cui la menzogna e la disonestà sembrano avere un peso maggiore rispetto all'etica della verità nel contesto democratico. Quando la verità smette di essere un valore da perseguire per candidati e partiti, e la menzogna è giustificata per difendere un presunto interesse superiore (che sia di matrice liberale o socialista), la responsabilità di discernere tra fatti e false notizie viene lasciata alla popolazione, in particolare ai seguaci più attivi sui social media. Questo scenario riflette simbolicamente l'atteggiamento dei leader politici, riprendendo l'analisi di Pierre Bourdieu secondo cui alcuni leader godono di un particolare "kred", un carisma o credito che genera nei seguaci una sorta di fede cieca, alimentando l'obbedienza e la fiducia, anche di fronte alla manipolazione della realtà.

Analizzando il contesto geopolitico, si potrebbe dire che Brexit, gilet gialli, Bolsonaro, Trump, elezioni italiane del 2018, ma anche quanto accaduto in Svezia, India e Svizzera[4],  sono tutti esempi di come le fake news possano far parte di un piano orchestrato, forse da potenze come gli Stati Uniti e la Russia, per destabilizzare l'Europa.


La manipolazione dell’IA sul voto

Negli ultimi anni, il fenomeno della disinformazione ha conosciuto una crescita rilevante, non solo grazie all'espansione di internet e alle strategie di comunicazione digitale, ma anche per via dello sviluppo e della diffusione dei sistemi di intelligenza artificiale (IA)[5]. Questi sistemi giocano un ruolo fondamentale in diverse fasi del ciclo di vita della disinformazione, influenzandone sia la creazione che la diffusione.

Per quanto riguarda la produzione di disinformazione, è importante citare l'emergere di numerosi strumenti, in particolare legati all'IA generativa, ai modelli fondativi e ai modelli linguistici di grandi dimensioni (LLM). Questi sono capaci di generare immagini, video e testi sintetici estremamente realistici. Un aspetto particolarmente preoccupante è l'uso crescente di IA per creare contenuti falsi, come i deepfake, che sono diventati particolarmente allarmanti nel contesto attuale, specie alla luce di conflitti come quello tra Russia e Ucraina e tra Israele e Palestina, che hanno un impatto determinante sullo scenario geopolitico globale.

Ad esempio, nel novembre 2023, negli Stati Uniti è stato diffuso online un video che mostrava la rappresentante democratica Alexandria Ocasio-Cortez discutere in modo sconclusionato sul cessate-il-fuoco a Gaza. Nel video, la deputata affermava: «Cease-fire significa che qualcuno vede un fuoco. Potrebbe essere qualsiasi tipo di fuoco. Potrebbe essere un grande fuoco o un piccolo fuoco, un falò o persino la fiamma di una candela. Conta solo che qualcuno veda un fuoco, per questo lo chiamiamo cease-fire». Questo video, visibilmente contrassegnato dal watermark di un account specifico di X (C3PMeme), era chiaramente un deepfake, creato alterando un frammento di una sessione live su Instagram in cui Ocasio-Cortez esprimeva il suo supporto per il cessate-il-fuoco. Nonostante la sua evidente falsità, il video ha avuto ampia diffusione su X e su altre piattaforme social, raggiungendo così un vasto pubblico. Sebbene il contenuto potesse sembrare comico per la sua assurdità, la sua circolazione ha seriamente compromesso la credibilità della figura politica, con il potenziale di influenzare negativamente la percezione pubblica di Ocasio-Cortez e, quindi, la sfera politica.

In contemporanea, un altro video contenente un messaggio audio circolava online, attribuendo falsamente al sindaco di Londra Sadiq Khan l'intenzione di posticipare l'Armistice Day, una giornata commemorativa per la Prima Guerra Mondiale, per dare priorità a una marcia a sostegno della Palestina. L'audio, inizialmente condiviso su TikTok, si è poi diffuso su altre piattaforme, venendo amplificato da account per lo più vicini a posizioni politiche di destra indignati per le presunte dichiarazioni di Khan.

L'intelligenza artificiale si presta quindi a molteplici usi finalizzati alla creazione di contenuti disinformativi. Uno studio recente pubblicato dall'European Digital Media Observatory (EDMO) ha messo in luce alcune delle tecniche più avanzate per la creazione di deepfake, che includono la manipolazione di attributi facciali, attraverso cui vengono modificate caratteristiche del volto della persona ritratta (ad esempio, invecchiamento o ringiovanimento); il face swap, che sostituisce il volto presente in un'immagine o in un video con un altro; e il face reenactment e lip synching, che manipolano i movimenti del volto e delle labbra della persona ritratta per farle sembrare che abbiano pronunciato determinate parole. Questo è stato il caso del video di Ocasio-Cortez.

Parallelamente, l'industria dell'IA ha compiuto enormi progressi nel campo della sintesi vocale. Sono sempre più diffusi, infatti, sistemi che sintetizzano contenuti audio a partire da testo (text-to-speech), così come strumenti in grado di trasformare tali contenuti audio in modo da replicare le caratteristiche vocali, incluso il timbro, di una persona specifica (voice conversion).

Inoltre, l'IA, grazie allo sviluppo di modelli linguistici avanzati, trova applicazione anche nella generazione automatizzata di testi. Recenti ricerche hanno dimostrato che molti di questi sistemi, se stimolati con input mirati alla creazione di contenuti disinformativi, sono in grado di produrre articoli e notizie apparentemente plausibili ma che non rispecchiano la verità. Solo pochi sistemi tendono a generare contenuti che contraddicano tali suggerimenti o dispongono di filtri di sicurezza in grado di ridurre la produzione di disinformazione.

Chiaramente, l'uso massiccio e la diffusione di questi sistemi comportano rischi significativi, soprattutto nel contesto di processi democratici. Oltre alla creazione di contenuti falsi, l'IA ha un ruolo cruciale anche nella loro distribuzione. Questo avviene principalmente attraverso due modalità: da un lato, l'utilizzo dell'IA da parte di individui o gruppi per promuovere la diffusione di contenuti disinformativi in rete, aumentando la portata del loro impatto; dall'altro, il peculiare sistema di organizzazione dei contenuti su internet.

Per quanto riguarda il primo aspetto, una pratica diffusa è l'uso di social bot, ovvero account falsi gestiti automaticamente o semiautomaticamente (in quest'ultimo caso si parla di "cyborg", cioè profili gestiti in parte da esseri umani e in parte dall'IA), con l'obiettivo specifico di amplificare la diffusione di contenuti dannosi, tra cui non solo disinformazione ma anche discorsi d'odio.

Per quanto riguarda il secondo aspetto, l'IA svolge un ruolo cruciale nella gestione dei contenuti delle piattaforme digitali. In particolare, i sistemi di raccomandazione (recommender o recommendation systems) sono di grande importanza, poiché analizzano i dati e le informazioni raccolte sulle preferenze di ciascun utente per predire il suo grado di apprezzamento rispetto a nuovi contenuti e elementi. Ad esempio, le piattaforme di condivisione video, come YouTube o Vimeo, elaborano le informazioni sui video precedentemente visualizzati da un utente per suggerire ulteriori contenuti simili; analogamente, le piattaforme di streaming on demand (come Netflix, Amazon Prime, Disney+, ecc.) impiegano tali sistemi per migliorare l'esperienza dei clienti. Questi strumenti sono fondamentali anche nei social network, consentendo ai fornitori di tali piattaforme di garantire agli utenti contenuti che rispondano non solo ai loro gusti e interessi personali, ma anche al loro sistema di valori e alle loro inclinazioni politiche. In altre parole, rappresentano elementi chiave nella creazione di quello che Cass Sunstein ha definito il "Daily Me". È quindi evidente il ruolo centrale che i sistemi di raccomandazione hanno nella diffusione delle informazioni e nella formazione della coscienza pubblica, poiché possono influenzare e strutturare le preferenze degli utenti e guidarne le scelte sia a livello individuale che collettivo.

L'uso di sistemi automatizzati per la gestione dei contenuti online è un'arma a doppio taglio nel contrasto alla disinformazione e nella promozione del pluralismo informativo. Sotto il profilo del loro potenziale impiego a favore del miglioramento del dibattito pubblico, è stato suggerito di utilizzare attivamente tali strumenti per massimizzare il valore della diversità e del pluralismo informativo durante la fase di sviluppo e progettazione dei sistemi di raccomandazione (noto come “diversity by design”), così da arricchire l'ecosistema informativo e ridurre gli effetti collaterali legati alla formazione di camere d'eco nell'ambiente digitale. Tuttavia, ci sono anche rischi associati all'uso di questi sistemi: lo sviluppo di questi ultimi è spesso orientato principalmente all'interesse economico di massimizzare il coinvolgimento degli utenti e, quindi, i profitti. Poiché i contenuti altamente divisivi e polarizzanti – come le notizie false – tendono a catturare l'attenzione del pubblico, esiste un rischio concreto che l'algoritmo, nel tentativo di suscitare interesse, non solo non riduca la diffusione di disinformazione, ma addirittura la favorisca.

Questo rischio è particolarmente rilevante in relazione alle camere d'eco e alle bolle filtro, poiché all'interno di gruppi sociali legati a teorie cospirazionistiche, l'interazione con contenuti disinformativi aumenta le probabilità di ulteriore esposizione a tale disinformazione. Inoltre, numerosi studi hanno evidenziato come l'IA applicata alla moderazione e alla gestione dei contenuti possa essere soggetta a errori e pregiudizi, a danno soprattutto di minoranze o di categorie vulnerabili e discriminate, compromettendo così la promozione di un ecosistema informativo pienamente pluralistico.

Tuttavia, l'intelligenza artificiale non deve essere vista, e questo è un passaggio cruciale per evitare una visione distopica o catastrofista, unicamente come strumento per la produzione e diffusione di contenuti disinformativi; può anche rappresentare un'importante risorsa per contrastarne gli effetti. Infatti, così come per la moderazione di altri fenomeni di inquinamento informativo, l'IA è un fattore essenziale e necessario nella riduzione della disinformazione online.

Da un lato, l'IA viene utilizzata dalle piattaforme online per identificare non tanto i contenuti falsi in sé, quanto piuttosto i profili falsi (ad esempio, i cosiddetti “bot” o “troll”). Questi account falsi presentano pattern comportamentali specifici e osservabili, come un aumento anomalo delle attività online all'inizio della diffusione della disinformazione.

Dall'altro lato, l'IA può essere impiegata per identificare contenuti falsi, in particolare quelli sintetici o manipolati attraverso l'IA stessa. A tale scopo, è comune l'uso di modelli di deep learning, basati su reti neurali convoluzionali (convolutional neural networks, CNN), addestrati utilizzando dataset consolidati in letteratura. Studi empirici hanno dimostrato che immagini e contenuti audio, video o testuali presentano caratteristiche che ne rivelano l'origine sintetica. Attualmente, tali sistemi sono particolarmente efficaci quando addestrati per riconoscere specifiche forme di manipolazione, sebbene ci siano tentativi di sviluppare modelli più generali, in grado di astrarre i pattern invisibili caratteristici dei contenuti disinformativi.

Tuttavia, l'uso di tali tecniche di rilevazione non è privo di sfide significative in termini di accuratezza. I limiti di correttezza dei risultati ottenuti tramite sistemi di IA per l'identificazione e la rimozione di contenuti disinformativi sono influenzati da vari fattori. Ad esempio, questi sistemi spesso non riescono a cogliere le sfumature di significato e i sottintesi del linguaggio umano e hanno limitazioni nella loro capacità di comprendere il contesto e le allusioni culturali legate a specifiche affermazioni.


TikTok e Meta: un pericolo per la disinformazione elettorale 

Le fake news trovano la loro massima efficacia quando riescono a sembrare credibili e a coinvolgere un pubblico ampio, che le diffonde senza verificarne la veridicità. L’evoluzione dei mezzi di comunicazione ha storicamente facilitato la diffusione di notizie false: dai giornali alla televisione, fino ad arrivare ai social media, ogni nuova piattaforma ha aumentato le opportunità di accesso a informazioni rapide ma non sempre affidabili. Oggi, molti utenti che usufruiscono dei social media, come YouTube, TikTok e Instagram, sono adolescenti, una fascia di popolazione particolarmente esposta alla disinformazione.

L'intelligenza artificiale sta rendendo la situazione ancora più critica, consentendo la creazione di contenuti falsi e manipolativi in modo sempre più sofisticato e realistico. Le aziende di IA stanno cercando di limitare i rischi, implementando procedure di "red-teaming" sui propri modelli, un processo che testa in modo approfondito i prodotti prima del lancio per identificare e correggere eventuali problemi, come disinformazione, pregiudizi e contenuti dannosi. OpenAI, ad esempio, ha sviluppato Sora, un sistema IA text-to-video, che tuttavia non è ancora disponibile al pubblico proprio a causa dei test approfonditi volti a evitare rischi di diffusione di contenuti falsi. Allo stesso modo, Google ha limitato le risposte del suo chatbot Gemini su temi elettorali, rimandando gli utenti alla ricerca Google.

Anche le piattaforme social come Facebook e Instagram di Meta hanno introdotto iniziative per contrastare la disinformazione, soprattutto in vista delle elezioni. Meta ha firmato un accordo con altre 19 aziende tecnologiche, tra cui OpenAI e TikTok, per sviluppare strumenti capaci di individuare e, possibilmente, correggere la disinformazione generata dall'IA. In questo contesto, TikTok è particolarmente sotto i riflettori: considerata una delle piattaforme più esposte alla diffusione di notizie false, è al contempo un canale ampiamente sfruttato dai politici europei, in particolare da quelli di estrema destra, per raggiungere i giovani elettori.

Secondo Politico Europe, in tutta Europa, TikTok è diventato un "laboratorio" per testare nuove strategie comunicative, in cui video spettacolari e discorsi provocatori raggiungono milioni di utenti. Questo fenomeno sottolinea il ruolo crescente di TikTok nelle campagne elettorali, specie tra i giovani elettori, evidenziando quanto sia importante, per le piattaforme e le autorità, vigilare sulla disinformazione e il contenuto d'odio che potrebbero influenzare il dibattito pubblico e la partecipazione democratica.


Cosa sono i fact checking?

Il fact-checking ha vissuto un periodo di forte notorietà durante la recente campagna presidenziale degli Stati Uniti del 2016, soprattutto con il crescente uso nei media pubblici, nei talk show e durante le competizioni elettorali. Nato nel 2003 come iniziativa dell'Annenberg Public Policy Center, il sito factcheck.org ha ricevuto il premio del Time nel 2006 come uno dei «25 siti da cui non possiamo separarci», nel 2008 è stato riconosciuto da PC Magazine tra i migliori 20 siti politici, e ha ottenuto i Webby Awards ogni anno dal 2008 fino ad oggi. Factcheck.org è ormai considerato una risorsa attendibile per il monitoraggio della veridicità delle informazioni.

Esaminando fonti di informazione chiave come i talk show della domenica, gli spot pubblicitari televisivi, i video di C-SPAN, le dichiarazioni del Presidente, le trascrizioni dei principali programmi televisivi e via cavo, i discorsi e le conferenze stampa, nonché i siti ufficiali e di campagna, Factcheck.org svolge una vera missione sociale cercando di ridurre il tasso di disinformazione e confusione nella politica americana, applicando le migliori pratiche giornalistiche e accademiche. Si tratta essenzialmente di un lavoro investigativo, il cui successo dipende dall'organizzazione e dalla competenza di un team specializzato.

Il sito offre varie sezioni di approfondimento (Articoli), l'ultima delle quali è dedicata agli otto anni di falsità diffuse sulla cittadinanza e sulla religione di Obama. Factcheck.org risponde anche alle richieste dei cittadini di verificare la veridicità di determinate notizie e, soprattutto, mette in luce i meccanismi di diffusione virale (Viral Spiral) dietro le cosiddette "catene" di email. Sezioni speciali sono dedicate ai personaggi politici, ma anche a temi scientifici molto dibattuti, come il cambiamento climatico. Ovviamente, un posto particolare è riservato al neo-presidente Donald Trump, considerato il principale autore di affermazioni false nel 2016.

Con un approccio simile è gestita la sezione Fact Checker del Washington Post e il sito Politifact.com, che ha ricevuto il premio Pulitzer nel 2009 per la sua copertura della campagna presidenziale del 2008. Un altro sito di fact-checking molto citato oggi è Snopes.com, fondato nel 1996 come archivio per confermare o smentire leggende metropolitane, diventato così autorevole da essere menzionato da reti come CNN e FoxNews. I siti di fact-checking sono ora numerosissimi nel panorama globale, e in particolare negli Stati Uniti. Alcuni sono tematici, come OpenSecret.org, che traccia tutti i finanziamenti alla politica. Altri sono chiaramente di parte, come Media Matters.org, un watchdog dei media che si concentra principalmente sul monitoraggio delle notizie diffuse da Fox News; Correct the Record, un comitato di azione politica (PAC) che ha sostenuto la campagna presidenziale di Hillary Clinton.

Il campo del fact-checking è dunque in costante evoluzione, e fortunatamente stanno nascendo nuove iniziative che cercano di ampliare il proprio raggio d'azione. Uno degli esempi più rilevanti è il Digital Forensic Research Lab dell'Atlantic Council, un think tank con sede a Washington. La novità del loro progetto First Draft News è il tentativo di estendere il controllo oltre i media tradizionali, monitorando l'enorme universo digitale, dove la diffusione delle informazioni false è più rapida e meno controllabile. In linea con questa filosofia, c'è anche il progetto CrossCheck, una piattaforma collaborativa lanciata con il supporto di Google News Lab, che mira a implementare un controllo esteso delle informazioni durante le elezioni presidenziali francesi.


Misure adottate dal DSA 

La Commissione Europea ha di recente rilasciato delle indicazioni precise rivolte a quelle piattaforme digitali classificate come grandi o molto grandi secondo quanto stabilito dal Digital Service Act (DSA). L’intento primario di tali istruzioni è quello di fronteggiare in maniera anticipata i potenziali pericoli legati ai deepfake e all’impiego non controllato delle intelligenze artificiali, tematiche di grande rilevanza con l'avvicinarsi delle prossime elezioni europee. Poiché le regolamentazioni previste dal futuro AI Act non saranno attuabili in tempi utili, l’Unione Europea sta tentando, nei limiti del possibile, di ampliare il campo d’applicazione del DSA, con l’obiettivo di ridurre i rischi legati alla diffusione massiccia di disinformazione e confusione durante il periodo elettorale.

In particolare, sono state diffuse delle direttive sulle misure suggerite per i servizi online e i motori di ricerca di dimensioni molto estese, al fine di ridurre i pericoli sistemici sul web che potrebbero compromettere l’integrità dei processi elettorali. Questi orientamenti sono stati elaborati in previsione delle prossime elezioni del Parlamento Europeo di giugno. In conformità con il Digital Service Act (DSA), le piattaforme designate con più di 45 milioni di utenti attivi nell’UE sono tenute a limitare i rischi associati alle elezioni, assicurando allo stesso tempo la tutela dei diritti fondamentali, compreso il diritto alla libertà di espressione. Le linee guida incoraggiano anche una stretta collaborazione con la task force dell'Osservatorio europeo dei media digitali (EDMO), in vista delle elezioni europee del 2024, oltre che un monitoraggio e una valutazione da parte di enti terzi sulle misure di prevenzione adottate, per garantire che queste siano efficaci e rispettino i diritti fondamentali.

Tra le misure previste dalle nuove direttive è da attenzionare il potenziamento dei meccanismi interni delle stesse piattaforme digitali, che devono essere rinforzati anche attraverso la creazione di team interni adeguatamente dotati di risorse. Questi team devono utilizzare le analisi e le informazioni disponibili riguardo ai rischi locali specifici del contesto e all’uso dei loro servizi da parte degli utenti per raccogliere e ottenere dati rilevanti prima, durante e dopo le elezioni, al fine di migliorare le misure di prevenzione.

Per quanto riguarda i singoli periodi elettorali, le piattaforme sono tenute a promuovere informazioni ufficiali sui processi elettorali, implementare programmi di alfabetizzazione mediatica e adattare i loro sistemi di raccomandazione per responsabilizzare gli utenti e ridurre sia la monetizzazione che la diffusione virale di contenuti che potrebbero minacciare l’integrità dei processi elettorali. In aggiunta, la pubblicità politica dovrà essere chiaramente etichettata come tale, in vista del nuovo regolamento relativo alla trasparenza e al targeting della pubblicità politica.

Un’attenzione particolare è dedicata all’utilizzo dell'Intelligenza Artificiale. In questo ambito, le piattaforme online e i motori di ricerca di grandi dimensioni devono valutare e mitigare i rischi specifici associati all’IA. Tra le misure suggerite, vi è la chiara etichettatura dei contenuti generati dall'IA, come i deepfake, l’adeguamento dei termini e delle condizioni d’uso e la loro applicazione in modo efficace e corretto.

Inoltre, le grandi aziende del settore sono invitate a collaborare attivamente con le autorità nazionali e dell’Unione Europea, così come con esperti indipendenti e organizzazioni della società civile, per facilitare uno scambio efficiente di informazioni prima, durante e dopo le elezioni. L'obiettivo di questa cooperazione è garantire l’applicazione di misure di mitigazione appropriate, in particolare nei settori della manipolazione delle informazioni, delle ingerenze di attori stranieri, della disinformazione e della cybersicurezza.

A supporto di questa preparazione, la Commissione ha pianificato uno "stress test" da condurre entro la fine di aprile, una simulazione con le parti coinvolte, per garantire l’uso ottimale degli strumenti e dei meccanismi sviluppati.

Da un lato, i rischi legati all'Intelligenza Artificiale e ai deepfake sono sempre più concreti e visibili; dall'altro, emerge un monitoraggio costante della comunicazione politica online, che potrebbe portare a una profilazione di massa attraverso l'uso di metadati, creando così il pericolo stesso che si desidera evitare, ovvero l’ingerenza e l'influenza indebita sui processi elettorali.

Per fronteggiare queste problematiche, la Commissione Europea ha deciso di emettere un atto delegato specifico, in linea con il Regolamento UE n. 2022/2065, noto come Digital Services Act (DSA), in vigore da febbraio.

L’atto, intitolato “Communication from the Commission on Guidelines for providers of Very Large Online Platforms and Very Large Online Search Engines on the mitigation of systemic risks for electoral processes pursuant to the Digital Services Act” (Regolamento (UE) 2022/2065), C(2024) 2121 final, datato 26 marzo, rappresenta la prima esplorazione formale da parte della Commissione del concetto di “rischi sistemici”. Questo atto di indirizzo sulle misure di contenimento di tali rischi offre una prima guida operativa per i provider nel garantire la compliance alla normativa e sarà un utile punto di partenza per affrontare questioni più ampie riguardanti la mitigazione generale dei rischi.

La Commissione Europea ha avvertito l'urgenza di intervenire, soprattutto perché lo strumento più completo attualmente disponibile, il Codice di condotta sulla disinformazione del 2022, non è ancora stato pienamente integrato nel quadro normativo del Digital Services Act (DSA). Questo processo richiederà che il Codice venga ufficialmente riconosciuto come Codice di condotta adottato ai sensi del DSA, a quel punto sarà dotato di un sistema sanzionatorio ben definito, con indicatori di performance chiave (KPI) e sanzioni correlate.

È importante ricordare, a margine, che le sanzioni previste dal DSA non sono di poco conto: la Commissione ha il potere di imporre sanzioni pecuniarie fino al 6% del fatturato globale delle aziende che violano le regole.

Questi orientamenti, inoltre, completano le politiche già adottate dalla Commissione in materia di democrazia e di elezioni libere, eque e resilienti. Tra queste troviamo lo European Democracy Action Plan del 2020, il pacchetto sulle elezioni e l'integrità presentato nel 2021 e, più recentemente, il Defence of Democracy Package del 2023.

Tali misure si inseriscono in una strategia più ampia che la Commissione ha adottato da tempo, finalizzata a mantenere il più possibile "pulito" il circuito informativo elettorale da influenze indebite, in particolare quelle sponsorizzate da stati esteri. Ciò include anche la protezione contro attacchi informatici, un fenomeno noto come manipolazione e interferenza dell'informazione straniera (FIMI).

Passando al tema centrale, il recente testo emesso dalla Commissione si concentra sulle imminenti elezioni europee, ma ha un'applicabilità più ampia, includendo anche i processi elettorali nazionali all'interno degli Stati membri dell'UE.

L’obiettivo principale di queste nuove disposizioni è rivolto alle piattaforme online e ai motori di ricerca di grandi dimensioni, identificati con gli acronimi inglesi VLOP (Very Large Online Platforms) e VLOSE (Very Large Online Search Engines). Questi grandi operatori digitali, che influenzano fortemente il dibattito pubblico e il comportamento elettorale, sono stati già censiti e designati dalla Commissione in un elenco pubblico.

Il DSA impone a queste piattaforme di valutare e mitigare i rischi "sistemici" che potrebbero minare i discorsi civici e i processi elettorali, con particolare attenzione agli effetti negativi sui diritti fondamentali dei cittadini europei.

La base normativa per le linee guida fornite dalla Commissione Europea è l'articolo 35 del Digital Services Act (DSA), che consente alla Commissione di emanare direttive volte a mitigare rischi specifici. Tali linee guida includono pratiche raccomandate che devono rispettare i diritti fondamentali. La necessità di tali interventi è diventata ancora più evidente a seguito della pandemia, durante la quale fenomeni come la disinformazione e i contenuti estremisti, diffusi attraverso le piattaforme digitali, hanno rappresentato un pericolo significativo per l'integrità dei processi elettorali.

Un rischio concreto si manifesta nella diffusione di contenuti illeciti, ma anche di contenuti dannosi che, pur essendo leciti, possono compromettere la qualità del dibattito pubblico. Di fronte a questo scenario, la Commissione richiede azioni coerenti contro tali contenuti, unitamente alla creazione di efficaci meccanismi di “notifica e azione”. La particolare attenzione della Commissione è rivolta soprattutto ai social network, che in passato hanno giocato un ruolo determinante nella diffusione di disinformazione di massa.

Gli orientamenti attuali mirano a supportare i Very Large Online Platforms (VLOP) e i Very Large Online Search Engines (VLOSE) nell'identificare e affrontare questi rischi specifici. Queste piattaforme devono valutare in autonomia i rischi sistemici, ovvero gli effetti negativi che possono impattare su diritti fondamentali come accessibilità e inclusività per tutti i gruppi, inclusi quelli vulnerabili.

Una volta individuati tali rischi, le piattaforme devono stabilire e attuare misure di mitigazione proattive, adottando un approccio ex ante. Le linee guida della Commissione servono proprio a facilitare questo processo, fornendo un "catalogo" di misure di mitigazione specifiche per l'ambito elettorale, integrando ulteriori obblighi del DSA, come la trasparenza, i sistemi di raccomandazione e i meccanismi di risposta alle crisi.

Una delle sfide principali riguarda il tempismo delle misure, poiché la Commissione raccomanda che queste vengano adottate nei periodi pre-elettorali, elettorali e post-elettorali. Le piattaforme saranno quindi chiamate a rafforzare i loro processi interni in modo da tenere conto delle attività politiche, delle discussioni emergenti sulla piattaforma e dei dati relativi all'uso dei servizi in specifici contesti elettorali. Ciò include la raccolta e l’analisi di dati sugli attori politici, sulle campagne e su altre attività correlate, assicurandosi al contempo che la protezione dei dati personali sia garantita secondo la normativa vigente.

Un altro elemento cruciale consiste nel garantire che le informazioni rilevanti siano facilmente accessibili a chi è responsabile della progettazione e della calibrazione delle misure di mitigazione. Questo implica il coinvolgimento di risorse di moderazione dei contenuti con competenze linguistiche locali e conoscenza approfondita dei contesti nazionali e regionali in cui le piattaforme operano. La Commissione suggerisce anche la creazione di un team interno dedicato prima di ogni ciclo elettorale, con risorse proporzionate ai rischi individuati. Questo team dovrebbe includere esperti in moderazione dei contenuti, verifica dei fatti, sicurezza informatica, disinformazione e partecipazione pubblica, e dovrebbe lavorare a stretto contatto con esperti esterni e organizzazioni di fact-checking indipendenti.

I fornitori di piattaforme sono incoraggiati a specificare nei loro termini e condizioni i periodi in cui verranno attuate misure per mitigare i rischi elettorali, che potrebbero variare in base alle leggi e alle procedure elettorali nazionali. Tali misure dovrebbero essere implementate da uno a sei mesi prima delle elezioni e proseguire almeno per un mese dopo la conclusione del processo elettorale, con una particolare intensificazione delle azioni nel periodo immediatamente precedente al voto.

Infine, un obiettivo chiave delle misure di mitigazione riguarda la facilitazione dell'accesso alle informazioni ufficiali sul processo elettorale. Per contrastare la disinformazione e incoraggiare una partecipazione informata, le piattaforme devono fornire agli utenti informazioni accurate e affidabili sulle modalità di voto, promuovendo anche iniziative di alfabetizzazione mediatica che aumentino la consapevolezza critica degli utenti sulle tecniche di manipolazione e disinformazione.

I fornitori di VLOP (Very Large Online Platforms) e VLOSE (Very Large Online Search Engines) sono chiamati a giocare un ruolo attivo nel mitigare i rischi legati alla disinformazione e alla manipolazione dell’informazione, soprattutto in contesti elettorali. Una delle strategie suggerite è la collaborazione con organizzazioni locali e il sostegno a campagne educative mirate, che potrebbero includere l'uso di strumenti come la gamification per coinvolgere gli utenti e migliorare la loro comprensione delle tecniche di manipolazione online.

Un punto essenziale riguarda la necessità di fornire agli utenti contesti chiari riguardo ai contenuti e agli account con cui interagiscono. Questo potrebbe includere etichette di fact-checking per contrassegnare contenuti identificati come disinformazione, oltre a suggerimenti che incoraggino gli utenti a valutare la veridicità e la fonte dei contenuti prima di condividerli. Inoltre, è cruciale che vengano chiaramente identificati gli account ufficiali e quelli sponsorizzati da governi stranieri, per ridurre il rischio di influenze indebite.

Dato l'impatto che i sistemi di raccomandazione possono avere sul formarsi dell’opinione pubblica, la Commissione raccomanda che le piattaforme diano agli utenti controlli significativi sui loro feed, incoraggiando la diversità e il pluralismo mediatico. Parte di queste misure include il contrasto alla diffusione di contenuti ingannevoli o manipolati, in particolare quelli generati dall’intelligenza artificiale (IA).

Per quanto riguarda la pubblicità politica, si richiede una maggiore trasparenza, assicurandosi che gli annunci siano chiaramente etichettati e che gli utenti possano accedere a informazioni dettagliate su chi finanzia tali annunci. Un altro tema rilevante è il crescente ruolo degli influencer nel contesto elettorale. Gli influencer devono essere obbligati a indicare chiaramente quando i loro post contengono pubblicità politica, contribuendo così a preservare l’integrità del dibattito pubblico online. Inoltre, è essenziale procedere alla demonetizzazione di contenuti che diffondono disinformazione, un passo che può scoraggiare la creazione di tali contenuti.

La sezione 3.3 del documento si concentra sulle misure di mitigazione legate all’intelligenza artificiale generativa, ovvero i sistemi di IA che creano contenuti come testi, immagini, video e audio. Pur offrendo opportunità innovative, l'IA generativa presenta rischi significativi per l'integrità elettorale, poiché può essere sfruttata per produrre contenuti sintetici e inautentici volti a manipolare gli elettori o distorcere il dibattito pubblico. Esempi di tali rischi includono la creazione di video o immagini false che ritraggono eventi o attori politici in modo fuorviante.

Un altro rischio importante è rappresentato dalle cosiddette “allucinazioni” dell'IA, ovvero la generazione di informazioni false o incoerenti che possono indurre in errore gli elettori. La Commissione raccomanda che i fornitori di VLOPs e VLOSEs allineino le loro politiche con il regolamento sull'IA attualmente in fase di approvazione, adottando volontariamente alcuni requisiti previsti dall'AI Pact, iniziativa della Commissione Europea del novembre 2023. Questo patto anticipa l'entrata in vigore del Regolamento sull'IA dell'UE e invita le aziende ad adeguarsi a certi standard prima che diventino obbligatori, dimostrando un impegno proattivo nella gestione dei rischi legati all'IA generativa nel contesto elettorale.

Il Patto sull'Intelligenza Artificiale (AI Pact) mira a incentivare una preparazione anticipata delle imprese all'attuazione del Regolamento sull'IA (AI Act), incoraggiando lo sviluppo responsabile e trasparente di tecnologie IA. In particolare, fornisce linee guida per mitigare i rischi legati all'IA generativa nei contesti elettorali, dove c'è il pericolo che i contenuti sintetici (come testi, immagini o video generati dall'IA) possano essere utilizzati per manipolare o ingannare gli elettori.

Tra le principali misure raccomandate per i fornitori di modelli IA, troviamo l'etichettatura dei deepfake e l'uso di soluzioni tecnologiche avanzate, come watermark leggibili dalle macchine, per garantire la tracciabilità e la riconoscibilità dei contenuti generati dall'IA. Questo permette ai fornitori di grandi piattaforme online (VLOP) e motori di ricerca (VLOSE) di rilevare più facilmente i contenuti manipolati, riducendo così il rischio di disinformazione. Inoltre, i contenuti generati dall'IA dovrebbero riportare le fonti concrete utilizzate per la loro creazione, promuovendo una maggiore trasparenza, simile a quella di un motore di ricerca.

Il monitoraggio della sicurezza e dell'accuratezza delle attività relative all'IA diventa fondamentale. Questo include attività come il red-teaming, ovvero simulazioni di attacchi o scenari problematici per testare le vulnerabilità, e monitoraggio continuo per rilevare eventuali problematiche emergenti. I fornitori dovranno anche adattare i propri termini di servizio per informare gli utenti della trasparenza e delle conseguenze di eventuali violazioni, come l'uso improprio di tecnologie IA.

Oltre alla moderazione dei contenuti, le piattaforme dovranno implementare valutazioni di impatto sui diritti fondamentali, per assicurarsi che le misure adottate non compromettano i diritti di libertà di espressione e pluralismo dei media, sanciti dalla Carta dei diritti fondamentali dell'Unione Europea. Questo è particolarmente importante nei periodi elettorali, dove le piattaforme digitali giocano un ruolo chiave nel facilitare un dibattito pubblico aperto.

Inoltre, il testo sottolinea l'importanza di una trasparenza completa da parte dei fornitori di servizi digitali, che dovrebbero garantire l'accesso ai dati per ricercatori indipendenti e terzi. Questo è essenziale per valutare l'efficacia delle misure di mitigazione, in particolare per quanto riguarda la pubblicità politica e la moderazione dei contenuti.

Le misure contro i contenuti illegali, come quelli che incitano alla violenza o all'odio, devono essere bilanciate con l’esigenza di mantenere un dibattito democratico inclusivo. Questo è particolarmente cruciale per i gruppi vulnerabili e le minoranze. La Commissione riconosce che la disinformazione e le forme di violenza online, inclusi i pregiudizi contro le comunità LGBTIQ+, minano il dialogo democratico e contribuiscono a una crescente polarizzazione sociale.

In conclusione, queste misure mirano a proteggere l'integrità del processo elettorale, assicurando al contempo che la libertà di espressione, il pluralismo e i diritti umani siano rispettati e preservati nel contesto dell'uso sempre più pervasivo delle tecnologie IA.

La Commissione Europea sottolinea l'importanza del coinvolgimento delle organizzazioni della società civile nelle attività di valutazione del rischio legate all'uso delle piattaforme digitali durante i processi elettorali. In particolare, raccomanda che le valutazioni d'impatto sui diritti fondamentali siano condivise con queste organizzazioni appena completate. Questo approccio mira a favorire un dialogo aperto e costruttivo su possibili miglioramenti, rafforzando la trasparenza e la partecipazione democratica.

La protezione dell'integrità elettorale richiede un approccio contestualizzato che tenga conto delle specificità di ciascun Paese e delle reazioni rapide agli sviluppi critici che potrebbero influenzare i rischi legati all’uso delle piattaforme digitali. La Commissione esorta i provider a collaborare strettamente con le autorità nazionali ed europee competenti, nonché con una vasta gamma di attori non statali, come accademici, esperti indipendenti, organizzazioni della società civile e osservatori elettorali. Questa collaborazione dovrebbe focalizzarsi sullo scambio aperto di informazioni per guidare sia le valutazioni del rischio che lo sviluppo e l’adattamento delle misure di mitigazione.

Un punto cruciale sollevato è la valutazione post-elettorale. La Commissione raccomanda che i provider effettuino una revisione successiva alle elezioni, includendo un’analisi dell'efficacia delle misure adottate, confrontando i risultati con le metriche interne di performance. Questo riesame permetterà di adeguare le strategie in base agli insegnamenti tratti.

Particolare attenzione viene posta sulle elezioni europee, che rappresentano una sfida significativa a causa della loro natura transfrontaliera. Le piattaforme devono allocare risorse adeguate per mitigare i rischi in questo contesto unico. Oltre ai contatti con le autorità nazionali, la Commissione incoraggia le piattaforme a stabilire una collaborazione stretta con le autorità dell'UE, in particolare con il Parlamento Europeo, che gioca un ruolo chiave in queste elezioni.

Infine, la Commissione ribadisce la necessità di una collaborazione condivisa tra istituzioni, provider digitali, società civile e utenti finali per difendere l’integrità elettorale. Il successo di questo sforzo non dipenderà solo dalla normativa o dall’azione della Commissione, ma anche dall’impegno collettivo verso la vigilanza e un’azione proattiva.


Il ruolo dell’intelligenza artificiale sulla salvaguardia dalla disinformazione

L’intelligenza artificiale (IA) sta rapidamente modificando lo scenario dell’informazione, specialmente nel contesto delle consultazioni elettorali, sia in termini di rischi che di soluzioni. La diffusione di notizie false, amplificata da tecnologie avanzate come i deepfake, sta diventando una delle principali sfide. Questi contenuti alterati, capaci di generare video e audio estremamente realistici che distorcono persone e situazioni, costituiscono una minaccia crescente per la trasparenza delle elezioni. In vista delle presidenziali statunitensi del 2024, aumenta la preoccupazione sull’uso di deepfake per influenzare l'opinione pubblica, destabilizzando il processo democratico.

Tuttavia, l'IA può rappresentare anche una soluzione potente per contrastare questo fenomeno. Strumenti basati sull'IA possono essere addestrati su grandi quantità di dati per rilevare schemi e anomalie che segnalano la manipolazione dei contenuti. L’uso di algoritmi di apprendimento automatico consente all’intelligenza artificiale di individuare aspetti dei deepfake difficili da percepire per l’occhio umano, come incoerenze nei movimenti del viso, distorsioni nelle fonti di luce o irregolarità nell’audio, come cambiamenti innaturali nel tono o nel ritmo.

L’importanza di questi strumenti è fondamentale durante le competizioni elettorali, specialmente negli Stati Uniti, dove la mole di informazioni è enorme e dove l'esito elettorale può essere determinato da piccoli scarti di voti. Tuttavia, la difficoltà consiste nel bilanciare velocità e accuratezza: gli strumenti di rilevamento devono essere in grado di analizzare e identificare contenuti falsi in tempo reale, senza compromettere la loro precisione. Questo richiede la capacità di elaborare vasti volumi di dati in maniera rapida ed efficiente.

Un altro problema significativo è la possibilità di falsi negativi, ovvero deepfake che sfuggono ai sistemi di rilevazione. Anche un tasso di errore minimo potrebbe avere conseguenze gravi, poiché un singolo deepfake non identificato potrebbe influenzare l’opinione pubblica e condizionare il risultato elettorale. D'altro canto, troppi falsi positivi potrebbero erodere la fiducia del pubblico nei meccanismi di rilevamento, creando confusione e scetticismo verso i contenuti autentici.

Le normative attuali e gli investimenti tecnologici stanno cercando di fronteggiare il problema, ma è necessario continuare a sviluppare strumenti di IA sempre più affidabili. Oltre al rilevamento, è cruciale che vi sia trasparenza nella comunicazione al pubblico su come funzionano questi strumenti, per mantenere la fiducia e garantire che le elezioni si svolgano in modo corretto e sicuro.

In sintesi, l'IA può giocare un ruolo cruciale nel preservare l’integrità elettorale, ma per farlo deve migliorare in termini di rapidità, accuratezza e affidabilità. Le elezioni del 2024 rappresentano una prova significativa per valutare l’efficacia di questi strumenti nella lotta contro la minaccia dei deepfake e della disinformazione.

La competizione tecnologica tra chi sviluppa deepfake e chi crea strumenti per identificarli è in costante evoluzione. Mentre le tecnologie di rilevazione diventano più avanzate, anche le tecniche utilizzate per produrre deepfake migliorano continuamente. Questa dinamica rende la battaglia contro la disinformazione una sfida sempre mutevole, in cui la capacità di adattamento e innovazione è fondamentale.

L’impiego di strumenti di rilevazione basati su intelligenza artificiale solleva anche dilemmi etici e politici rilevanti. La necessità di monitorare una quantità massiccia di contenuti digitali può infatti compromettere la privacy degli utenti e mettere a rischio la libertà di espressione. Negli Stati Uniti, dove la libertà di parola è un principio cardine, l’utilizzo di questi strumenti deve essere attentamente calibrato per evitare la censura di contenuti legittimi e proteggere i diritti costituzionali.

Inoltre, l’interpretazione dei risultati prodotti dagli strumenti di intelligenza artificiale non è immune da errori umani. Se un contenuto venisse erroneamente identificato come deepfake, potrebbero derivarne conseguenze gravi, come la rimozione ingiustificata di materiale o accuse infondate nei confronti di candidati o partiti politici. Tali errori rischierebbero di minare ulteriormente la fiducia degli elettori nelle istituzioni democratiche, già fragile dopo le elezioni del 2020, caratterizzate da accuse di disinformazione e brogli elettorali.

Tra i leader della ricerca in questo campo figura il Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT, in collaborazione con il Qatar Computing Research Institute (QCRI). Questi ricercatori stanno sperimentando una serie di metodologie per analizzare i contenuti mediatici, gli account Twitter collegati, la reputazione delle fonti e il traffico web, al fine di creare un sistema che classifichi le fonti di notizie in base alla loro veridicità: alta, media o bassa.

Dai dati forniti dall'algoritmo sviluppato dal MIT e dal QCRI, emerge che anche la struttura degli URL può fornire indicazioni utili sulla credibilità di una fonte. Gli URL che contengono molti caratteri speciali o sottodirectory complicate tendono a essere associati a fonti meno attendibili. Inoltre, se un sito ha precedenti nella pubblicazione di notizie false, esiste un'elevata probabilità che continui a diffondere disinformazione. L’algoritmo richiede circa 150 articoli per valutare in modo affidabile l’affidabilità di una fonte. Questo approccio può essere efficace nel rilevare potenziali fonti di fake news prima che le notizie false si diffondano su larga scala. Tuttavia, il sistema è ancora in fase di sviluppo e, nonostante i miglioramenti in termini di accuratezza, funziona al meglio se utilizzato in combinazione con fact-checker tradizionali.

Questa sinergia tra tecnologia e fact-checking umano potrebbe costituire un potente baluardo contro la disinformazione, soprattutto durante i periodi critici delle elezioni, in cui la fiducia nel processo democratico è più vulnerabile.

Un altro gruppo di ricerca, noto come Progetto FANDANGO, è un’iniziativa finanziata dall’Unione Europea, progettata per supportare giornalisti e professionisti dei media nel processo di verifica di notizie, immagini e video che potrebbero risultare falsi, fuorvianti o manipolati.

La tecnologia alla base di FANDANGO combina diverse forme di analisi:

Algoritmi in grado di riconoscere e identificare le relazioni esistenti all’interno del testo e del titolo di una notizia, analizzando le frasi e le relazioni che si stabiliscono tra le parole e la loro frequenza.

Analisi semantica per incrociare diverse fonti informative e autori, così da verificare l’affidabilità dei fatti contenuti in una notizia. Inoltre, vengono accertati eventi e informazioni (inclusi i dati) citati nel testo.

Analisi multimediale per identificare le connessioni tra contenuti audio, immagini e video e gli argomenti trattati nell’articolo in esame.

Il progetto, avviato a gennaio 2018, si è concluso  a dicembre 2020 con la creazione di un servizio destinato non solo al mondo del giornalismo e della comunicazione digitale, ma all'intera società digitale.

I ricercatori dell’Università di Harvard e del MIT-IBM Watson AI Lab hanno sviluppato uno strumento per combattere la diffusione della disinformazione. Questo strumento, chiamato GLTR (Giant Language Model Test Room), utilizza l’intelligenza artificiale per rilevare modelli di testo altamente statistici. GLTR evidenzia le parole in un testo in base alla probabilità della loro ricomparsa: il verde rappresenta le parole più prevedibili, il rosso e il giallo indicano una prevedibilità minore, mentre il viola denota le parole meno prevedibili. Uno strumento di questo tipo potrebbe risultare utile per piattaforme di social media come Twitter e Facebook, che devono affrontare la proliferazione di contenuti generati da bot.

Con l'evoluzione dei metodi di generazione del testo, gli attori malintenzionati potrebbero abusarne per diffondere disinformazione o propaganda. Chi dispone di sufficiente potenza di calcolo potrebbe generare automaticamente migliaia di siti web con testi dall’aspetto autentico su qualsiasi argomento. Sebbene non si sia ancora giunti a questo livello di generazione mirata, i modelli linguistici di grandi dimensioni sono già capaci di produrre testi indistinguibili da quelli scritti da esseri umani.

Un team di ricercatori ha condotto uno studio per verificare se gli studenti di linguistica potessero distinguere tra testo "reale" e testo generato dall’IA: la loro accuratezza si è attestata al 54%, appena al di sopra della casualità; l’uso di GLTR ha incrementato i tassi di rilevazione degli studenti al 72%. Si auspica che GLTR possa stimolare ulteriori ricerche in direzioni simili e abbia dimostrato con successo che i modelli di generazione automatizzata di testi non rappresentano una minaccia insormontabile, a condizione che si possano sviluppare meccanismi di difesa adeguati.

Tutti questi progetti di ricerca si propongono di assistere giornalisti e consumatori di notizie nell’accertamento rapido del grado di affidabilità che può essere attribuito a fonti o articoli.

L’avanguardia della ricerca sull’intelligenza artificiale è focalizzata sullo sviluppo di algoritmi di deep learning. In passato, i modelli di IA si basavano in gran parte sull’apprendimento automatico, utilizzando regressioni statistiche, clustering e altre tecniche matematiche per prevedere i risultati basandosi sulle tendenze dei dati storici. In tali modelli di apprendimento automatico, il processo decisionale umano riveste un ruolo cruciale. Al contrario, l’apprendimento profondo, che tecnicamente è ancora un sottoinsieme dell’apprendimento automatico, si fonda sul concetto di reti neurali, permettendo all’IA di effettuare previsioni e prendere decisioni in modo autonomo. Queste reti, ispirate al funzionamento del cervello umano, stanno ampliando in modo significativo le potenzialità dell’IA.

Per migliorare l’affidabilità degli strumenti di rilevazione dell’IA, è necessario continuare a investire nella ricerca e nello sviluppo di tecnologie più avanzate. Un approccio collaborativo, che coinvolga sia il settore pubblico che quello privato, sarà essenziale per elaborare soluzioni efficaci. Ciò potrebbe comprendere la creazione di database condivisi contenenti deepfake noti, utilizzabili per addestrare e perfezionare continuamente gli algoritmi di rilevazione. Inoltre, sarà cruciale integrare sistemi di rilevazione in tempo reale all’interno delle piattaforme social, per bloccare la diffusione di contenuti manipolati prima che possano diventare virali.

È indispensabile educare il pubblico sui rischi associati ai deepfake e sulla necessità di valutare criticamente i contenuti che incontrano online. Solo una combinazione di innovazione tecnologica, cooperazione internazionale e sensibilizzazione pubblica consentirà di proteggere l’integrità delle elezioni e la fiducia del pubblico nelle informazioni ricevute.

Avere set di dati imparziali per addestrare un modello di intelligenza artificiale rappresenta sicuramente una delle sfide più complesse. Sebbene il potenziale dell’IA la renda un investimento promettente, richiede ancora il tocco umano. Anche se l’intelligenza artificiale fosse in grado di verificare i fatti in modo imparziale, è probabile che l’uso del termine “fake news” non svanirebbe.

Questo perché la semplice esposizione ai fatti non ha necessariamente un impatto sulle persone. I lettori tendono a essere riluttanti ad accettare argomenti che contrastano con i loro valori e identità; questo fenomeno psicologico favorisce la credenza nelle informazioni che supportano le opinioni preesistenti, spingendo molti a ignorare informazioni che non avvalorano le loro idee preconcette. L’intelligenza artificiale e l’automazione offrono una soluzione tecnica a quello che è in realtà un problema di natura umana.

Tuttavia, sebbene ci sia ancora molto da fare per rendere l’IA uno strumento affidabile per rilevare notizie false e fuorvianti, i suoi potenziali vantaggi ne fanno un investimento promettente. Può infatti supportare i giornalisti nel loro lavoro quotidiano e, aiutando i media a non cadere in inganno da bufale e a distribuire disinformazione, può contribuire a ricostruire la fiducia dei cittadini nel sistema dell’informazione.

In ogni caso, il forte interesse, sia tecnologico che sociale, suscitato dal fenomeno delle fake news, a causa degli effetti dirompenti che provoca nella realtà attuale, continuerà a essere un tema di discussione per diversi anni, a meno che non si riesca a sensibilizzare la popolazione nel contempo. È di fondamentale importanza, infatti, vista la natura umana del problema delle fake news, investire nella cultura, nell’istruzione delle persone e mantenere sempre a mente le regole del buon senso quando si tratta di informazione.

 

Possibili scenari futuri e conclusioni

Chi ci proteggerà dalla disinformazione crescente? Negli Stati Uniti, in vista delle presidenziali del 5 novembre, se ne è discusso molto. Tuttavia, il problema riguarda tutti, compresi noi italiani. Solo poche settimane fa, il direttore dell'intelligence statunitense ha lanciato un allarme riguardo all'influenza di Russia, Iran e Cina nella creazione di disinformazione legata alle elezioni. La questione è sempre la stessa: l'intelligenza artificiale ha semplificato la produzione e la diffusione di contenuti falsi. Per questo motivo, la California ha deciso di limitare l'uso dei deepfake (video falsi) legati alle elezioni.

NewsGuard ha deciso di rendere gratuito l'accesso ai propri dati per smascherare le fake news sulle elezioni presidenziali. Sono segnali positivi, ma non dovrebbero farci abbassare la guardia. Nemmeno quando leggiamo che a salvarci dalla disinformazione, potenzialmente generata dall’IA, potrebbe essere proprio l’intelligenza artificiale. Tutto parte da una ricerca, pubblicata anche su *Science*, che ha rivelato come alcune convinzioni errate possano essere modificate attraverso una conversazione con l’IA. L'esperimento, condotto su 2.190 persone che credevano in teorie del complotto, ha mostrato che circa il 25% di coloro che inizialmente credevano a queste teorie ha cambiato opinione.

Un dato incoraggiante, ma da considerare con cautela, poiché i partecipanti erano pagati e gli esperimenti si sono svolti in contesti controllati. Come ha osservato il professor Sander van der Linden dell'Università di Cambridge in un’intervista al *Guardian*,«dovremmo chiederci se le persone interagirebbero volontariamente con questo tipo di intelligenza artificiale nel mondo reale». E così torniamo purtroppo alla domanda iniziale: chi ci salverà dalla disinformazione? Secondo un giornalista esperto come Ben Smith, «ciò che ci deve preoccupare non è tanto che si possa essere ingannati dall’IA ma che quando qualcuno oggi nega qualcosa di reale può farla franca». Julia Angwin, giornalista investigativa di Proof News che ha partecipato con Smith a un importante dibattito su falsi, IA ed elezioni Usa, ha aggiunto: «La cosa più spaventosa della situazione in cui ci troviamo è scoprire che la sicurezza nazionale Usa non è lì per difenderci. A comandare sono piattaforme e corporazioni che hanno come obiettivo principale il profitto e che non hanno alcun rispetto dei consumatori dei loro contenuti. Quindi, alla fine, la responsabilità ricade su ognuno di noi».

Esatto, ma come riesce una persona comune, inondata quotidianamente da un'infinità di contenuti, a distinguerli correttamente, spesso senza avere né il tempo né l'interesse né una formazione adeguata? Si potrebbe pensare che per questo esistono i quotidiani, i professionisti dell'informazione che possono contrastare le false notizie. Vero. E in diversi casi lo fanno. Sebbene la loro autorevolezza, agli occhi di molti, stia calando (lo confermano ricerche come il Global News Report). A tal proposito, è interessante una riflessione di Ben Smith, riconosciuta come un esperto nel settore: «Sotto questo punto di vista c’è una speranza per il giornalismo, ma a ben vedere è anche una speranza triste. Perché punta a chiuderci solo nel ruolo di verificatori di fatti mentre fare giornalismo è qualcosa di molto più grande. Non va nemmeno dimenticato che tutta questa disinformazione, sia che venga creata con mezzi automatici o meno, scredita anche il nostro lavoro di giornalisti».

Non resta dunque che dare una chance alla stessa intelligenza artificiale, comprendendone tutte le limitazioni e i pericoli del caso!

 

[1] X. QIU - D.F.M. OLIVIERA - A. S. SHIRAZI - A. FLAMINI - F. MENCZER, Limited individual attention and online virality of low-quality information, su Nature Human Behaviour, 26 giugno 2017, vol. 1, 1 ss. sul sito www.nature.com/nathumbehav/, interessante perché sottoliena come le fake news si diffondono sui social network con la stessa rapidità delle notizie vere.

[2] Per approfondire: C. PINELLI, “Postverità”, verità e libertà di manifestazione del pensiero, in Media Laws, 1/2017, p. 43.

[3]  Devoto Oli definisce  FAKE NEWS: “notizie inattendibili specie quelle diffuse tramite internet”.

[4] Lo studio dell'Università di Oxford, guidato da F. Hedman e colleghi, ha rivelato che durante la campagna elettorale svedese del 2018 si è verificata una massiccia diffusione di fake news, con un rapporto di una notizia falsa ogni due vere, segnalando una preoccupante quantità di notizie spazzatura sui social media, superiore persino a quella rilevata nelle elezioni presidenziali statunitensi del 2016. L’analisi si è basata su 2,5 milioni di tweet e quasi 7.000 pagine Facebook, evidenziando come le fake news non fossero più limitate ai gruppi di estrema destra, ma si fossero diffuse a un pubblico conservatore più ampio, la diffusione di disinformazione ha sollevato preoccupazioni significative per la democrazia. Secondo J. Ahuja, in India la disinformazione minaccia la stabilità sociale e politica, portando a sanzioni per i giornalisti responsabili, inclusa la sospensione o la revoca delle licenze, in base alle nuove regole governative .

In Svizzera, il governo ha scelto di non intervenire con nuove normative, giudicando sufficienti le leggi esistenti per gestire le fake news. Questo approccio, evidenziato da G. Wong Sak Hoi, riflette la convinzione svizzera che la legislazione vigente sia adeguata per tutelare la democrazia senza imporre restrizioni aggiuntive sui media .

[5] J. M. BALKIN, Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation, in UC Davis Law Review, vol. 51, pp. 1153-1154.