Tra verità e falsificazione: social media, IA e la nuova era della disinformazione

Tra verità e falsificazione: social media, IA e la nuova era della disinformazione
È ancora possibile fidarsi di ciò che leggiamo e vediamo? In un’epoca dominata dai social media e dall’intelligenza artificiale, distinguere il vero dal falso è diventato sempre più difficile. Fenomeni come le fake news – notizie deliberatamente false presentate come vere – proliferano online, mentre strumenti di AI generativa creano immagini, video e testi talmente realistici da ingannare anche l’occhio più attento. Il risultato è un ecosistema informativo inquinato da misinformation (cioè informazioni false diffuse in buona fede) e disinformation (informazioni false diffuse deliberatamente, con gravi conseguenze sulla società: le fonti storiche possono essere falsificate, l’opinione pubblica manipolata, fin quasi a minacciare le fondamenta della democrazia e dei diritti umani. In questo articolo analizziamo l’impatto combinato di social media e IA sulla diffusione della disinformazione, esplorando esempi storici e contemporanei, definendo i termini chiave (da fake news a deepfake e hallucination) e interrogandoci sulle implicazioni per il futuro.
Cosa rende un documento davvero autentico?
La disinformazione è un fenomeno moderno o esiste da secoli? In realtà, la tendenza a falsificare documenti e creare notizie artefatte ha radici profonde nella storia. Un esempio celebre è la Donazione di Costantino, il “documento” con cui l’imperatore Costantino avrebbe ceduto potere e terre al Papa. Per quasi un millennio questo testo ha legittimato l’autorità papale, finché nel XV secolo l’umanista Lorenzo Valla ne provò la falsità: si trattava di un falso redatto nell’VIII secolo, la più famosa falsificazione del Medioevo. Questo caso dimostra come un documento scritto, se accolto come autentico, possa alterare il corso della storia per secoli (tema approfondito in un altro articolo).
Un altro esempio storico di disinformazione è il “Grande Imbroglio della Luna” del 1835. In quell’anno il quotidiano New York Sun pubblicò una serie di sei articoli che descrivevano in dettaglio la presunta scoperta di vita sulla Luna da parte dell’astronomo Sir John Herschel, con tanto di creature fantastiche come “bisoni in miniatura” e uomini-pipistrello. Era tutto inventato, una sorta di science fiction spacciata per cronaca scientifica. La notizia sensazionalistica fu ampiamente creduta dal pubblico prima di essere smentita, evidenziando come già nell’Ottocento la stampa poteva diffondere notizie artefatte capaci di ingannare le masse.
All’inizio del XX secolo, un caso di fake news particolarmente pernicioso fu quello dei Protocolli dei Savi di Sion. Questo pamphlet, comparso in Russia nel 1903, descriveva un falso complotto ebraico per dominare il mondo. Nonostante fosse un documento fraudolento, in realtà fabbricato dalla polizia segreta zarista assemblando plagio e invenzioni, i Protocolli vennero tradotti in molte lingue e utilizzati come pretesto per alimentare l’antisemitismo. Malgrado ripetute smentite e prove della falsificazione (già nel 1921 il Times di Londra ne dimostrò la natura di plagio, e in seguito tribunali e persino il Senato USA li bollarono come una “colossale menzogna”), questo falso documento ha avuto un impatto tragico, influenzando la propaganda nazista e sopravvivendo fino ad oggi nei circuiti cospirazionisti.
Persino in epoche più recenti, documenti inventati hanno tratto in inganno media e pubblico. Nel 1924, alla vigilia delle elezioni britanniche, fu pubblicata la Lettera di Zinoviev, un presunto messaggio di un leader bolscevico che incitava i comunisti inglesi alla sedizione. In realtà la lettera era un falso, ma la sua diffusione servì a screditare il Partito Laburista e alimentare il clima di “paura rossa” in campagna elettorale. Ancora nel 1983, la prestigiosa rivista tedesca Stern annunciò sensazionalmente il ritrovamento dei Diari di Hitler – 60 quaderni attribuiti al Führer – per poi scoprire, con enorme imbarazzo, che si trattava di una truffa. I diari erano stati prodotti da un abile falsario, Konrad Kujau, che li aveva venduti come autentici per milioni di marchi. Questo clamoroso hoax giornalistico dimostrò la vulnerabilità dei media: persino testate autorevoli possono essere tratte in errore da falsificazioni ben congegnate, se la verifica delle fonti è carente.
Dagli esempi storici emerge chiaramente che fake news e disinformazione non sono nate con Facebook o TikTok. Falsi documenti, cronache manipolate e notizie fabbricate hanno punteggiato la storia, dall’antichità al Novecento, con conseguenze anche gravissime. Tuttavia, i nuovi media digitali e le tecnologie di AI hanno radicalmente ampliato la portata e la velocità di diffusione di questi fenomeni, come vedremo nelle sezioni seguenti.
Misinformation o disinformation: errore o inganno deliberato?
“Fake news”: semplice bugia o sofisticata arma di propaganda? Prima di addentrarci nell’era digitale, è fondamentale chiarire alcuni termini chiave spesso usati in modo intercambiabile, ma che indicano sfumature diverse. Il termine fake news, entrato nel lessico comune soprattutto dopo il 2016, indica genericamente notizie false presentate come vere, spesso con intento di manipolare. Una definizione accademica le descrive come “informazioni fabbricate che mimano i contenuti dei media di informazione nella forma, ma non nei processi o nelle intenzioni organizzative”, in pratica notizie deliberatamente costruite e fatte circolare per ingannare i lettori. Va notato che istituzioni come l’UNESCO scoraggiano l’uso del termine fake news perché il termine è diventato polemico e fuorviante. Preferiscono parlare più precisamente di disinformation e misinformation.
Cosa differenzia misinformation e disinformation? La distinzione è sottile ma importante. Secondo le definizioni correnti, misinformation si riferisce a informazioni false diffuse in modo non intenzionale – ad esempio, un errore giornalistico o una voce infondata condivisa in buona fede. Disinformation, invece, è l’informazione deliberatamente falsa, creata e diffusa con l’intento di ingannare, manipolare o ottenere un vantaggio. In breve, misinformation è un falso involontario; disinformation è un falso volutamente orchestrato. Questa differenza d’intenzione può sembrare sottile al lettore distratto, ma è cruciale per analizzare i fenomeni: una bufala condivisa da qualcuno convinto sia vera è misinformation, mentre una falsità costruita a tavolino da un attore malintenzionato (ad esempio per propaganda) è disinformation.
Un altro termine che incontreremo è deepfake. Cosa significa esattamente? Il neologismo deepfake nasce dall’unione di “deep learning” (una branca dell’IA) e “fake”. Indica media sintetici ultra-realistici generati tramite algoritmi di apprendimento profondo. In origine il termine si riferiva a video in cui il volto di una persona veniva sostituito con quello di un’altra, creando l’illusione che qualcuno (spesso un personaggio famoso) dicesse o facesse cose mai accadute. Oggi comprende anche audio e immagini falsificate con l’IA: ad esempio, una voce clonata digitalmente o una foto in cui il volto di un politico è inserito su un corpo in una situazione compromettente. La caratteristica dei deepfake è l’elevato livello di verosimiglianza: sfruttando reti neurali generative, questi contenuti possono apparire autentici a un osservatore medio, sfumando il confine tra realtà e finzione.
Infine, parlando di AI generativa, useremo il termine hallucination (allucinazione) per descrivere un fenomeno proprio dei modelli di AI. Un’AI hallucination avviene quando un modello – ad esempio un algoritmo di linguaggio come ChatGPT – “percepisce schemi o elementi che non esistono, producendo output insensati o del tutto inesatti”. In pratica l’AI “inventa” fatti o dettagli non supportati dai dati reali, pur presentandoli in modo plausibile. Queste allucinazioni possono generare disinformazione involontaria: ad esempio, un chatbot che fornisce una biografia con eventi mai avvenuti, o che crea una citazione falsa attribuendola a una fonte reale. Poiché l’AI non ha intenzioni (non mente deliberatamente, essendo una macchina), le sue invenzioni non sono disinformation in senso stretto, ma possono diventare misinformation quando gli esseri umani le diffondono credendole vere. L’abuso intenzionale di output “allucinati” di un’AI potrebbe invece rientrare nelle tattiche di disinformation – ad esempio, usando un modello per generare in massa contenuti falsi da immettere sui social. Nei paragrafi successivi vedremo come proprio l’AI generativa stia fornendo nuovi mezzi (e nuove sfide) per la disinformazione contemporanea.
Possiamo fidarci di ciò che vediamo online?
L’avvento dei deepfake e dei media sintetici ha inaugurato una fase in cui “vedere per credere” non è più valido al 100%. Sui social media circolano video e audio realistici ma interamente costruiti dall’AI: politici che pronunciano discorsi mai fatti, persone comuni inserite in scenari inventati, fino a veri e propri inganni su larga scala.
Un esempio emblematico è il deepfake del Presidente ucraino Volodymyr Zelensky che circolò nel marzo 2022, poco dopo l’inizio del conflitto tra russia e Ucraina. In quel video contraffatto, Zelensky appariva nel suo ufficio mentre esortava i soldati ucraini a deporre le armi e arrendersi. Il video venne persino inserito da hacker su un sito di notizie ucraino prima di essere smentito e rimosso. Si trattava chiaramente di disinformazione deliberata: un contenuto falso creato ad arte (probabilmente da attori filorussi) per seminare panico e confusione tra gli ucraini. L’inganno fu smascherato rapidamente – la voce e l’accento non convincevano del tutto, e Zelensky stesso pubblicò subito un messaggio ufficiale. Ciò non toglie che per qualche ora il deepfake abbia avuto visibilità. Esperti di sicurezza digitale l’hanno definito “solo la punta dell’iceberg”, temendo che in futuro possano comparire falsi video ancora più credibili e pericolosi.
Oltre ai video, anche le immagini statiche generate dall’AI stanno confondendo la linea tra reale e fittizio. Nel marzo 2023 un’immagine di Papa francesco ha fatto il giro del mondo: il Papa era ritratto con un insolito piumino bianco di lusso, in pieno stile “alta moda”. La foto, apparentemente scattata per strada, ha ingannato milioni di utenti sui social, compresi personaggi noti, molti dei quali si sono detti sconvolti nell’apprendere che la foto era falsa. In realtà, nessun fotografo aveva immortalato il Papa in quel modo: l’immagine era stata creata con Midjourney, un software di intelligenza artificiale, da un utente che l’aveva pubblicata su Reddit per scherzo. Nonostante alcuni piccoli artefatti (come le mani del pontefice leggermente deformate, un dettaglio tipico delle immagini AI), la foto era così realistica da superare senza problemi l’esame superficiale di chi scrollava il feed su Twitter o Facebook. Questo caso – il cosiddetto “Balenciaga Pope” – è un esempio di misinformation dei giorni nostri: un contenuto falso non creato per nuocere, ma che diffondendosi viralmene ha disinformato un vasto pubblico, mostrando quanto sia facile ormai essere “abbagliati” da un’immagine plausibile.
Purtroppo, non tutte le falsificazioni visive sono innocue come quella del Papa col piumino. Sempre nel 2023, una falsa foto di un’esplosione al Pentagono (anche questa probabilmente generata da IA) è stata diffusa da account verificati su Twitter, causando alcuni minuti di panico e perfino un breve calo della borsa, prima che le autorità smentissero l’incidente. In un mondo iperconnesso, bastano pochi tweet e un’immagine convincente per far credere a migliaia di persone – e ai mercati finanziari! – che sia avvenuto un fatto mai successo.
Le piattaforme social stanno dunque diventando il terreno di coltura ideale per queste nuove forme di disinformazione visiva e sonora. Video deepfake, audio contraffatti e foto generate dall’AI circolano senza controllo, spesso più rapidamente delle verifiche. La tecnologia deepfake, nata nel 2017, si è evoluta al punto da permettere a chiunque di creare falsi sofisticati con un computer ordinario. Esistono app consumer per il faceswap (scambio di volti) che consentono di montare il viso di una persona sul corpo di un’altra in fotografia, con risultati credibili. In Francia, ad esempio, nel 2024 un’immagine ritoccata mostrava il Presidente Macron in pigiama rosa sul letto: molti utenti Facebook l’hanno creduta vera e l’hanno condivisa indignati, non accorgendosi che era frutto di un face swap realizzato con l’AI.
Queste tattiche – definite dagli analisti “comportamenti inautentici coordinati” – mirano a far sembrare che notizie false abbiano fonti legittime e ampio seguito, ingannando così gli utenti meno attenti.
I social e l’AI: fabbricanti di sogni o di disinformazione?
La tecnologia digitale ha amplificato la portata delle bugie? Tutti gli indizi suggeriscono di sì. I social network, con la loro struttura virale, e gli strumenti di AI generativa formano insieme una fabbrica di disinformazione potenzialmente formidabile. Da un lato, piattaforme come Facebook, X, YouTube o TikTok permettono a chiunque di pubblicare contenuti che possono raggiungere in breve tempo milioni di persone, senza passare attraverso filtri editoriali. Dall’altro, le moderne AI possono generare automaticamente testi, immagini, video e audio su qualunque argomento in pochi secondi, abbattendo i costi e i tempi per produrre contenuti falsi in grandi quantità. L’intersezione di queste due forze crea uno scenario inedito: una disinformazione amplificata dall’AI, in cui attori malevoli (stati, gruppi estremisti, truffatori, ecc.) possono sfornare e diffondere falsità su scala industriale.
Uno studio dell’Università di Melbourne del 2023 ha evidenziato proprio questo rischio: modelli linguistici avanzati come GPT-4, ChatGPT o altri Large Language Model possono eludere anche i filtri di sicurezza progettati per prevenire abusi, finendo col fornire risposte false o tendenziose se opportunamente sollecitati. In altre parole, un utente malintenzionato può istruire un’AI a produrre articoli o post contenenti propaganda, teorie del complotto o notizie inventate, e poi disseminarli su blog e profili social automatizzati. Fare interi siti web “finti”, popolati da testi generati dall’AI ma fatti apparire come portali di notizie, oggi costa pochissimo e richiede competenze tecniche minime.
Alcuni casi concreti iniziano già a vedersi. Durante le elezioni taiwanesi del 2024, ad esempio, analisti hanno scoperto una rete di account su X apparentemente gestiti da bot legati alla Cina: questi account pubblicavano messaggi a sostegno di Donald Trump e denigratori verso Joe Biden, con testi generati dall’AI. Siamo di fronte a un salto di qualità: non sono più solo gli esseri umani a creare contenuti falsi, ma le macchine stesse possono inventare e propagare disinformazione, su scala massiva. I ricercatori hanno coniato per questo la categoria dei “synthetic media” o “media sintetici”, sottolineando come la fonte non sia facilmente individuabile e verificabile.
Un ulteriore elemento problematico è l’effetto “camera dell’eco” dei social media: gli algoritmi tendono a mostrare agli utenti contenuti simili a quelli con cui già interagiscono. Ciò significa che la disinformazione, una volta entrata in una cerchia (per esempio i seguaci di una teoria cospirazionista), può rimbalzare e rafforzarsi continuamente senza contraddittorio, creando bolle informative in cui le false narrazioni diventano verità personali indiscutibili. Se uniamo questo alla possibilità di generare infiniti contenuti falsi personalizzati (ad esempio, un bot di che risponde in modo mirato a dibattiti online con argomentazioni costruite ad hoc), capiamo come la manipolazione dell’opinione pubblica possa raggiungere livelli di pervasività mai visti.
Vale la pena notare che l’AI può produrre disinformazione anche involontariamente, per le sue hallucinations di cui abbiamo parlato. Ad esempio, durante la pandemia di COVID-19 – un periodo battezzato “infodemia” dall’OMS per la valanga di informazioni false circolanti – sistemi automatici di chatbot usati per rispondere alle domande del pubblico talvolta fornivano indicazioni errate o non verificate, contribuendo (senza volerlo) a diffondere miti sanitari. Oppure, consideriamo quando i motori di ricerca o gli assistenti vocali che integrano modelli linguistici generativi restituiscono risposte sicure ma sbagliate: l’utente medio potrebbe non distinguere l’errore e prendere per buona l’informazione. Se questi strumenti diventano parte integrante delle piattaforme social (ad esempio per generare automaticamente didascalie, riassunti, traduzioni), c’è il rischio che la disinformazione si insinui in modo sottile e automatizzato nel flusso quotidiano di contenuti.
Dunque, social media e IA non solo generano nuovi tipi di fake news, ma accelerano e amplificano la loro diffusione. Possiamo riassumere l’evoluzione di questi fenomeni in una breve timeline storica, per avere una visione d’insieme di come siamo arrivati fin qui.
Disinformazione: come si è evoluta attraverso i secoli?
- VIII secolo: Donazione di Costantino, un documento papale completamente falso che conferisce poteri imperiali al Papa, viene redatto (ca. 750 d.C.). Per secoli influenzerà i rapporti tra Papato e imperi cristiani, finché nel 1440 sarà smascherato come forgimento medievale.
- 1440: Invenzione della stampa a caratteri mobili (Johannes Gutenberg). La riproducibilità dei testi esplode: la diffusione di idee – vere o false – diventa più rapida. Già dal ‘500 circolano pasquinate e libelli anonimi diffamatori grazie alla stampa.
- 1835: Great Moon Hoax – Il giornale New York Sun pubblica una serie di articoli falsi sulle scoperte lunari dell’astronomo Herschel (vita sulla Luna con creature fantastiche). È una delle prime bufale mediatiche di massa, possibile grazie alla stampa popolare economica (penny press, di cui facevaano parte i famosissimi penny dreadful).
- 1903: Protocolli dei Savi di Sion pubblicati in Russia. Pamphlet complottista antisemita completamente inventato, destinato a diventare la fake news più devastante del XX secolo. Tradotto globalmente, alimenterà persecuzioni contro gli ebrei fino al periodo nazista, nonostante le ripetute prove della sua falsità.
- 1924: Lettera di Zinoviev – Vigilia elezioni UK: il Daily Mail pubblica una lettera (poi provata falsa) attribuita a un leader sovietico che incita alla rivoluzione comunista in Gran Bretagna. Esempio di disinformazione elettorale che sfrutta i media dell’epoca per influenzare l’opinione pubblica.
- 1983: Diari di Hitler – Clamorosa truffa editoriale: la rivista Stern presenta presunti diari di Adolf Hitler, in realtà creati da un falsario. Il caso, presto smascherato, diventa un monito sull’importanza della verifica delle fonti anche per organi di stampa autorevoli.
- anni 1990: Avvento di Internet. Nascono forum, blog, email chain: nuove vie per bufale e leggende metropolitane (dalle truffe “Nigerian scam” alle false notizie che circolano via email). Iniziano i primi studi sul fenomeno della misinformazione online.
- 2004–2006: Nascita dei social network (Facebook, Twitter, YouTube). L’informazione diventa social: ogni utente può creare e condividere notizie. Emergenza di camere dell’eco e diffusione virale di contenuti senza fact-checking.
- 2016: “Post-verità” e boom del termine fake news. Durante il referendum Brexit e le elezioni USA, l’attenzione globale si concentra sull’impatto delle fake news diffuse via social (es. caso Pizzagate, bufale sui candidati, interferenze su Facebook). Post-truth diventa parola dell’anno per l’Oxford Dictionary. Vengono lanciate iniziative di fact-checking su larga scala.
- 2017: Deepfake – Su Reddit appare per la prima volta il termine, quando un utente condivide video pornografici con volti di celebrità ottenuti tramite algoritmi di deep learning. Iniziano a diffondersi strumenti open source per creare video falsi, ponendo nuove sfide di verifica visiva.
- 2020: Pandemia COVID-19 e “infodemia”. Misinformation medica dilaga sui social: cure miracolose false, teorie complottiste sull’origine del virus, movimenti No-vax alimentati da notizie distorte. OMS e governi avvertono che la disinformazione sanitaria costa vite umane. Parallelamente, debutta GPT-3 di OpenAI, modello di linguaggio in grado di generare testi sorprendentemente coerenti – potenzialmente sfruttabile anche per creare contenuti fake.
- 2022: La guerra in Ucraina e i deepfake politici. Circola il video deepfake di Zelensky che “si arrende”. Sulle piattaforme social aumentano bot e account falsi per propaganda bellica. A fine anno OpenAI rilascia ChatGPT, portando la AI generativa di testo al grande pubblico. Nascono decine di servizi basati su AI per generare immagini (DALL-E 2, Midjourney), video (il primo deepfake live di alta qualità) e audio (clonazione vocale).
- 2023: IA per tutti, disinformazione per tutti? Viralizzano immagini AI come il “Papa col piumino” e un falso arresto di Donald Trump. Su Twitter una finta immagine di esplosione al Pentagono causa panico per qualche minuto. L’ONU lancia l’allarme: “misinformation e disinformation stanno già minacciando democrazia e diritti umani”. Vengono proposti regolamenti e tool di autenticazione (es. watermark digitali per contenuti generati).
Questa timeline mostra come la disinformazione non sia affatto un fenomeno nuovo, ma anche come le armi a disposizione di chi crea falsi si siano evolute drasticamente. Siamo passati dai falsi documenti cartacei diffusi lentamente nel Medioevo, alle notizie fake sulla stampa di massa dell’Ottocento, fino alla tempesta perfetta dell’era social+IA, in cui ogni utente con uno smartphone può potenzialmente alterare la realtà percepita da milioni di persone.
La verità in pericolo: democrazia e diritti umani sotto attacco?
La diffusione su larga scala di notizie false può minare le fondamenta di una società libera? Purtroppo, la risposta è sì. Democrazia e diritti umani si reggono su un presupposto basilare: un dibattito pubblico informato e basato sui fatti, in cui i cittadini possano formarsi opinioni e decidere (ad esempio attraverso il voto) conoscendo la realtà. Se il flusso informativo viene avvelenato dalla disinformazione, questo presupposto viene meno.
Immaginiamo un’elezione in cui una parte consistente dell’elettorato creda, perché esposta solo a notizie false sui social, che un candidato sia coinvolto in un crimine inesistente, o che il processo elettorale sia truccato senza che ciò sia vero. Le decisioni politiche di quelle persone – il loro voto, o la loro volontà di accettare il verdetto delle urne – saranno basate su un’illusione, non sui fatti. È così che la disinformazione può falsare la volontà popolare, cardine della democrazia. Non a caso, i regimi autoritari investono ingenti risorse in propaganda e disinformazione online: destabilizzare le democrazie dall’interno, seminando sfiducia e divisione, è diventata una strategia di guerra non convenzionale.
C’è anche un paradosso da considerare: nel tentativo di combattere le fake news, alcuni governi hanno proposto o adottato leggi anti-disinformazione che però rischiano di soffocare la libertà di espressione. Chi decide cosa è vero e cosa è falso? Dare allo Stato il potere di arbitrare la verità può aprire la porta ad abusi e censura, specie in regimi non democratici che bollano come “fake news” anche le denunce genuine delle opposizioni. Si tratta di un equilibrio delicato: contrastare la disinformazione proteggendo al contempo il diritto a informare e informarsi. Organizzazioni per i diritti umani e la libertà di stampa monitorano con attenzione queste dinamiche, sottolineando che la risposta non può essere semplicemente proibire tutto ciò che è falso, ma piuttosto educare, verificare e diluire l’impatto dei falsi con una maggiore disponibilità di fatti verificati.
In ultima analisi, la tenuta della democrazia di fronte alla disinformazione dipende anche e oserei dire soprattutto dai cittadini. Una popolazione con adeguati strumenti di alfabetizzazione mediatica e digitale è meno vulnerabile alle bugie online. Saper riconoscere un deepfake (cogliendo ad esempio leggeri artefatti video), controllare l’attendibilità di una fonte, esaminare un’immagine per capire se è stata manipolata – sono le “nuove competenze civiche” del XXI secolo. In parallelo, le piattaforme tecnologiche hanno la responsabilità di arginare gli abusi algoritmici: stanare bot e account falsi, segnalare i contenuti creati da AI (ci sono progetti per inserire filigrane digitali impercettibili nei media sintetici), migliorare i sistemi di fact-checking automatico integrati nei social.
Siamo pronti a difendere la verità?
E noi, come comunità globale, come studiosi, come semplici utenti di internet, siamo pronti a raccogliere questa sfida? La battaglia contro disinformazione e misinformation riguarda tutti da vicino e non possiamo delegarla unicamente alle Big Tech o ai governi: richiede un impegno congiunto di istituzioni, comunità scientifica, media e cittadini.
Come accademici e professionisti dell’informazione, possiamo promuovere ulteriori ricerche su metodi per rilevare automaticamente i deepfake e le hallucinations dell’AI, sviluppare protocolli etici nell’uso dell’intelligenza artificiale (ad esempio, evitare che chatbot senza adeguati filtri vengano usati per generare notizie) e collaborare con piattaforme e governi per implementare soluzioni rispettose dei diritti. Possiamo inoltre arricchire l’educazione civica con programmi di media literacy, insegnando fin dalle scuole come valutare criticamente le informazioni online – un vero vaccino contro le bufale.
Come utenti e cittadini, possiamo adottare un approccio più vigile e scettico di fronte alle notizie sui social: verificare prima di condividere, cercare conferme da fonti autorevoli, segnalare contenuti manifestamente falsi. Dobbiamo coltivare l’abitudine del fact-checking personale, un po’ come controllare la fonte di un documento storico prima di citarlo.
Allo stesso tempo, è necessario un dibattito pubblico aperto su quali regole vogliamo darci per governare queste tecnologie. Ad esempio: dovremmo obbligare per legge a indicare quando un contenuto è generato da AI? Come bilanciare questa trasparenza con la libertà artistica (si pensi ai deepfake satirici o creativi)? Quali sanzioni per chi dissemina volontariamente disinformazione su larga scala? Sono domande complesse che meritano confronto multidisciplinare – giuridico, tecnologico, etico, sociologico.
In conclusione, la posta in gioco è alta. La storia ci insegna che l’inganno informativo è sempre esistito, ma oggi esso può diffondersi con una velocità e ubiquità senza precedenti, mettendo alla prova la resilienza delle nostre società democratiche. Eppure, abbiamo anche più strumenti che mai per combatterlo: conoscenze scientifiche, reti di cooperazione internazionale, nuove tecnologie di verifica. La verità, per quanto assediata dal rumore digitale, resta un valore fondamentale da difendere. La chiamata all’azione è rivolta a tutti noi: ricercatori, educatori, giornalisti, policy-maker e cittadini. È tempo di unire le forze per promuovere un ecosistema informativo più sano, dove la tecnologia sia al servizio della conoscenza e non della menzogna. Solo così potremo garantire che, anche nell’era di deepfake e AI, la luce della verità continui a illuminare il dibattito pubblico – pilastro imprescindibile di libertà, democrazia e dignità umana.