Il riconoscimento del design manipolativo delle piattaforme come fattispecie autonoma di responsabilità
Il riconoscimento del design manipolativo delle piattaforme come fattispecie autonoma di responsabilità
1.Introduzione
A fine marzo 2026 negli USA, sono intervenute due decisioni molto significative aventi ad oggetto la responsabilità delle Big Tech sulla sicurezza dei propri prodotti e dei propri servizi.
Le Big Tech, negli Stati Uniti fino ad oggi sono state quasi sempre considerate intoccabili.
Esse sono protette dalle disposizioni della Section 230 del Communications Decency Act secondo cui “nessun fornitore di servizi online e nessun utilizzatore di tali servizi può essere ritenuto responsabile quale editore o quale autore di una qualsiasi informazione fornita da terzi”.
Tale normazione, fino a poco tempo fa, ha costituto una sorta di scudo legale in favore delle aziende pressoché inespugnabile.
Difatti, questi colossi del web, pur compiendo quotidianamente delle scelte editoriali, attraverso l’utilizzo combinato di algoritmi e moderatori umani, sono sempre state considerate dal legislatore statunitense alla stregua di un canale neutrale di condivisione di informazioni e, come tali esenti, da responsabilità per i contenuti presenti all’interno delle proprie piattaforme.
Questa tutela rafforzata, negli anni, ha rappresentato un vero e proprio ostacolo per chi voleva citare in giudizio le Big Tech al fine di farle rispondere delle conseguenze delle proprie decisioni che potevano impattare negativamente sugli utenti.
Detta immunità che, per molto tempo, ha protetto aziende come Google e Meta è stata solo di recente messa in discussione, poiché negli ultimi anni si è riscontrato un notevole aumento dei danni provocati dalla c.d. dipendenza degli utenti dai social, soprattutto negli USA, ove al contrario dell’Unione Europea non esistono delle regole stringenti come il Digital Services Act.
Le due decisioni, che saranno oggetto di breve disamina nei paragrafi successivi, mettono per la prima volta in discussione l’apparato della Section 230 poiché spostano il campo della responsabilità delle Big Tech dalle scelte editoriali a quelle progettuali.
2. La decisione della Corte Superiore di Los Angeles
La prima decisione che sicuramente ha avuto un significativo impatto sulla responsabilità delle Big Tech è quella della Corte Superiore di Los Angeles, la cui giuria ha stabilito la responsabilità di Meta e Google nei confronti di una giovane utente, la quale sarebbe stata vittima sin dall’infanzia della c.d. dipendenza da social network ( instagram e youtube), condizione che le avrebbe causato gravi danni psicologici.
La predetta decisione segna un precedente di grande rilevanza che potrebbe incidere notevolmente nella risoluzione di migliaia di controversie analoghe che negli ultimi tempi sono pendenti negli Stati Uniti.
La vicenda oggetto di giudizio, inizia con la denuncia sporta dalla ventenne Kaley G.M. nei confronti di YouTube- di proprietà di Google- e di Instagram - di proprietà di Meta- , a suo parere, entrambi rei di aver contribuito a sviluppare in lei fin dall’infanzia una dipendenza ossessiva, che l’ha portata a soffrire di depressione e ad avere pensieri suicidi sempre più frequenti.
La giovane, in sede di giudizio, ha sostenuto di essere stata esposta fin da piccola a meccanismi che favoriscono la dipendenza dai social, senza che le Big Tech in questione le avessero mai fornito adeguati avvisi sui rischi per la salute mentale, un po' come in passato avveniva nell’industria del tabacco prima che fossero inseriti sui pacchetti di sigarette messaggi contenenti i rischi per la salute.
Secondo la tesi della ventenne, Google e Meta erano dunque consapevoli del potenziale di rischio dei propri prodotti e servizi e del loro impatto devastante su un pubblico giovane, la cui sicurezza è stata sacrificata in favore di strategie aziendali volte a massimizzare i risultati economici delle due Big Tech.
La predetta tesi è stata oltretutto confermata da alcuni documenti interni delle aziende e dalle testimonianze dei vertici delle piattaforme, vale a dire Mark Zuckerberg e Adam Mosseri, i quali hanno effettuato una panoramica sulle logiche interne con cui vengono progettati e gestiti questi tipi di servizi.
Essi, con le loro dichiarazioni, hanno fornito una ricostruzione sulle logistiche interne di definizione degli obiettivi di prodotto e delle metriche di riferimento ed in particolare hanno riconosciuto il fatto che in passato il tempo di permanenza degli utenti sulle piattaforme costituiva un indicatore centrale per valutare il successo delle piattaforme medesime e che adesso tale impostazione è stata parzialmente rivista.
La giuria, dopo una deliberazione durata nove giorni, ha riconosciuto alla ventenne americana un risarcimento di 3 milioni di dollari, attribuendo il 70% della responsabilità a Meta e il restante 30% a Google.
Secondo i giurati, i due colossi americani hanno agito con assoluta negligenza nella fase progettazione dei propri servizi, poiché li hanno intenzionalmente configurati e resi capaci di catturare l’attenzione degli utenti più giovani e di trattenerli giornate intere sulle proprie piattaforme.
Inoltre, sempre a parere della giuria, la spinta all’uso compulsivo sarebbe stata incentivata soprattutto dal design delle piattaforme che mira a proporre contenuti accattivanti uno dietro l’altro.
La valutazione della giuria va dunque oltre i contenuti pubblicati in rete per incentrarsi sul funzionamento stesso delle piattaforme, aspetto questo non esplicitamente protetto dalla Section 230.
Non è infatti un caso che altre aziende, come TikTok e Snapchat, inizialmente coinvolte nel medesimo procedimento, abbiano preferito accordarsi stragiudizialmente con la parte civile prima dell’inizio del processo, al fine di evitare la possibilità di essere soggette ad un precedente giudiziario molto pericoloso.
3. La decisione della Corte del New Mexico
Altra decisione molto rilevante, che è stata emessa quasi in parallelo alla Corte Superiore di Los Angeles, è quella della Corte del New Mexico, la cui giuria ha condannato Meta al pagamento di 375 milioni di dollari, per aver tratto in inganno gli utenti, soprattutto i minori, sulla sicurezza dei propri prodotti e per aver favorito lo sfruttamento sessuale dei bambini sulle proprie piattaforme.
La vicenda giudiziaria ha avuto inizio con la citazione in giudizio di Meta da parte del procuratore generale Raúl Torrez, il quale, tramite degli agenti che si sono finti bambini sui social network ha dimostrato sia l’esistenza di sollecitazioni sessuali da parte di adulti nei confronti dei minori, sia l’atteggiamento controverso e superficiale di Meta di fronte a questi episodi.
Secondo l’accusa, Meta ha scientemente progettato i propri algoritmi per mantenere i giovani utenti online, pur sapendo come soprattutto i minorenni fossero a rischio di sfruttamento sessuale.
La giuria, a seguito di quanto emerso all’interno del giudizio, è arrivata alla conclusione che Meta ha consapevolmente e deliberatamente danneggiato la salute mentale dei minori e ha nascosto senza alcuna remora ciò che sapeva sullo sfruttamento sessuale dei minori stessi sulle sue piattaforme di social network.
La predetta decisione, così come quella californiana, segna il primo passo per un vero e proprio cambiamento di rotta nei confronti delle Big Tech.
4. Il potenziale impatto delle due recenti decisioni negli USA
Il verdetto delle giurie della California e del New Mexico, va per la prima volta ad intaccare lo scudo legale della Section 230 del Communications Decency Act, ossia una legge federale del 1996, la quale esenta le piattaforme online dalla responsabilità per i contenuti editoriali generati sulla base di informazioni fornite da terzi.
In entrambi i casi, i ricorrenti hanno ritenuto non applicabile la predetta legge, poiché le aziende citate in giudizio hanno danneggiato i giovani utenti, attraverso decisioni relative al design delle piattaforme, elemento progettuale che crea dipendenza a prescindere dai contenuti editoriali.
Meta e Google, all’esito dei rispettivi giudizi che le hanno viste coinvolte, si sono dichiarate pronte a fare appello e molto probabilmente le loro difese si incentreranno proprio sulle disposizioni della Section 230 che fino ad oggi per loro ha rappresentato un vero e proprio salvacondotto.
Il compito di cui saranno investite le corti d’appello di Los Angeles e del New Mexico è arduo in quanto esse si troveranno obbligate a dover stabilire i confini della Section 230.
Ci si chiede quindi se confermeranno o meno una visione più restrittiva della predetta Section.
Qualora infatti le sopracitate decisioni dovessero essere confermate le scelte delle aziende inerenti il design delle piattaforme saranno escluse dalla tutela della legge federale, il che andrà ad incidere notevolmente sull’esito delle migliaia di cause attualmente pendenti nei confronti delle Big Tech.
Al momento non ci resta quindi che attendere l’esito degli appelli per capire come cambierà il panorama statunitense.
5. Il panorama giuridico europeo
Come si è potuto constatare nei paragrafi precedenti, le sentenze delle Corti Americane, hanno messo per la prima volta in discussione lo scudo di protezione di cui per anni hanno goduto le Big Tech all’interno degli USA.
Questo cambio di rotta è stato monitorato attentamente dall’UE, la quale a differenza degli Stati Uniti, già nel 2022 si è dotata di una normativa molto restrittiva in materia, il Digital Services Act (DSA).
Il predetto regolamento, che si occupa di disciplinare i servizi digitali impone una serie obblighi molto severi ai providers tra cui quelli di trasparenza e sicurezza, soprattutto quando si tratta di proteggere i minori e di valutare i rischi sistemici legati alla salute mentale.
Ciò è dovuto soprattutto all’approccio di natura antropocentrica dell’UE, che da sempre mette al primo posto la tutela e la sicurezza delle persone, rispetto agli interessi economici delle Big Tech.
Difatti, l’art. 28 della predetta normativa unitamente alle linee guida pubblicate il 14 luglio 2025 dalla Commissione UE sulla tutela dei minori, pone in capo ai fornitori una serie di obblighi quali un rigoroso controllo sui recommender systems, la rimozione di contenuti non adatti ai minori, l’imposizione di limiti alla profilazione dei dati e l’adozione di strumenti atti a ridurre contatti indesiderati ed interazioni manipolative.
I predetti obblighi vengono posti proprio al fine di evitare che si possano verificare casi di c.d. rabbit hole, vale a dire immersioni profonde e compulsive in un contenuto multimediale da parte di un utente, che molto spesso sono anche involontarie, specialmente se si tratta di un minorenne e che gli fanno perdere totalmente la cognizione del tempo e della realtà.
Il rabbit hole online viene alimentato da algoritmi che propongono contenuti correlati a quelli precedenti al fine di creare delle bolle informative che assorbono l’attenzione dell’utente.
Chiaramente, le fasce più colpite sono rappresentate dai minori ed è per questo motivo che l’UE è sempre stata molto rigida nell’imporre alle piattaforme obblighi di controllo sull’età degli utenti, cosa che invece manca negli USA.
Inoltre, proprio Meta nel 2024 era già stata soggetta a procedimento formale da parte della Commissione Europea in quanto quest’ultima aveva riscontrato il pericolo concreto che le pagine social della predetta azienda ed i rispettivi algoritmi potessero creare nei giovani una vera e propria dipendenza ossessivo compulsiva.
Sempre la Commissione Europea nel febbraio 2026 ha considerato alcuni elementi di design della piattaforma TikTok quali l’infinite scrolling, l’autoplay e le notifiche push, violativi del DSA poiché atti a creare dipendenza mediate un uso compulsivo della piattaforma medesima ed al contempo ha proposto dei correttivi su tutti gli elementi che possono creare dipendenza come ad esempio l’introduzione di pause schermo più lunghe ed efficaci rispetto a quelle attuali.
Ne consegue che l’orientamento dell’UE è stato quello di considerare il design come un fattore di rischio autonomo rispetto ai contenuti, ancor prima che tale aspetto fosse oggetto di decisione negli Stati Uniti.
In ogni caso, anche se dal punto di vista legislativo l’UE è molto più avanti degli USA, la conferma in appello della condanna delle due Big Tech per il c.d. “design negligente” sortirebbe una maggiore attenzione da parte della Commissione Europea, la quale intensificherebbe le indagini sui c.d. “pattern oscuri” e sugli algoritmi di raccomandazione.
Inoltre l’approccio più severo adottato dall’UE porterebbe quest’ultima all’irrogazione di sanzioni amministrative nei confronti delle Big Tech molto più elevate rispetto ai risarcimenti americani, in quanto verrebbero calcolate fino al 6% del fatturato globale delle aziende coinvolte.
Unitamente all’irrogazione di sanzioni pecuniarie molto aspre l’Unione Europea potrebbe introdurre in un futuro molto prossimo degli obblighi ancora più stringenti nei confronti dei providers al fine di garantire che: a) vengano offerti servizi sempre più proporzionati all’età degli utenti; b) vengano utilizzati sistemi di parental control più efficienti rispetto a quelli attuali e non facilmente aggirabili; c) ci sia un’importante diminuzione delle notifiche push, il cui scopo è quello di attirare l’attenzione dell’utente ed indirizzarlo verso determinati contenuti per farlo stare online il più possibile.
Un intervento più intenso e di natura puramente preventiva molto probabilmente limiterebbe lo sviluppo di una dipendenza pericolosa dai social nel pubblico più giovane.
6. Conclusioni
Le recenti decisioni delle Corti Americane sotto certi punti di vista hanno scoperchiato il c.d. vaso di Pandora, poiché per la prima volta è stato affrontato in maniera molto diretta il problema dell’esistenza di potenziali danni alla persona derivanti dalle scelte effettuate dai providers all’interno delle proprie piattaforme che non sono più strettamente legate ai contenuti illeciti, ma al design dei servizi offerti.
La direzione in cui stanno andando i Giudici americani è quella di contrastare il potere delle Big Tech, che fino a poco tempo fa era blindato, di decidere l’entità del tempo in cui un utente resta collegato online e quali contenuti proporgli.
Sicuramente l’Unione Europea rispetto agli Stati Uniti, ha avuto fin dall’inizio una visione più lungimirante nel regolamentare un campo molto scivoloso e nel porre grande attenzione alla tutela degli utenti, specialmente quando si tratta di minorenni.
Il DSA è infatti nato con lo scopo di armonizzare le norme sui servizi digitali al fine di creare uno spazio online più sicuro e trasparente.
Per questi motivi le decisioni americane, che mettono a nudo la responsabilità delle Big Tech relativamente al design delle proprie piattaforme, possono costituire un input per il legislatore europeo affinché venga garantita una maggiore tutela per le fasce più deboli.