x

x

Nuovi codici di condotta: migliorare la dignità online tramite l’educazione digitale

Immagine digitale generata da DeepAI a partire dal prompt del titolo
Ph. Enrico Maestri / Immagine digitale generata da DeepAI a partire dal prompt del titolo

Nuovi codici di condotta: migliorare la dignità online tramite l’educazione digitale
 

Introduzione[1]

Internet ha ormai assunto un ruolo centrale nelle nostre vite, offrendoci innumerevoli opportunità di interazione e comunicazione. Tuttavia, l’ascesa di questa nuova realtà virtuale ha portato con sé anche problematiche legate alla violazione della dignità umana.

Ovviamente, dobbiamo evitare, per quanto possibile, di farci prendere dal “panico morale”: la disconnessione generazionale in termini di contenuti online può creare paura e sfiducia da parte delle generazioni più anziane nei confronti di quelle più giovani.

Dal punto di vista dell’evoluzione culturale, le persone che hanno passato una vita ad apprendere socialmente abilità specialistiche quando erano giovani, per poi affinarsi con piccole innovazioni individuali quando sono più grandi, sono destinate a rimanere deluse dal fatto che i loro figli e i loro coetanei favoriscano altri tipi di cultura e contenuti provenienti da diverse fonti. Le persone anziane possono lamentarsi delle nuove tendenze nella musica o nell’abbigliamento, ma riservano le loro reazioni più forti per certi tipi di contenuti moralmente densi. Questi includono contenuto politico e religioso, così come argomenti moralmente densi come i contenuti violenti e sessuali.

La tesi che intendo sostenere e, ovviamente, giustificare con gli argomenti che addurrò, è la seguente: la natura di Internet non consiste in un destino ineluttabile a cui adattarsi reattivamente; se pensassimo a Internet in questi termini, qualsiasi misura regolativa sarebbe perdente in partenza. Potremmo accontentarci, ma qualsiasi programma di educazione digitale nascerebbe azzoppato perché rinunceremmo ad intervenire a monte di Internet, cioè sulla sua architettura regolativa interna, accontentandoci di agire a valle, cioè sui comportamenti degli utenti, scontrandoci in tal modo con un grosso ostacolo circa l’effettività di un’azione normativa digitale. Infatti, mentre il diritto “di” Internet regola i comportamenti ex ante, cioè a monte, noi ci accontenteremmo di intervenire a valle, cioè ex post attraverso il diritto “per” Internet, presupponendo che punire un utente (specie se adolescente) equivale ad educarne cento.

 

L’evoluzione normativa di internet

Negli ultimi decenni, l’evoluzione giuridica di Internet ha portato ad un crescente dibattito sulla regolamentazione e la protezione dei diritti degli utenti. L’evoluzione normativa può essere suddivisa grossomodo in tre fasi, non lineari tra loro: la prima, denominata “Code is Law”, in cui i regolatori sono gli stessi fornitori di servizi Internet; la seconda, che denomino “Law for Code”, in cui le normative sembrano favorevoli a Internet; e infine, una terza fase che denomino “Law versus Code”, in cui i regolatori pubblici iniziano a regolamentare l’ambiente digitale per proteggere, almeno apparentemente, i diritti degli utenti, mi riferisco in particolare ai regolamenti europei GDPR (General Data Protection Regulation) e DSA (Data Services Act), fra i tanti documenti giuridici promulgati in questi ultimi anni.

Diritto di Internet (Code is Law):

La prima fase dell’evoluzione normativa di Internet è caratterizzata dall’autoregolamentazione, in cui i fornitori di servizi Internet (ISP) detengono il potere di stabilire le regole e i criteri di utilizzo della rete. Secondo Lawrence Lessig, studioso del diritto e tecnologia, “il codice è la legge” in questa fase[2]. Le decisioni prese dai fornitori di servizi Internet, come la prioritizzazione dei dati o la limitazione dell’accesso a certi contenuti determinano in termini restrittivi le libertà e i diritti degli utenti[3].

Diritto per Internet (Law for Code):

La seconda fase è caratterizzata da una regolamentazione apparentemente favorevole a Internet, come nel caso dell’estensione del copyright digitale, poiché non soggetto al limite del principio di esaurimento della prima vendita, che limita la condivisione e la diffusione dei contenuti online. Allo stesso modo, il diritto per Internet ha introdotto la clausola generale di irresponsabilità a favore degli Internet Service Provider per i contenuti caricati dagli utenti che offrono servizi e contenuti online[4].

Diritto verso Internet (Law versus Code):

La terza fase dell’evoluzione normativa di Internet vede l’intervento dei regolatori pubblici per proteggere i diritti digitali degli utenti. La crescente consapevolezza riguardo alla privacy, la sicurezza dei dati e la libertà di espressione online ha portato alla promulgazione di leggi e regolamenti che mirano a garantire una maggiore tutela degli utenti. Ad esempio, l’entrata in vigore del Regolamento Generale sulla Protezione dei Dati (GDPR) nell’Unione Europea è un esempio di regolamentazione che mira a proteggere la privacy e i dati personali degli utenti online. Oppure la recentissima legge sui servizi digitali (DSA) dell’UE: la DSA si propone di risolvere il problema della responsabilizzazione degli intermediari internet, in particolare delle grandi piattaforme.

La direttiva sul commercio elettronico dei primi anni 2000 ha rappresentato finora un approdo sicuro che ha consentito agli intermediari di sottrarsi alla responsabilità per i contenuti illegali ospitati sui loro servizi, laddove non fossero a conoscenza dell’illegalità o, laddove lo fossero, agendo tempestivamente per rimuovere il contenuto.

La DSA ribadisce le condizioni in forza delle quali gli intermediari sono esonerati dalla responsabilità, ma impone loro anche degli obblighi, con l’obiettivo di combattere i contenuti illegali disponibili sui loro servizi.

Ma le problematicità di fondo restano ancora intatte. La più importante tra queste è quella relativa al meccanismo di notice and takedown. Il problema qui emerge in tutta la sua evidenza quando riflettiamo se il meccanismo di notifica è davvero implementato oppure si riduce in un ennesimo meccanismo a tutela successiva.

A ben vedere, il meccanismo di notice and takedown, previsto dal DSA (Digital Services Act) e da altri atti che tutelano i diritti digitali, impone un onere significativo, supererogatorio, sugli utenti per segnalare contenuti illeciti online. Questo meccanismo richiede agli utenti di individuare e segnalare attivamente i contenuti che violano la legge o le politiche dei fornitori di servizi digitali.

Mentre questa procedura può sembrare un modo per migliorare la tutela dei diritti online, può anche essere considerata un onere eccessivo per gli utenti comuni. Non tutti gli utenti hanno la conoscenza, il tempo o le risorse per segnalare prontamente ogni contenuto illecito che incontrano.

Questo solleva la questione di come sia possibile bilanciare la responsabilità degli utenti con quella dei fornitori di servizi digitali. Potrebbe essere necessario trovare un equilibrio in cui i fornitori di servizi digitali sono obbligati a implementare meccanismi di prevenzione e vigilanza più efficaci per ridurre la quantità di contenuti illeciti presenti online. Allo stesso tempo, gli utenti dovrebbero essere incoraggiati e supportati nella segnalazione dei contenuti che ritengono violino la legge o le politiche dei fornitori di servizi digitali.

Il meccanismo di notice and takedown, in combinato disposto con la clausola generale di esonero della responsabilità, stabilita nella direttiva sul commercio elettronico e mantenuta anche nel DSA, fornisce una protezione significativa agli Internet Service Provider (ISP). Questa clausola afferma che gli ISP non sono responsabili per i contenuti illegali pubblicati dai loro utenti, a condizione che non abbiano una “conoscenza effettiva” di tali contenuti.

Questo approccio è stato adottato per sostenere l’innovazione e facilitare la diffusione dei servizi online, proteggendo gli ISP da eventuali azioni legali per contenuti offensivi o illegali pubblicati dagli utenti. Tuttavia, ciò ha anche creato una situazione in cui gli ISP possono essere riluttanti ad assumersi la responsabilità di monitorare o rimuovere tempestivamente i contenuti illeciti dalla propria piattaforma.

 

Intelligenza artificiale e internet

Con l’introduzione massiva dell’intelligenza artificiale (IA), Internet sta attraversando una trasformazione significativa: da una semplice tecnologia della comunicazione a una tecnologia della trasformazione. Ciò accade perché l’IA non solo facilita la comunicazione tra le persone, ma anche perché trasforma attivamente i processi, le interazioni e le esperienze umane.

L’IA consente l’automatizzazione di compiti complessi, l’analisi di grandi quantità di dati, l’apprendimento automatico e la capacità di prendere decisioni intelligenti. Queste caratteristiche rendono possibile l’automazione di processi produttivi, l’ottimizzazione di servizi personalizzati e l’introduzione di nuove soluzioni innovative. In questo modo, Internet diventa uno strumento per trasformare la nostra vita quotidiana, l’economia, il diritto, la medicina, l’istruzione e molti altri settori.

L’avvento dell’intelligenza artificiale nella fase attuale di Internet implica una serie di nuove caratteristiche, cambiamenti, problemi e sfide:

1. Automazione avanzata: l’intelligenza artificiale permette la creazione di sistemi automatizzati più sofisticati e intelligenti. Questo porterà a un aumento dell’automazione in diversi settori, rendendo possibili nuove soluzioni e miglioramenti nella velocità e nell’efficienza delle operazioni.

2. Personalizzazione estesa: l’intelligenza artificiale consente la raccolta e l’analisi di grandi quantità di dati sugli utenti al fine di offrire contenuti, prodotti e servizi altamente personalizzati. Ciò comporterà una maggiore rilevanza e precisione nell’esperienza dell’utente, ma solleva anche preoccupazioni sulla privacy e sull’uso improprio dei dati.

3. Assistenza virtuale: i chatbot e gli assistenti virtuali basati sull’intelligenza artificiale stanno diventando sempre più comuni. Questi agenti virtuali possono rispondere alle domande degli utenti, fornire supporto e interagire in maniera sempre più “umana”. Tuttavia, ci sono sfide nel rendere queste interazioni più naturali e nel garantire l’accuratezza delle risposte fornite.

4. Automazione nel lavoro: l’intelligenza artificiale potrebbe portare a cambiamenti significativi nel mercato del lavoro, automatizzando alcune mansioni e rendendo obsoleti determinati ruoli. Questo solleva preoccupazioni sulla disoccupazione tecnologica e sulla necessità di riconversione professionale per adeguarsi ai nuovi scenari.

5. Etica e responsabilità: l’intelligenza artificiale solleva importanti questioni etiche e morali. Ad esempio, ci sono dibattiti sull’uso di sistemi autonomi per prendere decisioni che potrebbero avere impatto sulla vita umana, come ad esempio nei veicoli autonomi. È fondamentale stabilire norme e regolamentazioni per garantire un utilizzo etico e responsabile dell’intelligenza artificiale.

6. Affidabilità e bias: gli algoritmi di intelligenza artificiale possono essere soggetti a errori e bias. Ad esempio, l’uso di dati storici che riflettono discriminazioni passate può portare a risultati discriminanti o ingiusti. È necessario mettere in atto misure per garantire la fiducia e l’affidabilità nei sistemi alimentati dall’intelligenza artificiale.

7. Privacy e sicurezza: la crescente interconnessione delle tecnologie basate sull’intelligenza artificiale comporta una maggiore esposizione ai rischi di violazione della privacy e alla sicurezza dei dati. È cruciale sviluppare meccanismi di protezione adeguati per evitare abusi e proteggere le informazioni sensibili.

Controllando il nostro comportamento e dirigendo i nostri pensieri più intimi, l’IA ha il potenziale per sabotare le basi liberali delle nostre società, mandando in frantumi la nozione stessa di individualità[5]. Se un algoritmo mi conosce meglio di me stesso e mi suggerisce scelte più razionali di quelle che avrei mai potuto fare, se una miriade di oggetti connessi previene la mia capacità decisionale offrendomi un’esistenza determinata e confortevole, se gradualmente interrompo di essere l’agente delle mie stesse azioni, perché mai dovrei avere essere soggetto ad una pur minima responsabilità giuridica?

L’IA darebbe il colpo di grazia al libero arbitrio e con esso all’ideale kantiano dell’autonomia morale del soggetto. Il trionfo del benessere significherebbe l’abdicazione della libertà: libertà di scegliere, libertà di ribellarsi, libertà di sbagliare, come avrebbe detto John Stuart Mill.

Celebrando senza remore le prodezze della tecnologia, il liberalismo non rischia di perdere se stesso? Se l’IA anticipa, regola e manipola il mio comportamento o i miei pensieri più profondi, se è in grado di “hackerare gli esseri umani” non possiamo attenerci al classico argomento del libero mercato. Come possono i consumatori avere sempre ragione se le loro stesse ragioni sono prodotte da un algoritmo? Come possiamo essere adulti responsabili se le nostre scelte più fondamentali sono determinate dalla nostra appartenenza alla rete? Che differenza c’è tra Google e il Partito Comunista Cinese, se utilizzano le stesse tecniche di nudge per gli stessi fini utilitaristici? E con il mutare della natura di Internet, cambia anche il ruolo e lo status dell’utente. L’individuo si trasforma in un “singolo” in quanto l’IA permette la personalizzazione estrema delle esperienze digitali. Grazie alla raccolta di grandi quantità di dati personali e all’analisi predittiva, l’IA è in grado di adattare i contenuti, i prodotti e i servizi online alle singole preferenze e caratteristiche di ciascun utente. Ciò comporta che ogni utente vive un’esperienza unica, su misura per sé, e in tal modo diventa un “singolo” protagonista del proprio mondo digitale.

Questa fase nota con il nome di “singolarità”[6] e che Koenig considera la fase che ha causato la fine dell’individuo moderno comporta anche una sfida per i modelli normativi tradizionali. L’IA, infatti, permette lo sviluppo di una “Personalized Law”, una legge personalizzata e adattata alle esigenze di ogni individuo[7]. Questo implica un allontanamento dai parametri normativi tradizionali basati sull’“uomo medio” e il suo comportamento medio. La legge personalizzata, che di certo non è person-centered, si basa sulla comprensione e l’analisi dei dati personali di ciascun utente, consentendo così la creazione di regole e norme che si adattano alle specificità di ogni singolo individuo.

Inoltre, l’introduzione dell’IA e del singolarismo pone anche una sfida alle forme di regolamentazione paternalistica. Poiché l’IA offre la possibilità di personalizzare l’esperienza digitale, l’utente ha maggior controllo e autonomia nel determinare ciò che desidera vedere, ascoltare o utilizzare online. Ciò implica un rigetto delle forme di controllo normativo che prescrivono cosa è meglio per l’individuo, a favore di una maggiore libertà di scelta e autonomia decisionale.

In conclusione, l’introduzione massiva dell’intelligenza artificiale sta trasformando Internet da una tecnologia della comunicazione a una tecnologia della trasformazione. Questo mutamento comporta un cambio nel ruolo e dello status dell’utente, da persona a singolo[8], in cui l’esperienza digitale diventa altamente personalizzata.

 

Vecchi e nuovi codici di condotta online

Nella società digitale odierna, il benessere e la dignità dei minori sono spesso minacciati dall’abuso e dalla violenza online. Fino ad ora, i codici di condotta online si sono concentrati principalmente sulla responsabilità dei minori stessi, colpevolizzandoli invece di affrontare i veri responsabili dell’abuso. Ecco perché vorrei esplorare la necessità di nuovi codici di condotta online che responsabilizzino i providers e mettano in evidenza il loro ruolo nel garantire una maggiore dignità online per i minori.

I codici di condotta tradizionali online spesso concentrano l’attenzione sulla responsabilità dei minori per proteggersi dagli abusi digitali. Questo approccio può portare alla colpevolizzazione dei minori, accusandoli di non adottare precauzioni adeguate o incoraggiandoli a limitare la loro partecipazione online. Ciò crea un ambiente che favorisce sentimenti di vergogna e paura per i minori, riducendo la loro libertà di espressione e partecipazione online[9].

I vecchi codici di condotta online hanno volutamente e legalmente dimenticato di responsabilizzare i guardiani di internet, cioè i grandi player titolari e proprietari dei servizi e delle piattaforme in internet, saturando l’ambiente digitale di un vecchio lessico presente nel mondo offline: colpevolizzazione, sanzione e pericolo, allontanamento ed esclusione, finalità ripristinatorie delle sanzioni disciplinari. Spesso indirizzati solo agli utenti, mettendo in colpa le loro azioni senza considerare la responsabilità dei grandi player o dei guardiani di Internet. Ciò ha portato a un approccio punitivo anziché preventivo nella gestione della condotta online. I vecchi codici di condotta si sono basati su una visione tradizionale della disciplina, con un focus sulle sanzioni e sull’esclusione.

 

Al contrario, i nuovi codici di condotta dovrebbero essere incentrati sulla responsabilità collettiva e sulla promozione della dignità umana, collocando al centro la creazione di un ambiente online sicuro, rispettoso e inclusivo per tutti.

Questa mancanza di attenzione per la responsabilità delle strutture regolative architettoniche dei social media è un limite dei vecchi codici di condotta online e della legislazione attuale. Non si affronta adeguatamente il ruolo dei grandi player nel fornire un ambiente sicuro e nel prevenire comportamenti dannosi.

Nel riformulare i codici di condotta online e la legislazione sugli illeciti minorili è necessario incorporare una visione più ampia che consideri la corresponsabilità delle piattaforme e implementi meccanismi di verifica efficaci per garantire il rispetto delle norme. Questo richiede un dialogo costante tra i legislatori, gli esperti nel campo e i grandi player, al fine di creare regole chiare e applicabili[10].

In definitiva, è fondamentale rivedere i codici di condotta online e le legislazioni sui comportamenti persecutori per adattarli alle nuove dinamiche della società digitale, includendo sia la responsabilità collettiva sia la responsabilità dei guardiani di Internet. Solo così potremo creare un ambiente online sicuro, equo e inclusivo per tutti.

 

Internet criminogeno

Paradossalmente, i codici di condotta tradizionali hanno favorito la costruzione di Internet come ambiente criminogeno.

Con lo sviluppo graduale della comprensione di Internet, sono emerse diverse fonti di vulnerabilità, note come i “3 punti di vulnerabilità di Internet”[11]: anonimato, convenienza e accessibilità. Più recentemente, sono state suggerite altre vulnerabilità, come l’approssimazione al mondo reale[12], una maggiore accettabilità online di attività inaccettabili nel mondo reale[13], l’ambiguità tra morale e crimine[14] e una distanziazione tra il sé reale e il sé online.

Una caratteristica strutturale di Internet che interagisce con queste vulnerabilità è la sua natura essenzialmente non gerarchica. Sebbene l’accesso, l’hosting e la ricerca di servizi siano mediati da agenzie di servizi Internet commerciali e governative, il contenuto di Internet dipende principalmente dall’attività degli utenti poiché è la struttura che la favorisce.

Il social networking, ad esempio, è diventato una forma di comunicazione onnipresente tra i giovani. Permette contatti rapidi e multipli tra le persone, senza limitazioni geografiche o costi, con risultati benefici, ma può anche contribuire a un maggiore rischio di danni.

Le caratteristiche delle piattaforme di social networking modellano o consentono pratiche e usi specifici, che l’utente può modificare anche attraverso le impostazioni e l’uso, come l’utilizzo di più account[15].

Ciò crea un ambiente dinamicamente complesso in cui sia il destinatario che il mittente della comunicazione partecipano reciprocamente. Il modo in cui queste piattaforme vengono utilizzate è correlato al rischio di danni[16]. Alcune attività, come avere un profilo pubblico prominente, un numero elevato di contatti o visualizzare informazioni identificative, aumentano particolarmente il rischio di danni ai bambini, incluso il contatto da parte di terzi.

In effetti, il modo in cui i siti di social networking vengono utilizzati è probabilmente più importante in termini di esperienza di rischio di danni rispetto all’uso stesso dei siti di social networking[17]. Ad esempio, in un contesto più specifico, comportamenti sessuali a rischio elevato tra i giovani possono essere associati a una maggiore attività online.

Il modo in cui i siti di social networking influenzano il comportamento può essere utilmente concettualizzato in termini di affordances e apprendimento collaborativo offerti da tali siti[18].

Gli “amici” su Facebook, ad esempio, sono vettori, il cui accumulo è segno di socialità; analogamente, sui social media un tweet è un vettore, e l’accumulo di “follower” è un obiettivo di molti utenti dei social media.

Internet è stato utilizzato per creare uno spazio privato in cui coinvolgersi in comportamenti sessuali intenzionali con i giovani. Questo coinvolgimento è stato per alcuni solo un sostegno alla fantasia, ma per altri è stato un precursore di un’aggressione sessuale offline e della predazione sessuale online tramite Internet. Le opportunità offerte dalle piattaforme Internet non solo hanno consentito l’accesso ai giovani, ma hanno anche facilitato l’acquisizione rapida di competenze[19].

I devices digitali sono stati trasformati in psico-dispositivi di iper-captazione dell’attenzione[20], o meglio, della produzione industriale della disattenzione.

Se vi è sempre stata captazione dell’attenzione, ed essa è essenziale alla formazione dell’intelligenza, oggi il rischio è una sua deformazione radicale, per cui l’attenzione profonda, caratteristica dell’apprendimento riflessivo, letterario, scientifico e, in generale, critico, sembra essere man mano sostituita dalla hyper-attention, un’attenzione sempre più diffusa tra i cosiddetti “nativi digitali”, direttamente connessa al multitasking e che, è caratterizzata da rapide oscillazioni tra differenti compiti e molteplici flussi di informazione, alla ricerca di un sempre più elevato livello di stimolazione e dalla conseguente debole tolleranza per la noia. Bernard Stiegler mette in luce come l’iper-attenzione nasconda, nel superlativo, una iper-sollecitazione e una iper-captazione della stessa attenzione che, a forza di essere stimolata, giungerebbe paradossalmente a dissiparsi e a perdere il carattere di profondità, guadagnato con le pratiche riflessive e contemplative connesse alla psicotecnica letteraria[21].

In tal senso, l’iper-attenzione è una forma di attenzione non solo necessaria a un utilizzo multitasking delle nuove tecnologie mediatiche, ma è anche plasmata da queste ultime. Per usare il vocabolario dei dirigenti televisivi, in quanto oggetto di compravendita, l’iper-attenzione rappresenta il nutrimento privilegiato delle industrie di servizi e del marketing, che ha di mira principalmente la gioventù e che capta in modo massivo l’attenzione dei bambini fin dalla loro più giovane età, fino al punto di dissiparsi e regredire all’inumanità, ossia ad un livello di semplice soddisfacimento dell’indole pulsionale dei soggetti.

L’essenza dell’argomento presentato qui è che il comportamento problematico su Internet, in qualsiasi forma, è almeno sostenuto, se non creato, dal modo in cui interagiamo con Internet. Un elemento critico di ciò potrebbe essere ciò che è stato definito “disinibizione online” e il modo in cui può interagire con stati emotivi intensificati.

La disinibizione online si riferisce al modo in cui alcune persone tendono a rivelarsi o ad agire più frequentemente o intensamente rispetto a quanto farebbero di persona[22]. Secondo Suler, ci sono sei fattori che interagiscono tra loro per creare questo effetto:

anonimato dissociativo,

invisibilità,

asincronicità,

introiezione solipsistica,

immaginazione dissociativa e

minimizzazione dell’autorità

e suggeriscono che l’uso intensivo dei social network è associato a livelli elevati di disinibizione.

Inoltre, sappiamo che la divulgazione di informazioni personali avviene più rapidamente nella comunicazione mediata da Internet rispetto a quella offline e che il potenziale di vulnerabilità psicologica che ne deriva offre un mezzo per comprendere come l’interazione su Internet possa portare a comportamenti che sarebbero improbabili o meno frequenti offline[23]. La nostra esperienza di Internet è essenzialmente quella di un “mezzo performativo” dinamico, e potrebbe essere necessario rivalutare il nostro concetto di rischio in relazione a ciò[24].

Questa analisi supporta l’idea che Internet abbia qualità criminogene? Questa potrebbe essere una conclusione plausibile per due ragioni. In primo luogo, la natura distribuita di Internet e la mancanza di controllo ex ante facto sui contenuti contribuiscono a una maggiore disponibilità di materiale illegale o indesiderabile. In secondo luogo, lo sviluppo di complessi microsistemi globali distribuiti aumenta effettivamente le opportunità di accesso a tali contenuti, molti dei quali possono essere illegali.

 

Nuovi codici di condotta

Quando si parla dei nuovi codici di condotta nel mondo digitale, ci si riferisce a due aspetti fondamentali.

In primo luogo, viene sottolineato che nessun individuo può prescindere dalla necessità di avere un codice di comportamento che regoli le sue interazioni con gli altri. Tale codice non è esterno, ma intrinsecamente presente in ognuno di noi ed è rappresentato dalla dignità umana. Questo significa che ogni persona ha il dovere di trattare gli altri con rispetto, considerazione e reciprocità, garantendo la tutela dei diritti umani fondamentali.

In secondo luogo, l’idea di nuovi codici di condotta si riferisce alla necessità di regolamentare le piattaforme sociali e le attività dei provider digitali. Questo perché l’ambiente digitale, pur offrendo opportunità e vantaggi, può anche diventare lo scenario di comportamenti negativi, come cyberbullismo, stalking, diffamazione o discriminazione. Pertanto, è essenziale garantire che le piattaforme sociali e i fornitori di servizi digitali rispettino e promuovano la dignità umana, adottando politiche e pratiche che prevengano e contrastino tali comportamenti dannosi.

I nuovi codici di condotta online dovrebbero spostare il focus sulla responsabilità dei providers di servizi online e delle piattaforme digitali. I providers svolgono un ruolo fondamentale nel garantire la sicurezza e la dignità online dei minori e devono assumersi maggiori responsabilità nella prevenzione e nella risposta agli abusi. Questi codici dovrebbero richiedere ai providers di implementare misure di sicurezza avanzate, quali l’uso di algoritmi di rilevamento dei contenuti inappropriati, il monitoraggio attivo delle attività online e la rapida risposta agli abusi segnalati.

Nonostante l’introduzione di codici di autocondotta, spesso la risposta delle piattaforme rimane insufficiente nel prevenire comportamenti dannosi. È necessario rivedere la legislazione e i codici di condotta per integrare una visione più ampia che consideri la corresponsabilità delle piattaforme nel fornire un ambiente sicuro e nel gestire i contenuti e le interazioni online. La legge sul cyberbullismo in Italia è un esempio di come la legislazione attuale rimanga ancorata ai vecchi codici di condotta online. Pur non criminalizzando direttamente i minori per gli atti di cyberbullismo, rimane focalizzata sulla colpevolezza dei giovani senza affrontare adeguatamente la corresponsabilità delle piattaforme.

È necessario rivedere la legislazione per includere meccanismi di verifica efficaci e garantire la conformità dei grandi player alle norme di sicurezza online.

L’evoluzione dell’ambiente digitale e l’introduzione dell’intelligenza artificiale pongono la necessità di ripensare le condizioni di possibilità dell’agire normativo in questo contesto.

La dignità umana rappresenta la stella polare in questa riflessione, poiché è fondamentale assicurare che l’ambiente digitale rispetti e promuova i diritti fondamentali, la libertà, l’uguaglianza e la dignità di ogni singola persona.

Un parametro normativo è necessario per evitare l’anomia, cioè la mancanza di regole e linee guida che orientino il comportamento degli attori nell’ambiente digitale.

In questo contesto, emerge il concetto di “hypernudging”. Il termine “nudging”[25] viene dalla teoria economica comportamentale e si riferisce alla pratica di influenzare sottilmente le scelte delle persone attraverso l’utilizzo di incentivi o disincentivi. L’hypernudging si riferisce all’applicazione di queste pratiche nello spazio digitale.

L’hypernudging può essere utilizzato come uno strumento per indirizzare e influenzare i comportamenti degli utenti nell’ambiente digitale. Ad esempio, le piattaforme online potrebbero utilizzare tecnologie di intelligenza artificiale per suggerire contenuti che favoriscano interazioni positive, riducendo la diffusione di contenuti dannosi o negativi. Questa strategia potrebbe aiutare a creare un ambiente online più sano e rispettoso, promuovendo la dignità delle persone coinvolte.

Tuttavia, è necessario riflettere attentamente sull’implementazione dell’hypernudging per evitare possibili abusi o violazioni dei diritti individuali. La trasparenza, la legittimità e il rispetto delle libertà fondamentali devono essere garantiti in questi processi. Inoltre, è importante coinvolgere attivamente gli utenti nel definire le regole e le politiche che governano l’ambiente digitale, garantendo una democrazia partecipativa e inclusiva.

L’uomo non può fare a meno di un parametro normativo per guidare il suo agire. Ogni sua azione è soggetta a un giudizio pratico, a un parametro di valutazione che lo rende responsabile e imputabile. Questo parametro può essere medio, eccellente, virtuoso o utilitaristico, ma è sempre presente perché l’uomo, in quanto animale umano, non può sopravvivere senza riferimenti normativi. Questo perché egli non ha un ambiente prefissato, ma un mondo da costruire e ricostruire.

La natura razionale dell’uomo non è un parametro astratto e generale, comune a tutti gli esseri umani. Al contrario, è qualcosa di specifico e individuale: si può dire che esiste una norma per l’attività umana che non viene mai meno.

Per comprendere questa particolare caratteristica dell’uomo, è assolutamente necessario avere un parametro di riferimento. Non è necessariamente una norma giuridica, ma almeno un’aspettativa o una direzione da seguire. Nel corso dello sviluppo morale, gli individui interiorizzano degli standard etici che servono come linee guida del comportamento[26].

Sia nel titolo sia in queste ultime affermazioni mi sono appellato alla norma e al valore della dignità. Non nascondo che questo concetto presenta una natura problematica: in particolare relativamente alle diverse e spesso divergenti genealogie da cui origina[27] e ai disaccordi semantici di cui soffre[28].

Tuttavia vorrei insistere sull’utilità pratica del concetto di dignità nell’ambiente digitale; almeno per due ragioni: la prima, la dignità umana è il pilastro normativo, la metanorma, richiamata da tutte le più importanti dichiarazioni sovranazionali dei diritti umani e nelle più importanti costituzioni nazionali. Ricordiamoci che la Germania del dopo Olocausto promulga la sua Legge Fondamentale affermando all’art. 1 comma 1, il divieto di violazione della dignità umana, richiamando esplicitamente nei lavori preparatori alla seconda formula dell’imperativo categorico kantiano: “Agisci in modo da considerare l’umanità, sia nella tua persona, sia nella persona di ogni altro, sempre anche al tempo stesso come un fine e mai solamente come mezzo”. Questa definizione, dall’interpretazione problematica e spesso contestata, è rivelatrice di un bisogno autoevidente a tutti gli uomini[29]. La seconda ragione è che non possiamo giudicare una qualsiasi azione umana se non possiamo contare su un parametro normativo: giustificarsi è una questione normativa e soltanto facendo riferimento alla nostra normalità basilare si può concretizzare il contenuto dei vincoli normativi[30]. Anche il più radicale riduzionista ha bisogno di un parametro normativo che fondi la sua verità, anche se questa consiste nel negare l’esistenza stessa delle verità.

Negli ultimi anni, c’è stata un’esplosione di scritti sul tema della dignità umana in una pletora di diverse discipline accademiche. Nonostante questa esplosione di interesse, un gruppo rilevante di studiosi dei cultural studies ha dedicato poca o nessuna attenzione alla dignità umana, considerandolo un concetto vacuo o da riformulare profondamente secondo i dettami degli approcci post-modernisti o trans-umanisti[31].

Il concetto di dignità che qui si propone è basato sull’autoevidenza. Rifiuto quindi la concezione per la quale la dignità è un insieme di qualità o valori che riteniamo valga la pena possedere e tenere in considerazione: felicità, benessere, autonomia, etc. Questa concezione riduce la dignità ad un valore secondario che esiste solo se sono assicurati altri valori che agiscono come precondizioni della dignità. In realtà, noi non deriviamo la dignità umana dalle capacità funzionali delle persone o dal loro grado di autonomia, ma deriviamo la loro uguaglianza morale o la loro autonomia dalla loro dignità, cioè semplicemente dal fatto che esistono come esseri umani.

Un esempio di questa concezione che fa della semplice esistenza in vita il valore autoevidente della dignità lo traggo da “Il mercante di Venezia” (1598) di William Shakespeare. La figura di Shylock, un usuraio ebreo, ci invita a considerare il concetto di dignità umana anche nei confronti di coloro che sono marginalizzati o considerati diversi dalla società dominante.

Nella scena in cui Shylock pronuncia il monologo “Hath not a Jew eyes?”, si evidenzia il suo senso di umanità e la sua richiesta di essere trattato con uguaglianza e rispetto in forza della comune umanità. Egli sottolinea che gli ebrei, come qualsiasi altro essere umano, possono provare le stesse emozioni, soffrire e gioire, desiderare e amare.

Non ha forse occhi un ebreo? Non ha mani, organi, membra, sensi, affetti e passioni?

Non si nutre egli forse dello stesso cibo di cui si nutre un cristiano?

Non viene ferito forse dalle stesse armi?

Non è soggetto alle sue stesse malattie?

Non è curato e guarito dagli stessi rimedi?

E non è infine scaldato e raggelato dallo stesso inverno e dalla stessa estate che un cristiano?

Se ci pungete non versiamo sangue, forse?

E se ci fate il solletico non ci mettiamo forse a ridere?

Se ci avvelenate, non moriamo?

Questo monologo mette in discussione i pregiudizi e le pratiche discriminatorie dell’epoca e invita il pubblico a riflettere sulla nozione comune di dignità umana. Shylock promuove l’idea che ogni individuo, indipendentemente dalla sua origine, religione o appartenenza sociale e per il fatto stesso di appartenere alla famiglia umana meriti di essere trattato con rispetto e con uguale considerazione.

L’insegnamento di Shylock riguardo alla dignità umana costituisce ancora oggi un importante richiamo all’importanza di superare le discriminazioni e ci invita a considerare la nostra capacità di empatia e compassione verso gli altri, rifiutando i pregiudizi e la discriminazione sulla base di differenze superficiali.

L’esempio di Shylock ci ricorda che il concetto di dignità umana deve estendersi a tutte le persone, indipendentemente dalla loro etnia, religione o status sociale. Questo ci spinge a riflettere sulla nostra responsabilità di promuovere un mondo più giusto e inclusivo, in cui la dignità umana sia rispettata per tutti.

Solo in questo significato includente si ritiene possibile l’uso semantico e normativo del termine “dignità umana”. In maniera più categorica, ci sono buone ragioni per affermare con le parole di Simone Weil che “non c’è alcuna necessità di definire il rispetto della persona umana, poiché ciò che in un uomo è sacro non è la persona, che è una pura astrazione, ma la sua concreta, definita realtà fisica: braccia, occhi, pensieri”[32].

Educare alla dignità dunque non significa semplicemente imporre un valore specifico, ma piuttosto comprendere un valore intrinseco e universale che appartiene a ogni essere umano: il rispetto[33].

Comprendere che la dignità di ogni essere umano è intrecciata con il rispetto reciproco è essenziale per garantire che tutti possano vivere una vita piena e soddisfacente. L’educazione alla dignità si basa sulla consapevolezza che ogni individuo merita rispetto, indipendentemente dalle loro differenze.

Spesso, si tende a credere che educare alla dignità significhi imporre un certo insieme di valori morali o culturali. Tuttavia, questo approccio potrebbe portare all’omogeneizzazione e alla negazione della diversità. Invece, l’educazione alla dignità attraverso il rispetto implica un dialogo aperto e inclusivo, che incoraggi la comprensione e l’accettazione delle differenze individuali.

Per educare alla dignità, è importante promuovere la consapevolezza e l’empatia. I giovani dovrebbero essere incoraggiati a cercare di capire gli altri, ad apprezzare le loro prospettive e a trattare gli individui con gentilezza e rispetto. Attraverso l’educazione, si può trasmettere l’importanza dell’ascolto attivo, del riconoscimento dell’uguaglianza di tutti e dell’eliminazione di pregiudizi e discriminazioni.

L’educazione alla dignità attraverso il rispetto è cruciale per costruire una società più inclusiva. Quando le persone comprendono il valore intrinseco del rispetto e si impegnano attivamente per promuoverlo, si possono superare le barriere culturali, sociali ed economiche. Questo porta alla creazione di ambienti dove ogni individuo è trattato con uguaglianza e dignità.

 

Conclusione

Riteniamo che la sfida principale che ci attende riguardi il mutamento della natura giuridica delle piattaforme, passando da vettori proprietaristici a vettori di beni comuni. A livello globale, la governance di internet presenta tre differenti approcci:

quello statunitense basato sul mercato,

quello cinese basato sullo Stato e

quello europeo basato sui diritti.

Tra questi, l’approccio europeo sembra ideale per una adeguata educazione digitale, poiché enfatizza l’importanza dei diritti digitali per gli utenti in Internet (l’evoluzione normativa dal GDPR al DSA è paradigmatica in questo senso). Tuttavia, questo approccio apparentemente il più inclusivo tra i tre tipi di governance presenta una “dark side”: la rivendicazione di un diritto pone due problemi interconnessi.

Per quanto riguarda il problema della giustiziabilità, esiste il rischio di trovarsi di fronte a “diritti sulla carta”, in cui l’assenza di una efficace fonte di jus cogens e l’onere della rivendicazione da parte del soggetto debole che detiene un’aspettativa non riconosciuta contribuiscono a renderli non azionabili. Esempi evidenti in tal senso sono la controversa definizione di “effettiva conoscenza” di una violazione di un diritto digitale e la possibile soluzione di ricorso ai meccanismi di “notice and take down”.

Se l’abilità di rivendicare qualcosa è una condizione necessaria dei diritti “come ragioni”, ciò implica che qualcuno ha il potere di negarli. Vi è un rischio concreto che i diritti dichiarati non siano accompagnati da un dovere istituzionale attivo di tutela corrispondente. Ed è esattamente ciò che accade nell’ambiente digitale dove sia il GDPR sia il DSA adottano un sistema di controllo successivo che pone il controllo del trattamento dei dati correlati ai diritti digitali nelle mani inesperti degli utenti.

La sfida principale, dunque, risiede nel praticare una diffidenza epistemica verso internet. Con questa espressione si intende sottolineare il ruolo fondamentale delle piattaforme e dei loro algoritmi nel determinare ciò che viene pubblicato e condiviso online, e, di conseguenza, la loro responsabilità nelle possibili violazioni alla dignità delle persone.

È innegabile che le piattaforme e i loro algoritmi influenzino il panorama digitale, dando forma alle informazioni che raggiungono gli utenti. Tuttavia, questa responsabilità comporta la necessità di un’attenzione particolare nei confronti dei diritti e dei valori fondamentali, come la dignità umana e la libertà di espressione.

Le piattaforme devono assumere una posizione di responsabilità nei confronti delle informazioni che veicolano e devono adottare misure per prevenire abusi, discriminazioni e violazioni dei diritti umani online. Allo stesso tempo, è essenziale che gli utenti sviluppino una consapevolezza critica e una capacità di discernimento quando si confrontano con i contenuti presenti su internet.

L’educazione digitale offre un importante strumento per affrontare questa sfida, fornendo alle persone le competenze necessarie per utilizzare la tecnologia in modo consapevole, critico ed etico. Attraverso programmi di formazione adeguati, si può promuovere la consapevolezza sui rischi e sulle conseguenze delle proprie azioni online, nonché sulla necessità di rispettare la dignità e i diritti degli altri.

Inoltre, l’educazione digitale può contribuire a sviluppare abilità di analisi critica delle fonti, capacità di discernimento tra informazioni affidabili e false, e una conoscenza dei principi di tutela della privacy e della protezione dei dati personali.

Ad esempio, uno dei problemi più evidenti è la vittimizzazione secondaria. Le persone che subiscono molestie, cyberbullismo o altre forme di violenza online spesso affrontano una seconda vittimizzazione quando queste esperienze vengono perpetuate attraverso la condivisione e la diffusione di contenuti offensivi. Gli algoritmi delle piattaforme potrebbero essere progettati per individuare e rimuovere tali contenuti in modo più efficace, riducendo così l’impatto negativo sulla dignità delle persone coinvolte.

Inoltre, gli algoritmi che promuovono la dipendenza possono portare le persone a dedicare un tempo e una quantità eccessiva di energia alla presenza online, trascurando altri aspetti importanti della vita. Questa dipendenza può avere un impatto negativo sulla salute mentale e sul benessere delle persone, minando ulteriormente la loro dignità.

L’anonimato online è un altro fattore problematico. Mentre può essere utile per consentire alle persone di esprimere liberamente le proprie opinioni, può anche incoraggiare comportamenti irresponsabili ed estremi. La mancanza di responsabilità personale può portare a un calo della dignità online, con conseguenze dannose per gli individui e la società nel suo complesso.

La convenienza e l’accessibilità offerte dalle piattaforme online possono spesso portare a un’eccessiva approssimazione al mondo reale. Le persone potrebbero dimenticarsi che ciò che viene detto e fatto online ha un impatto reale sulle persone coinvolte. La sensazione di distanza tra il sé reale e il sé online può portare a comportamenti scorretti o violenti, poiché sembra che le conseguenze siano meno gravi.

Inoltre, la maggiore accettabilità online di certe attività rispetto alla realtà fisica può confondere i confini tra ciò che è moralmente accettabile e ciò che è criminoso. Questo può portare a una perdita di direzione morale e a una minore considerazione per la dignità delle persone coinvolte.

La struttura non gerarchica di Internet, con le grandi piattaforme che hanno un controllo quasi monopolistico sulla distribuzione dei contenuti, può essere utilizzata per diffondere ideologie dannose o per accentuare la polarizzazione delle opinioni. Questo può creare un clima di odio e intolleranza online, minando ulteriormente la dignità delle persone coinvolte.

In questi ultimi vent’anni, a cavallo tra il XX e XXI secolo, abbiamo cercato in ogni modo di essere soli, di essere lasciati soli (right to be let alone). Abbiamo elaborato teorie e filosofie, costruito cattedrali concettuali e giustificato ogni possibile mezzo per conseguire il nostro scopo. Ancora oggi, continuiamo a farlo. E poco importa se il diritto di essere lasciati soli si è via via trasformato nel diritto di avere il controllo dei propri dati, dando credito ad una utopia funzionale al capitalismo della sorveglianza[34]. La tecnologia digitale è intervenuta in nostro soccorso, ma non con l’obiettivo di unirci, bensì di disaggregarci, di frammentarci, di datacizzarci e di profilarci per sorvegliarci uno per uno, singolarmente, non individualmente o personalmente, ma, si badi, singolarmente.

Ciò è accaduto perché abbiamo anche rifiutato qualsiasi forma di convivenza solidale, optando invece per forme di convivenza contrattuale, ritenendo di essere così liberi e alla pari rispetto alla nostra controparte – siamo clienti l’uno dell’altro, reciprocamente.

Pensando così, crediamo erroneamente di essere liberi e alla pari dei nostri clienti, facendo fede sulla nostra capacità di autodeterminazione. Abbiamo distrutto tutte le forme di socializzazione primaria, rinnegando qualsiasi progetto educativo che appare troppo paternalista per essere ancora accettato e tollerato.

Baudrillard nel suo saggio La trasparenza del male scrive: il padre e la madre sono scomparsi ma non a favore di una libertà aleatoria del soggetto bensì a favore di una matrice chiamata codice. Niente più madre, niente più padre: solo una matrice. Derrida il padre del decostruzionismo postmoderno può affermare che la maternità naturale non esiste. Solo un codice, una matrice, ad esempio il codice genetico che figlia all’infinito secondo un modo operazionale, purificato da qualunque sessualità aleatoria. E niente più soggetto - persona o individuo - giacché la reduplicazione dell’identico mette fine alla sua divisione[35].

Ma ora che osserviamo l’esito di questa rivoluzione sociale, tecnologica, etica e giuridica, ci stiamo lasciando prendere dal panico morale. E quale soluzione di sicurezza abbiamo scelto di tracciare? Abbiamo deciso di tracciare un percorso che invece di prevenire, crea un labirinto verso il basso, in altre parole, stiamo creando una nuova gabbia di acciaio, di weberiana memoria, ma questa volta una gabbia digitale, cioè costituita dai codici computazionali: chi eroga un credito? Chi decide un lavoro? Chi decide un rischio? Chi decide una promozione? Chi decide una malattia? Un codice computazionale sviluppato da un algoritmo decisionale. Qual è dunque la soluzione che abbiamo scelto per la nostra sicurezza? Stiamo costruendo una sorta di gabbia digitale ancor più complessa, che invece di proteggerci, ci costringe a incagliarci in un labirinto di acciaio a valle. In quest’ottica paranoide, sono nate leggi come il GDPR, le direttive sui beni digitali e il copyright digitale, il codice dell’amministrazione digitale e, ora, il DSA, tutti presentati come il Leviatano terrestre che deciderà chi comanda davvero nel cyberspazio.

Ma cosa possiamo fare? Aspettiamo che si concretizzi la profezia postumanista e transumanista, sperimentando una nuova specie di esseri ibridi tra cyborg e intelligenze artificiali che ci sostituirà?

Forse è il momento di adottare un approccio diverso, più umano, che tenga conto dei valori fondanti della nostra società e promuova l’uso etico e responsabile delle tecnologie digitali, riducendo al minimo gli effetti collaterali negativi.

Anziché scandalizzarsi e criminalizzare i comportamenti tenuti dai minori navigando in Rete, occorre programmare le tecnologie affinché siano funzionali ad un controllo portato all’interno dell’infrastruttura. Laddove i regolatori pubblici decidessero di progettare policy di controllo solo ex post, lasciando ai privati produttori dei codici informatici il controllo delle possibilità connesse a Internet, a venire compromessi sarebbero importanti valori sociali, quali la dignità, la reputazione e il rispetto delle persone; a questo punto, non potremmo dolerci del fatto che i giovani sono diventati protagonisti e vittime di una shitstorm in cui l’interazione è fortemente connotata in senso negativo e, talvolta, violento.

L’architettura informatica dei blog, di TikTok, di Instagram e di Facebook determina una de-medializzazione della comunicazione: ciascuno produce e diffonde informazioni, sicché si evidenzia una tensione continua tra pratiche di esibizione e forme di intimità, un intreccio perenne tra spazi online e spazi offline all’interno di un frame complessivo che trova nella realtà (mediata o non mediata) le sue pratiche, le sue rappresentazioni e le sue conseguenze.

Solo intervenendo sulle architetture della rete e imponendo un mutamento del code (cioè del sistema interno computazionale che serve per trasmettere informazioni) si potrà affrontare la questione della protezione dei minori dalle forme di espressione oscene, indecenti e violente; infatti, nessuna forma di regolamentazione sarà efficace se non controllerà dall’interno, by design, le architetture che consentono o strutturano le nostre azioni sul Web.

Migliorare la dignità online richiede dunque un approccio in grado di affrontare sia la responsabilità dei providers nella progettazione delle piattaforme sia la necessità di educare i giovani sull’uso corretto dell’ambiente digitale. Colpevolizzare i giovani non è la soluzione; piuttosto, dobbiamo investire nell’educazione digitale e promuovere nuovi codici di condotta che siano in linea con il valore fondamentale della dignità umana. Solo attraverso un impegno congiunto dei providers, delle istituzioni educative e della società nel suo complesso, potremo creare un ambiente online più rispettoso, inclusivo e dignitoso per tutti.

Ciò significa implementare la formazione digitale, sviluppare tecnologie accessibili e inclusive, e soprattutto, adottare un approccio collaborativo per salvaguardare l’unico valore che ci resta e che mai perirà: il valore dell’umanità.

 

[1] Il testo che qui pubblico è la ripresa ampliata e rimaneggiata della relazione tenuta, con lo stesso titolo, al Convegno “Educare alla dignità nell'era digitale” (Fondo Fird 2023), tenutosi l'8 settembre 2023 presso Palazzo Angeli di Rovigo, sede staccata del Dipartimento di Giurisprudenza dell'Università di Ferrara.

[2] L. Lessig, Code and Other Laws of Cyberspace, Basic Books, 1999.

[3] E. Maestri, Lex Informatica. Diritto, persona e potere nell'età del cyberspazio, Edizioni Scientifiche Italiane, 2015

[4] In ambito statunitense, il Decency Communications Act e il Digital Millenium Copyright Act del 1996 riconoscono l'immunità alle piattaforme online da responsabilità civile sulla base del contenuto caricato dalle terze parti e per la rimozione del contenuto in determinate circostanze. In ambito europeo la stessa clausola di limitazione della responsabilità per i contenuti illeciti caricati dagli utenti è stata riconosciuta dalla Direttiva 2000/31/CE sul commercio elettronico e ora, seppur con alcuni oneri aggiuntivi, confermata dalla legge sui servizi digitali (DSA). In termini di contenuto della DSA, le responsabilità dei fornitori di servizi non sono dissimili da quelle previste dalla direttiva sul commercio elettronico. Ciò che differenzia la legislazione proposta è la sua attenzione alla trasparenza. I meccanismi di notifica e rimozione sono al centro del nuovo regolamento: le aziende che dipendono per il loro business da siti web come quello di Amazon dovranno implementare una maggiore chiarezza nel processo decisionale.

[5] G. Koenig, La fin de l'individu. Voyage d'un philosophe au pays de l'intelligence artificielle, Éditions de l'Observatoire, 2019.

[6] R. Kurzweil, La singolarità è vicina, Apogeo, 2008.

[7] O. Ben-Shahar, A. Porat, Personalized Law. Different Rules for Different People, Oxford, 2021.

[8] F. Rigotti, L'era del singolo, Einaudi, 2021.

[9] I. Garaci, Il «superiore interesse del minore» nel quadro di uno sviluppo sostenibile dell’ambiente digitale, in Le nuove leggi civili commentate, 4, 2021.

[10] A. Annoni, A. Thiene (a cura di), Minori e Privacy. La tutela dei dati personali dei bambini e degli adolescenti alla luce del Regolamento (Ue) 2016/679, Napoli, 2019.

[11] A. Cooper, Sex and the Internet: A guidebook for clinicians, Brunner-Routledge, 2020.

[12] M.W. Ross, Men who have sex with men, and the Internet: Emerging clinical issues and their management. In A.M.R. Cooper (ed.), Sex and the Internet: A guidebook for clinicians, Brunner-Routledge, 2002.

[13] S.A. King, Internet gambling and pornography: Illustrative examples of psychological consequences of communication anarchy, in Cyberpsychology & Behavior, 2, 1999.

[14] K.M Hertlein, A. Stevenson, The Seven “As” Contributing to Internet-Related Intimacy Problems: A Literature Review, in Cyberpsychology: Journal of Psychosocial Research on Cyberspace, 4, 2010.

[15] S. Livingstone et al., Risks and safety on the internet: The perspective of European children: Full findings, http://eprints.lse.ac.uk/33731/, 2011.

[16] E. Quayle, M. Taylor, Social networking as a nexus for engagement and exploitation of young people, in Information Security Technical Report, 16, 2011.

[17] E. Staksrud et al., Does the use of social networking sites increase children’s risk of harm? In Computers in human behavior, 29, 2013.

[18] R. Thomas, E. Christiansen, Community and social network sites as Technology Enhanced Learning Environments, in Technology, Pedagogy and Education, 17, 2008.

[19] E. Quayle et al., Rapid skill acquisition and online sexual grooming of children, in Computers in Human Behavior, 39, 2014.

[20] B.J. Fogg, Tecnologia della persuasione, Apogeo, 2005.

[21] B. Stiegler, Prendersi cura. Della gioventù e delle generazioni, Ortothes, 2014.

[22] J. Suler, The online disinhibition effect, in Cyberpsychol Behav. 2004.

[23] S. Turkle, Il disagio della simulazione, Ledizioni, 2011.

[24] E. Montelius, K. Nygren, Doing’ risk, ‘doing’ difference: towards an understanding of the intersections of risk, morality and taste, in Health, Risk & Society, 2014.

[25] C.R. Sunstein, Effetto nudge. La politica del paternalismo libertario, Egea, 2015.

[26] C. Volpato, Disumanizzazione. Come si legittima la violenza, Laterza, 2011.

[27] E. Maestri, Genealogie della dignità umana, in Diritto e questioni pubbliche, IX, 2009.

[28] F. Poggi, Dignità e autonomia: disaccordi semantici e conflitti di valore. In Rivista di filosofia del diritto VIII, 1/2019.

[29] R. Spaemann, Persone. Sulla differenza tra qualcosa e qualcuno, Laterza, 2007.

[30] R. Spaemann, Tre lezioni sulla dignità della vita umana, Lindau, 2011.

[31] N. Bostrom, Superintelligenza, Bollati Boringhieri, 2018.

[32] S. Weil, La prima radice, SE, 1990.

[33] E. Maestri, Giudizi di esistenza. Deliberare sulla vita umana, Edizioni Scientifiche Italiane, 2009.

[34] S. Zuboff, Il capitalismo della sorveglianza. Il futuro dell'umanità nell'era dei nuovi poteri, LUISS, 2023.

[35] J. Baudrillard, La trasparenza del male. Saggio sui fenomeni estremi, Doppiozero, 2020.