Il caso Apple, tra tutela dell’individuo e sviluppo tecnologico

Può la privacy degli individui essere sacrificata in nome del progresso e dello sviluppo tecnologico?
apple e il caso SIRI
apple e il caso SIRI

Il caso Apple, tra tutela dell’individuo e sviluppo tecnologico

 

Il nuovo anno si è aperto con la notizia, ampiamente diffusa dalla stampa, della proposta di Apple di porre fine ad un contenzioso avviato nel 2021 nei suoi confronti da una class action per violazione della privacy, mediante un accordo di transazione.

In particolare, Apple era stata convenuta in giudizio con l’accusa di aver installato una prima versione dell’assistente vocale Siri sugli iPhone che - tramite attivazioni accidentali - registrava conversazioni senza consenso: secondo l’accusa Apple avrebbe poi conservato e condiviso con subappaltatori terzi i dati degli utenti illecitamente acquisiti per propri scopi commerciali e pubblicitari.

Nel procedimento, Apple si è difesa indicando di aver utilizzato soltanto alcune di queste registrazioni per finalità di ricerca e sviluppo, per migliorare l'accuratezza di Siri e la protezione della privacy, rilasciando poi successivi aggiornamenti del software che prevedono l’attivazione dell’assistente vocale mediante il comando vocale “Ehi, Siri!”.

L’accordo transattivo che Apple ha proposto in sede giudiziale, e che dovrà ricevere l’approvazione del giudice, prevede l’impegno di Applealla cancellazione di tutti i dati illecitamente raccolti prima dell'ottobre 2019 ed al risarcimento nei confronti di ogni utente (pur di carattere simbolico: la stampa parla di 20 dollari per ciascun dispositivo utilizzato, fino ad un massimo di cinque) che sia stato vittima diviolazione della privacy.

La notizia offre uno spunto di riflessione: può la privacy degli individui essere sacrificata in nome del progresso e dello sviluppo tecnologico?

Il Comitato dei Garanti Europei (“EDPB”) si è pronunciato nel Parere 28/2024 “su alcuni aspetti connessi alla protezione dei dati al trattamento dei dati personali nel contesto dei modelli di Intelligenza Artificiale” (Adottato il 17 dicembre 2024) sul possibile impatto di un trattamento illecito nello sviluppo di un modello di intelligenza artificiale, partendo dal presupposto che – sovente - i trattamenti di dati personali condotti nella fase di sviluppo possano portare a violazioni del GDPR con differenti e specifiche connotazioni: la mancanza di trasparenza nei confronti degli interessati, la mancanza di protezione dei dati per progettazione e/o per impostazione predefinita ed il mancato rispetto del principio di liceità.

Secondo l’EDPB, nel caso in cui il titolare del trattamento sia in grado di dimostrare che il funzionamento del modello di intelligenza artificiale oggetto di sviluppo non comporti il trattamento di dati personali, ad esempio per essere stati anonimizzati i dati illecitamente acquisiti nella fase iniziale, il GDPR non trovi applicazione in relazione al modello oggetto di sviluppo, così salvando gli effetti del progresso e dello sviluppo tecnologico.

In tale contesto gioca un ruolo fondamentale il principio di accountability, che prescrive ai titolari del trattamento di rendicontare le scelte effettuate nelle fasi di processo, adottare opportune cautele ed eventuali strumenti correttivi, rispettando il bilanciamento degli interessi (“test balancing”) al fine di sviluppare modelli tecnologici conformi alla legge e di mantenere una salda reputazione sul mercato.