x

x

Discriminazione e Garante: il caso Glovoo

Castelluccio di Norcia
Ph. Gianluca Scalpelli / Castelluccio di Norcia

La discriminazione è ormai il tema dell’estate. Mentre Renzi discute con i Ferragnez su discriminazione e ddl zan, il Garante Privacy non le manda a dire ai titolari di Glovoo – la celebre app di food delivery – sanzionati per 2.6 milioni di euro a causa della discriminazione realizzata mediante gli algoritmi utilizzati per la gestione dei rider-lavoratori. Ad ognuno il suo, è il caso di dire.

Nel ricco provvedimento del Garante, la discriminazione principale compiuta dall’app è stata derivata dal funzionamento degli algoritmi alla base del sistema di assegnazione del punteggio (rating) ai rider, in merito al quale l’Autorità ha ravvisato sia una mancata informazione ai lavoratori circa il funzionamento del sistema che la mancata tutela del diritto dei rider di ottenere l’intervento umano in contestazione ai risultati del processo automatizzato, che potevano condurre all’esclusione di occasioni di lavoro. I rider vittime della discriminazione del sistema, infatti, venivano penalizzati nel rating impiegato dalla piattaforma per smistare gli ordini ricevuti e rischiavano così di perdere consegne. Una violazione totale dell’articolo 22 del GDPR, per farla breve.

La discriminazione compiuta dall’app dovrà essere sanata con misure individuate entro 60 giorni ed implementate nell’ulteriore termine di 90 giorni.

 

Discriminazione e giudici nazionali: dal privato al pubblico

La tutela dalla discriminazione che rischia di derivare dagli algoritmi reputazionali è stata d'altronde affrontata in un altro provvedimento adottato quest’estate, a giugno dalla Prima Sezione della Cassazione Civile, nel quale gli Ermellini hanno ritenuto invalido il consenso prestato dagli interessati ad essere sottoposti al trattamento dell’algoritmo perché non previamente informati sulle logiche del suo funzionamento.

Se la pronuncia della Cassazione si concentrava sulla discriminazione effettuata da un algoritmo nel settore privato, non è mancato anche l’intervento dei giudici amministrativi sul tema, sempre più impegnati a sentenziare su algoritmi impiegati nell’esercizio di funzioni pubbliche da parte della PA e possibili derive di discriminazione.

Di recente, la vicenda più importante è rappresentata dalla sentenza n. 30/2020 del Consiglio di Stato che, ribaltando quanto statuito dal TAR in primo grado, ha cercato di fare chiarezza sui rapporti tra diritto di accesso dei partecipanti ad un concorso pubblico al codice sorgente dell’algoritmo impiegato per la valutazione e tutela dei diritti di proprietà industriale della software house, quest’ultima da qualificarsi come controinteressata dell’istanza di accesso.

 

Discriminazione e Parlamento Europeo: A.I. e polizia

Il binomio discriminazione-algoritmi non è sicuramente nuovo alle cronache. Sempre sulla discriminazione a danno dei lavoratori, è di qualche mese fa la pronuncia della Corte di Amsterdam sul caso Uber mentre, per non lasciare né il settore food né l’Italia, è di inizio anno l’ordinanza del Tribunale di Bologna sulla discriminazione effettuata dall’algoritmo di rating di Deliveroo.

Anche il Parlamento Europeo è ovviamente sensibile al tema. Il 29 giugno, infatti, la Commissione Parlamentare Europea per le libertà civili ha adottato una risoluzione che, per quanto indirizzata ai sistemi di intelligenza artificiale impiegati per finalità di polizia, sottolinea la necessità che gli algoritmi garantiscano il rispetto dei diritti umani.

Non una discriminazione sul piano lavorativo, quindi, ma non per questo meno rilevante. Sorveglianza di massa, discriminazione delle categorie vulnerabili, database di riconoscimento facciale e di altri dati biometrici (DNA), controlli alle frontiere con sistemi di intelligenza artificiale. Queste le sfide sulle quali si concentra la commissione parlamentare.

 

Discriminazione e attivisti: Privacy International & Co.

Non solo il Garante e le istituzioni europee in prima linea contro la discriminazione effettuata dagli algoritmi. La questione non lascia insensibili nemmeno le non-profit attive a tutela della protezione dei diritti umani digitali.

Di recente, ad esporsi sulla discriminazione algortimica sono state in parecchie. Da ultima, Privacy International – organizzazione del Regno Unito attiva nella tutela del diritto alla protezione dei dati – che, focalizzandosi ancora sul tema dell’utilizzo delle tecnologie di riconoscimento facciale per finalità di polizia, ha comunicato di aver formulato una risposta alla consultazione pubblica lanciata dal College Of Policing UK.

Nel comunicato, l’organizzazione elenca i punti chiave della risposta che si sostanziano nel sottolineare come l’utilizzo di queste tecnologie da parte della polizia in spazi pubblici non possa mai essere sicuro per gli interessati, dovendo quindi essere totalmente vietato.

Privacy International sottolinea inoltre come, dati gli effetti a cui queste tecnologie da parte della polizia possono condurre (discriminazione e non solo), il loro l’utilizzo deve essere necessariamente previsto da una legge sottoposta ad uno scrutinio parlamentare.

L’organizzazione UK non è però stata l’unica a prendere posizione sui rischi di discriminazione dovuti all’utilizzo dell’intelligenza artificiale.

A metà giugno avevamo già riferito della lettera aperta di Access Now – una tra le più note organizzazioni non-profit a tutela dei diritti digitali – che, insieme ad oltre 170 associazioni, ha domandato un ban globale delle tecnologie di riconoscimento biometrico che permettono una sorveglianza di massa indiscriminata.

Questo il quadro ad oggi…vedremo se il futuro Regolamento A.I. metterà un freno a questa nuova forma di discriminazione.