Per un’etica dell’intelligenza artificiale. tra sfide e opportunità

intelligenza artificiale
intelligenza artificiale

Per un’etica dell’intelligenza artificiale. tra sfide e opportunità

 

Lo sviluppo dell'intelligenza artificiale completa potrebbe significare la fine della razza umana... decollerebbe da sola e si riprogetterà a un ritmo sempre crescente. Gli umani, che sono limitati dalla lenta evoluzione biologica, non potrebbero competere e verrebbero superati".

 Stephen Hawking

 

L'etica e l'intelligenza artificiale sono tematiche strettamente interconnesse.

L'uso sempre più crescente dell'IA solleva inevitabilmente importanti questioni morali e sociali ed è fondamentale considerare come le tecnologie di intelligenza artificiale possano influenzare la vita delle persone, le decisioni che prendiamo e le società in cui viviamo.

L’intelligenza artificiale ci pone inevitabilmente di fronte a nuove sfide etiche.

Dai primi romanzi futuristici alle prime sperimentazioni, l’uomo ha compreso subito la necessità di approcciarsi ai sistemi informatici intelligenti sviluppando una riflessione etica che oggi, in modo particolare, verte non solo sulle potenzialità, ma anche sui possibili rischi e limiti nell’applicazione dell’Intelligenza artificiale.

Da qui gli interrogativi: quali confini non dovranno essere superati nell’Intelligenza artificiale? Che valori devono sottintendere la ricerca scientifica? Quali campi di applicazione dovrebbero essere evitati, o comunque attenzionati? Come garantire la protezione dei diritti e la centralità stessa dell’esistenza umana?

La necessità di comprendere, consapevolmente, la portata dei cambiamenti prodotti nell’era delle macchine intelligenti ha di conseguenza prodotto un vastissimo campo di riflessione culturale cui hanno contribuito – e continuano a contribuire –  filosofi, sociologi, antropologi e studiosi di tutto il mondo. 

L’ urgenza di rispondere a questi quesiti e di formalizzare una serie di principi in grado di orientare il lavoro di tutti gli attori coinvolti nello sviluppo dell’IA – non solo ricercatori, ma anche aziende, policy makers e istituzioni –  ha così portato, nel 2017, alla prima “messa nero su bianco” di 23 principi sullo sviluppo dell’Intelligenza artificiale.

Tra i  23 principi di Asilomar sull’Intelligenza artificiale, sviluppati durante la Beneficial AI 2017 conference organizzata da Future of Life Institute e distinti in tre diverse aree: 1)Problemi di ricerca, 2) Etica e Valori e 3) Problemi di lungo termine https://www.projectland.it/innovazione-digitale/i-23-principi-di-asilomar-e-letica-dellintelligenza-artificiale/

Rilevanti appaiono i principi n. 10, 11, 16 e 23 qui di seguito descritti:

10 Condivisione di lavori: I sistemi altamente autonomi di IA dovrebbero essere progettati assicurando che i loro obiettivi e il loro comportamento siano allineati con i valori umani.

11 Valori umani: I sistemi di AI dovrebbero essere progettati e dovrebbero operare in modo da essere compatibili con gli ideali della dignità umana, dei diritti, della libertà e della diversità culturale.

  1. Controllo umano: Gli esseri umani dovrebbero scegliere se e come delegare le decisioni ai sistemi di IA per raggiungere obiettivi individuati.
  1. Bene comune: La super intelligenza dovrebbe essere sviluppata solo al servizio di ideali etici condivisi e a beneficio di tutta l’umanità, piuttosto che di un solo Stato o di un’organizzazione.

I principi di Asilomar si pongono l’obiettivo di contribuire allo sviluppo tecnologico affinché questo possa migliorare e mai impattare negativamente sul futuro dell’umanità.

Nel 2018 La Dichiarazione di Montréal sullo Sviluppo Responsabile dell'intelligenza Artificiale costituita da 10 principi:

  1. principio di benessere 
  2. principio di rispetto per l'autonomia 
  3. protezione di privacy e riservatezza 
  4. principio di solidarietà 
  5. principio di partecipazione democratica
  6.  principio di equità
  7. principio di inclusione delle diversità
  8. principio di cautela 
  9. principio di responsabilità 
  10. principio di sviluppo sostenibile

si pone tre obiettivi primari:

1. sviluppare un quadro etico per lo sviluppo e l'implementazione dell'IA;

2. guidare la transizione digitale in modo che tutti traggano vantaggio dalla rivoluzione tecnologica;

3. avviare un forum di discussione a livello nazionale e internazionale con l'obiettivo di sviluppare l'IA in modo equo, inclusivo ed ecosostenibile.

Tra i principi al primo posto vi è il PRINCIPIO DI BENESSERE che evidenzia come “Lo sviluppo e l'uso dei sistemi di intelligenza artificiale (IA) devono consentire il miglioramento del benessere di tutti gli esseri senzienti”.

Infatti, i sistemi IA devono:

  • aiutare le persone a migliorare le proprie condizioni di vita, di salute e di lavoro;
  •  permettere alle persone di perseguire le proprie attitudini, nella misura in cui non ledano altri esseri senzienti.
  • permettere alle persone di mettere in pratica le proprie capacità mentali e fisiche
  • non devono diventare una fonte di malessere, a meno che questo non preluda al conseguimento di un benessere superiore a quanto si otterrebbe altrimenti.
  • L'utilizzo dei sistemi IA non deve aumentare stress, ansia e la sensazione di essere vessati dall'ambiente digitale.

Il primo obiettivo della Dichiarazione resta dunque quello di individuare i principi e i valori etici che favoriscono gli interessi fondamentali delle persone e dei gruppi.

Il 20 marzo 2025 il Senato licenzia il disegno di legge recante: “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” https://www.senato.it/leg/19/BGT/Schede/Ddliter/testi/58262_testi.htm , che mira a stabilire un quadro normativo che assicuri sicurezza e trasparenza nell’uso dell’Intelligenza Artificiale, il cui fine ultimo è potenziare e supportare le potenzialità umane senza mai sostituirle. Il provvedimento, allo stato attuale, è all’esame della Camera.

Nella ratio della normativa la “persona resta al centro” , con la sua autonomia decisionale in quanto è la “persona” che fa la differenza, non una macchina.

Proprio in questi giorni AGID sta lavorando alle “Linee guida dell’IA per la PA”:

https://www.agid.gov.it/sites/agid/files/2025-02/Linee_Guida_adozione_IA_nella_PA.pdf

Le Linee Guida per l’adozione, l’acquisto e lo sviluppo di sistemi di intelligenza artificiale nella Pubblica Amministrazione sono emanate seguendo l’iter previsto all’articolo 71 del CAD e nel rispetto della Determinazione dell’Agenzia per l’Italia Digitale (di seguito AgID) n. 160 del 17 maggio 2018 recante il “Regolamento per l’adozione di linee guida per l’attuazione del Codice dell’Amministrazione Digitale”.

Luciano Floridi, una delle voci più autorevoli della filosofia contemporanea, è direttore del Digital Ethics Center e professore nel programma di Scienze cognitive all’Università̀ di Yale in “Etica dell’intelligenza artificiale” fornisce non semplicemente un’introduzione all’IA o all’etica dell’IA, ma una vera e propria trattazione concettuale e interpretativa del significato profondo e delle conseguenze sociali di queste tecnologie.

Floridi nel suo libro “Etica dell’Intelligenza artificiale. Sviluppi, opportunità, sfide”, Raffaelo Cortina, 2022, dimostra che aprire la “scatola nera” dell’IA è un’impresa tutt’altro che semplice. Non solo perché all’interno vi si troveranno complesse operazioni computazionali, ma anche (e forse soprattutto) perché l’IA obbliga la società a interrogarsi su cosa sia eticamente giusto. 

Floridi, inoltre, non si limita semplicemente ad aprire questa scatola nera, ma ci ricorda che nonostante non sia sempre semplice comprendere del tutto il funzionamento di un sistema di IA, ciò non ci solleva dalla responsabilità di gestire questa tecnologia nel migliore dei modi possibili.

La vera sfida non è l'innovazione digitale ma la governance.

A fare la differenza è chi ha le mani sul volante, non chi ha il piede sull'acceleratore. La legislazione europea, ad esempio, dice che deve esserci una supervisione umana costante.

Alcuni dei principali aspetti etici riguardano la privacy, la trasparenza, la responsabilità e la giustizia. 

Ad esempio, come possiamo garantire che i dati personali siano protetti quando vengono utilizzati per addestrare modelli di IA? E come possiamo assicurarci che le decisioni automatizzate non siano influenzate da pregiudizi o discriminazioni?

Inoltre, è importante riflettere su chi è responsabile quando un sistema di IA commette un errore. Dobbiamo anche considerare l'impatto dell'IA sul lavoro e sull'occupazione, e come sarà possibile affrontare le sfide che ne deriveranno.

In sintesi, l'etica nell'intelligenza artificiale è un campo in continua evoluzione che richiede un dialogo aperto e collaborativo tra esperti, legislatori e la società in generale per garantire che l'IA venga sviluppata e utilizzata in modo responsabile e benefico per tutti perché al centro resta la persona.