Intelligenza artificiale, formazione aziendale e bias: quali possibili scenari?
Intelligenza artificiale, formazione aziendale e bias: quali possibili scenari?
Introduzione: la promessa dell’AI nella formazione
Era inevitabile: l’intelligenza artificiale è diventata parte dei processi di formazione e sviluppo delle competenze in azienda, attraversando una serie di acronimi, strumenti e inglesismi che vanno dagli strumenti di authoring per la creazione dei contenuti, piattaforme LMS, LXP, soluzioni di microlearning, simulazioni VR/AR fino ai sistemi di learning analytics, rendendo la formazione più efficiente, personalizzata e coerente con i bisogni organizzativi, ottimizzando il tempo e accontentando maggiormente i desiderata iniziali.
Tra le questioni aperte e più rilevanti c’è la riduzione dei bias che si insidiano nei programmi di formazione: disparità spesso invisibili ma sistemiche, che portano alcuni gruppi di lavoratori e lavoratrici ad avere maggiori/minori opportunità di accesso, sviluppo e crescita. L’altra faccia di questa medaglia patinata di opportunità richiede dunque un’analisi critica: l’AI può essere parte della soluzione e, al contempo, parte del problema.
AI nei percorsi formativi tra bias e opportunità
Il nostro cervello fa ricorso ai bias per prendere decisioni rapide: al pari di un algoritmo, tendiamo a basarci su esperienze passate, abitudini, emozioni e scorciatoie mentali già conosciute per interpretare la realtà. E proprio come un algoritmo, questo sistema non è puro né perfetto: se i “dati di addestramento” personali sono parziali o distorti, anche i giudizi prodotti lo saranno. Il risultato è una percezione semplificata del mondo che ci aiuta a decidere più velocemente, ma che può portarci a valutazioni incomplete e spesso ingiuste. Anche i bias che albergano nei percorsi formativi non sono sempre il risultato di decisioni deliberatamente discriminatorie. Più frequentemente derivano da:
- prassi organizzative consolidate: in molte organizzazioni i programmi di formazione più avanzati – per esempio attinenti al project management o innovazione - sono spesso rivolti esclusivamente a ruoli tecnici o tendenti al manageriale.
Questo può escludere in modo sistematico funzioni considerate di supporto (amministrazione, assistenza, back office), anche quando le competenze sviluppate sarebbero molto utili per questi profili. - Criteri informali di selezione dei partecipanti ai corsi: spesso la formazione viene organizzata prevalentemente in presenza o in orari prestabiliti, che spesso fanno rima con “rigidità”. Questo può penalizzare alcune risorse (con disabilità o con carichi di cura per esempio), limitandone la partecipazione.
- Stereotipi di genere fusi nelle scelte formative: le opportunità di formazione vengono frequentemente orientate da aspettative implicite sui ruoli di genere, rafforzando le disuguaglianze di accesso alle posizioni di responsabilità. (una breve ma necessaria digressione: lo stato dell’arte in termini di dati ci riporta un 32 % delle posizioni manageriali in Italia ricoperto da donne, mentre nei percorsi ICT specialistici la presenza femminile si attesta intorno al 15-16 %, dimostrando come la distribuzione differenziata della formazione alimenti concretamente il divario di genere nelle carriere aziendali).
Esattamente come mattoni nelle mani di un costruttore, gli strumenti di AI possono creare ponti o muri, a seconda di chi li utilizza: accanto alle numerose dinamiche di disparità sistematiche generate dall’AI, con accessi diseguali alle opportunità di upskilling e reskilling e conseguenze negative sulla crescita professionale e sull’inclusione organizzativa, c’è anche l’innegabile capacità di analizzare grandi quantità di dati in modo sistematico, con possibilità di osservare - e monitorare - chi partecipa ai corsi e con quale frequenza, chi completa i percorsi formativi e con quali risultati e come vengono distribuite le risorse formative tra i diversi gruppi aziendali.
L’AI riesce dunque a individuare disuguaglianze e pattern ricorrenti: ad esempio una minore partecipazione delle donne a programmi di formazione avanzata, un’esclusione implicita dei lavoratori più anziani dai percorsi digitali, o una scarsa accessibilità per persone con disabilità, svolgendo una funzione preziosa di strumento diagnostico, supportando decisioni basate su dati e non su percezioni soggettive.
Sembrerebbe che non sono i mattoni in sé a costruire ponti o muri: tutto dipende da chi li impila e con quale consapevolezza: chi ignora i dati e le disuguaglianze rischia di replicare ingiustizie e bias; chi analizza i dati, monitora i percorsi formativi e agisce con responsabilità può costruire ponti che collegano persone, competenze e opportunità in modo equo. In questo modo e incanalata in questi presupposti, la tecnologia può diventare alleata della formazione inclusiva, favorendo una distribuzione più equa delle opportunità di apprendimento.
Governance, etica e sopravvivenza del senso critico
Una delle strade percorribili per evitare questi rischi, è la collocazione dell’intelligenza artificiale all’interno di una governance organizzativa chiara e ben strutturata, che dia importanza alla supervisione umana nei processi decisionali con previsione di audit periodici dei sistemi di AI e attenzione agli aspetti etici, giuridici e di tutela dei dati personali.
Evitare di affidarsi all’AI come soluzione “oggettiva”, ma governarla affinché diventi uno strumento al servizio di una formazione realmente equa, accessibile e orientata allo sviluppo di tutte le persone resta la vera sfida: in questo equilibrio tra innovazione tecnologica e responsabilità umana si gioca il futuro della formazione aziendale. HR e responsabili della formazione sono chiamate e chiamati a mantenere un ruolo attivo e critico, interrogandosi non solo sull’efficienza degli strumenti, ma anche sul loro impatto in termini di equità, inclusione e dignità delle persone.
Il legame tra AI e formazione non è un nemico da temere, ma uno specchio potente delle nostre scelte e delle nostre priorità. Se utilizzata in modo passivo può amplificare bias e disuguaglianze già presenti; se governata con consapevolezza, può diventare uno strumento capace di rendere l’apprendimento più equo. Tutto si gioca sul terreno della responsabilità di utilizzo dell’AI, che deve essere trattata come una lente per guardare sempre più da vicino, attraverso la formulazione di continue domande.
In quest’ottica, per evitare di inciampare o alimentare bias, professionisti e professioniste del settore possono chiedersi:
- Chi viene invitato ai corsi e secondo quali criteri? Alcuni gruppi potrebbero essere sistematicamente esclusi?
- I percorsi formativi sono accessibili in termini di orari, modalità e strumenti utilizzati? Sto tenendo conto di tutte le necessità della popolazione aziendale?
- I contenuti dei corsi sono neutrali rispetto a genere, età, ruolo o background culturale? Rappresentano davvero diverse prospettive aziendali?
- Gli strumenti di AI e i dati utilizzati sono completi, rappresentativi e monitorati per evitare di confermare discriminazioni implicite?
- Chi supervisiona le decisioni prese dall’AI o dai sistemi di selezione della formazione, e sono previsti audit periodici per identificare eventuali disuguaglianze?
- Le opportunità di crescita e sviluppo sono distribuite in modo equo tra tutta la popolazione, o rischiano di rafforzare disparità già esiste
Porsi domande stimola il senso critico, spingendoci a riflettere, valutare e riconoscere i propri bias; il prompting, invece, è uno strumento che ci fornisce risposte, ma senza l’intervento umano rischia di trasferire automaticamente pregiudizi e schemi già presenti nei dati. La differenza tra replicare ingiustizie o costruire opportunità sta proprio nella capacità di interrogarsi, dubitare, analizzare e prendere decisioni consapevoli. Il senso critico diventa così la bussola imprescindibile per guidare la tecnologia al servizio delle persone, trasformando ogni scelta formativa in un atto di equità, responsabilità e inclusione.
Agire oltre le ‘bolle formative’ e la sfida del dato
Il senso critico dei professionisti e delle professioniste, oggi, non può limitarsi alla sola diagnosi dei bias storici; deve evolvere per intercettare i rischi invisibili generati dall'automazione stessa e interrogarsi su concetti quali:
- Il paradosso della "Bolla Formativa”: se gli algoritmi delle piattaforme LXP consigliano contenuti basandosi esclusivamente sui ruoli attuali o sulle scelte passate, rischiano di cristallizzare il potenziale umano. In questo modo, invece di aprire nuovi orizzonti, l'AI potrebbe creare un "loop" che confina le persone in percorsi predefiniti, soffocando il virtuoso incontro casuale con competenze diverse che spesso rappresenta il vero motore dell'innovazione e della mobilità interna.
- L'illusione della mappatura: mappare le competenze tramite l'AI ha valore solo se i dati di partenza sono dinamici e verificati. Affidarsi a dati obsoleti o non corretti significa costruire una strategia di sviluppo su basi deformate, dove l'AI esalta talenti inesistenti o ignora potenziali nascosti.
- L’AI Literacy come nuovo paradigma: il rischio reale è che l'AI diventi un acceleratore solo per chi è già "digitalmente privilegiato". Senza una solida alfabetizzazione all'intelligenza artificiale, si crea disparità: da una parte chi sa interrogare i tutor virtuali per crescere, dall'altra chi ne rimane escluso per mancanza di metodo, non di talento.
Quindi, forse, la vera sfida non è solo rendere la formazione accessibile a livello pratico, ma soprattuto a livello etico: occorre tenere sempre presente che l’AI, in fondo, non decide chi cresce e chi resta indietro: lo facciamo noi. Ogni scelta di dati e strumenti riflette le nostre priorità e i nostri pregiudizi. L’imperativo è mantenere allenato lo sguardo umano: curioso, critico e attento alle persone.