Intelligenza artificiale e recruiting: evitare i bias è possibile adottando i modelli giusti

Istruire l'IA per dare vita a selezioni del personale prive di pregiudizi di qualsiasi natura richiede l'adozione di modelli complessi che rispondono anzitutto all'obiettivo di amplificare i valori umani migliori. Il tema è al centro del nuovo articolo dei contributor Marco Ceruti ed Edoardo Ares Tettamanti

di Marco Ceruti ed Edoardo Ares Tettamanti*

Immaginate di insegnare a un bambino a riconoscere i medici mostrandogli solo fotografie di uomini in camice bianco. Quando crescerà, quel bambino avrà difficoltà a riconoscere come medico una donna, anche se perfettamente qualificata. Questo esempio iper-semplificato illustra perfettamente il meccanismo alla base del bias algoritmico: gli algoritmi di intelligenza artificiale, proprio come quel bambino, imparano dai dati che ricevono, e se questi dati contengono distorsioni storiche, l’AI non farà altro che replicarle e amplificarle su scala industriale.

La ricerca dell’Osservatorio HR Innovation Practice del Politecnico di Milano ha documentato come questo fenomeno possa ridurre la diversità del 20-35% quando gli algoritmi vengono addestrati su dati storici che riflettono disparità preesistenti. Questo dato non è semplicemente una statistica astratta, ma rappresenta migliaia di carriere potenzialmente compromesse da decisioni apparentemente oggettive ma intrinsecamente viziate.

Per comprendere la profondità di questo problema, dobbiamo esplorare i meccanismi attraverso cui il bias si manifesta nel recruiting algoritmico.

Consideriamo un algoritmo progettato per selezionare candidati per posizioni tecniche. Se l’azienda ha storicamente assunto principalmente uomini per questi ruoli, i dati di training conterranno una sovrarappresentazione maschile tra i “candidati di successo”.

L’algoritmo, nella sua logica apparentemente neutrale, identificherà pattern associati al genere maschile come indicatori di idoneità al ruolo. Questo può manifestarsi in modi sottili, ma devastanti: l’algoritmo potrebbe penalizzare CV che includono pause lavorative (spesso associate alla maternità), privilegiare hobby tradizionalmente maschili, o dare maggior peso a esperienze in settori a prevalenza maschile.

La questione diventa ancora più complessa quando consideriamo i bias intersezionali. Una ricerca pubblicata su Harvard Business Review nel 2019 ha dimostrato come gli algoritmi di hiring possano discriminare simultaneamente su più dimensioni, penalizzando ad esempio le donne di colore in modo più severo rispetto alle donne bianche o agli uomini di colore presi singolarmente.

Questo fenomeno, noto come “algorithmic intersectionality”, evidenzia come l’AI possa creare forme di discriminazione che vanno oltre i bias tradizionali, combinando multiple forme di pregiudizio in modi prima impensabili.

Un caso emblematico che ha fatto scuola nel settore è quello di Amazon, documentato da Reuters nel 2018. Il gigante dell’e-commerce aveva sviluppato un sofisticato sistema di AI per automatizzare il processo di selezione del personale tecnico. Tuttavia, dopo anni di utilizzo, si scoprì che l’algoritmo discriminava sistematicamente le candidate donne. Il sistema aveva imparato dai pattern di assunzione del passato, quando il settore tech era ancora più dominato dagli uomini, e aveva iniziato a penalizzare CV che contenevano parole associate al genere femminile, come la partecipazione a club o associazioni femminili nelle università. Amazon fu costretta ad abbandonare il progetto, ma il caso rimane un monito sulla necessità di vigilanza costante.

La sfida del bias algoritmico è amplificata dalla sua natura spesso invisibile. A differenza della discriminazione umana, che può essere più facilmente identificata e contestata, il bias algoritmico opera attraverso correlazioni statistiche complesse che possono essere quasi impossibili da decifrare senza strumenti analitici sofisticati.

Un recruiter umano potrebbe essere consciamente o inconsciamente prevenuto, ma almeno è possibile interrogarlo sulle sue decisioni. Un algoritmo, invece, può processare centinaia di variabili simultaneamente, creando combinazioni discriminatorie che nessun umano sarebbe in grado di riconoscere o spiegare facilmente.

Per affrontare questo problema, aziende innovative come Yoox Net-a-Porter, secondo quanto riportato dalla ricerca del Politecnico di Milano, hanno introdotto comitati etici cross-funzionali che monitorano gli output degli algoritmi e applicano correttivi in tempo reale. Questo approccio rappresenta un modello interessante di governance algoritmica, ma richiede competenze interdisciplinari che combinano expertise tecnica, conoscenza del dominio HR e sensibilità sociale.

La questione della trasparenza algoritmica è strettamente collegata al problema del bias. Lo studio del Politecnico ha rivelato che il 68% dei dipendenti non comprende come le decisioni AI influenzino la propria carriera. Questa opacità non è solo un problema di comunicazione, ma può nascondere discriminazioni sistemiche. Per questo motivo, stanno emergendo tecnologie di Explainable AI (XAI) che tentano di rendere comprensibili i processi decisionali degli algoritmi. Tuttavia, la sfida tecnica è enorme: come si può spiegare in termini umani una decisione basata sull’elaborazione simultanea di migliaia di variabili attraverso reti neurali complesse?

Un approccio promettente per mitigare il bias è quello dell’adversarial training, una tecnica sviluppata nel campo del machine learning che prevede l’addestramento di algoritmi “antagonisti” specificamente progettati per identificare e contrastare i bias negli algoritmi principali. Questa metodologia, documentata in ricerche pubblicate su Nature Machine Intelligence, può ridurre significativamente le discriminazioni algoritmiche, ma richiede expertise tecnica avanzata e risorse computazionali considerevoli.

L’Unione Europea sta affrontando questa sfida attraverso un approccio normativo. L’AI Act, entrato in vigore nel 2024, classifica i sistemi di AI utilizzati nelle decisioni lavorative come “ad alto rischio”, imponendo requisiti stringenti di trasparenza, accountability e testing per bias.

Secondo il regolamento, le aziende devono implementare sistemi di monitoraggio continuo e documentare le misure adottate per prevenire discriminazioni. Tuttavia, la compliance normativa, per quanto necessaria, non è sufficiente: serve un cambio culturale profondo che metta l’equità al centro della progettazione algoritmica.

La ricerca accademica sta esplorando approcci innovativi per affrontare il bias alla radice. Il MIT Technology Review ha documentato lo sviluppo di tecniche di “fair representation learning” che cercano di creare rappresentazioni dei dati che preservino l’informazione rilevante per le decisioni lavorative eliminando però le correlazioni con caratteristiche protette come genere, etnia o età. Questi approcci sono ancora in fase sperimentale, ma potrebbero rivoluzionare il modo in cui progettiamo sistemi di AI per le risorse umane.

La sfida del bias algoritmico nelle risorse umane non è solo un problema tecnico, ma riflette questioni più profonde sulla natura dell’equità e della giustizia nella società digitale. Mentre continuiamo a delegare decisioni sempre più importanti agli algoritmi, diventa cruciale sviluppare non solo la competenza tecnica per identificare e correggere i bias, ma anche la saggezza per riconoscere i limiti intrinseci di qualsiasi sistema automatizzato nel catturare la complessità dell’esperienza umana.

La vera sfida non è creare algoritmi perfetti, ma costruire sistemi socio-tecnici che utilizzino l’AI come strumento per amplificare i nostri valori migliori, non i nostri pregiudizi peggiori.


* Chi sono gli autori

Esperto di intelligenza artificiale, UX design e SaaS, Marco Ceruti ha una formazione in design ed esperienza come consulente, due caratteristiche che gli permettono di trasformare idee in prodotti utilizzati da centinaia di migliaia di utenti nel mondo. Appassionato di AI, combina creatività e governance per sviluppare soluzioni innovative e scalare business digitali su fondamenta solide.

Imprenditore con background in marketing e in formazione manageriale, Edoardo Ares Tettamanti guida la strategia di growth di Intra.FM. È coautore del libro “Cosa me ne faccio dell’Intelligenza Artificiale?”, scritto con l’Osservatorio sulle Prospettive Cliniche dell’Intelligenza Artificiale dell’Università Statale di Milano, di cui è cofondatore e membro. TEDx speaker, ha svolto attività di consulenza per aziende Fortune 500 e istituzioni accademiche.

Bibliografia
– Osservatorio HR Innovation Practice del Politecnico di Milano (2024). Intelligenza Artificiale pro e contro per HR: la fotografia del PoliMi. Milano: Politecnico di Milano – School of Management.

– Harvard Business Review (2019). The Intersectional Impact of AI Bias in Hiring. Boston: Harvard Business School Publishing.

– Dastin, Jeffrey (2018). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters Technology News, 10 ottobre 2018.

– Parlamento Europeo e Consiglio dell’Unione Europea (2024). Regolamento (UE) 2024/1689 sull’intelligenza artificiale (AI Act). Bruxelles: Gazzetta ufficiale dell’Unione europea.

– Nature Machine Intelligence (2023). Adversarial training methods for reducing algorithmic bias in hiring systems. Nature Machine Intelligence, 5(3), 234-248.

– World Economic Forum (2023). The Future of Jobs Report 2023. Ginevra: World Economic Forum.

SEGUI LA DIRETTA DI: