IA in azienda: il nuovo quadro normativo integrato tra Italia e Europa

Dallo scorso 10 ottobre è in vigore la legge 132 che ha recepito le indicazioni dell'AI Act europeo sull'utilizzo dei sistemi di intelligenza artificiale nel rispetto di privacy e dignità delle persone. Sull'argomento pubblichiamo volentieri l'articolo di Giuseppe Magaddino, senior associate del team di diritto del lavoro di Hogan Lovells Italia

di Giuseppe Magaddino*

L’Italia ha la sua legge sull’intelligenza artificiale. Il 25 settembre 2025 è stata pubblicata in Gazzetta Ufficiale la legge numero 132, in vigore dal 10 ottobre scorso. Si tratta di un intervento ampio che abbraccia molteplici ambiti della società e dell’economia, ma alcune disposizioni toccano specificamente il mondo del lavoro e meritano particolare attenzione. Con questo nuovo provvedimento, il legislatore italiano amplia la disciplina sul rapporto tra tecnologie automatizzate e rapporti di lavoro, integrando e rafforzando il quadro normativo esistente in dialogo con il Regolamento europeo sull’intelligenza artificiale (UE) 2024/1689 (AI Act). Il principio guida è chiaro: favorire l’innovazione tecnologica senza compromettere la dignità e i diritti delle persone.

La legge italiana si inserisce nel quadro normativo europeo, che ha già delineato una classificazione dei sistemi di intelligenza artificiale (IA) basata sul rischio.
Dal febbraio 2025 il legislatore europeo ha infatti disposto il divieto di utilizzo di vari sistemi di IA particolarmente invasivi, tra cui quelli capaci di analizzare dati biometrici per trarre deduzioni in merito a origine etnica, orientamento sessuale, convinzioni religiose o appartenenza sindacale. Analogo divieto è previsto per i sistemi di “social scoring” che valutano le persone in base ai loro comportamenti o caratteristiche personali, nonché per quelli capaci di inferire le emozioni delle persone nei luoghi di lavoro.

In ambito occupazionale, i sistemi impiegati per assumere, monitorare o valutare prestazioni, promuovere o licenziare lavoratori sono classificati come strumenti ad “alto rischio”, poiché capaci di incidere profondamente sulla vita professionale e personale degli individui. I datori di lavoro che adottano questi strumenti dovranno rispettare precisi obblighi, primo fra tutti, garantire una supervisione umana qualificata, con la possibilità effettiva di intervenire e modificare le scelte algoritmiche.

La normativa comunitaria introduce inoltre il diritto alla spiegazione dei processi decisionali: chi subisce una decisione automatizzata che incide sulla propria sicurezza o sui diritti fondamentali è legittimato a conoscere quali criteri e quali dati ha utilizzato il sistema.

Su queste basi, la legge n. 132/2025 rafforza l’impianto europeo imponendo obblighi di trasparenza stringenti. Le aziende che utilizzano l’IA nella gestione del personale devono informare preventivamente sia i lavoratori che le rappresentanze sindacali, con comunicazioni dettagliate e comprensibili. Non bastano avvisi generici: occorre spiegare ad esempio che tipo di sistema viene impiegato, per quali scopi, quali decisioni può assumere, su quali categorie di dati e parametri è stato programmato.

Il legislatore italiano prevede inoltre l’istituzione dell’Osservatorio nazionale sull’adozione di sistemi di IA nel mondo del lavoro presso il Ministero del lavoro. Non si tratta di un semplice organismo di controllo, ma rappresenta uno strumento operativo con una missione precisa: monitorare gli impatti reali dell’IA sul lavoro, definire strategie sull’utilizzo dell’IA in ambito lavorativo, promuovere formazione capillare rivolta a imprese e lavoratori. L’Osservatorio risponde all’esigenza di affiancare alla dimensione normativa un supporto culturale e operativo, fatto di accompagnamento, dialogo e costruzione di prassi condivise.

Un’attenzione particolare merita la disciplina delle professioni intellettuali. A livello nazionale è previsto che tali professionisti (tra cui ad esempio avvocati, medici, ingegneri, commercialisti e architetti) possono utilizzare l’IA solo come strumento di supporto tecnico, mai come sostituto della prestazione professionale. La responsabilità rimane ancorata al prestatore, che è tenuto a informare il cliente in caso di utilizzo di questi strumenti.

L’approccio mira a preservare il rapporto di fiducia tipico di queste professioni ed evitare derive di deresponsabilizzazione: i sistemi possono elaborare dati e informazioni, ma le decisioni che impattano direttamente sulle persone restano di competenza umana.

Il calendario normativo è serrato. La legge n. 132/2025 è già in vigore dal 10 ottobre 2025. A livello europeo, i divieti sui sistemi più invasivi operano dal febbraio 2025, mentre dall’agosto 2026 diventeranno vincolanti tutti gli obblighi previsti per i sistemi ad alto rischio impiegati nella gestione del personale.

Molte aziende hanno già avviato un processo di adeguamento, mappando gli strumenti in uso, definendo procedure interne e aprendo tavoli di confronto con lavoratori e rappresentanze sindacali.
Il quadro normativo che emerge, tanto a livello europeo quanto nazionale, traccia una linea netta: i sistemi automatizzati offrono indubbi vantaggi in termini di efficienza operativa e capacità di analisi, ma quando si tratta di decisioni che incidono concretamente sulla vita lavorativa delle persone, resta indispensabile una supervisione umana in grado di valutare sfumature, particolarità e contesto specifico di ciascuna situazione.

Tradurre questi principi nella pratica quotidiana richiede però un impegno concreto. Non basta adottare le nuove tecnologie: occorre assicurare una formazione specifica a chi sarà chiamato a gestirle, implementare meccanismi di controllo realmente efficaci e favorire un confronto costante tra imprese, dipendenti e rappresentanze sindacali. È in questo spazio di responsabilità condivisa che si gioca la possibilità di far incontrare progresso tecnologico e rispetto della persona.

*Chi è l’autore

Giuseppe Magaddino è senior associate del team di diritto del lavoro di Hogan Lovells Italia. Assiste quotidianamente clienti attivi in vari settori su diversi aspetti del diritto del lavoro. Ha maturato una specifica competenza nelle questioni giuridiche legate alle piattaforme digitali e all’impatto dell’intelligenza artificiale e delle nuove tecnologie sul mondo del lavoro. Tra il 2017 e il 2019 ha svolto un periodo di secondment presso l’ufficio di Londra. Inoltre, nel 2018, ha conseguito un Master presso la Queen Mary University of London.

SEGUI LA DIRETTA DI: