L’impatto dell’IA sul luogo di lavoro

Compliance & Risk Management | maggio 2026

In questo numero della Newsletter Compliance & Risk Management, i professionisti delle Service Line 231/Privacy e Employment & Labour di Andersen hanno approfondito l’impatto dell’IA sul luogo di lavoro, al fine di evidenziare l’importanza, sempre più crescente, per le imprese di adottare apposite misure tecniche e organizzative in grado di mitigare i rischi legati all’utilizzo dell’IA, migliorando così la propria governance e la propria resilienza.

ODV e IA: controlli integrati e sempre più stringenti

L’adozione crescente di sistemi di intelligenza artificiale sta ridefinendo l’assetto dei controlli interni, imponendo un approccio sempre più integrato e strutturato tra funzioni aziendali e Organismo di Vigilanza. In ambito D.Lgs. 231/2001, l’IA rappresenta al contempo un’opportunità e una fonte di nuovi rischi, richiedendo alle imprese un adeguamento tempestivo dei presidi organizzativi.

Le società sono chiamate, in primo luogo, a mappare i processi nei quali l’IA è impiegata, valutandone i rischi specifici (ad es. bias algoritmici) e integrandoli nel sistema di controllo interno e nel Modello 231.

Ciò implica l’adozione di policy dedicate, la definizione di responsabilità chiare e l’implementazione di strumenti di monitoraggio continuo, anche mediante soluzioni di data analytics.

In tale contesto, l’Organismo di Vigilanza assume un ruolo sinergico, verificando l’adeguatezza dei presidi e la loro effettiva attuazione, ma anche promuovendo un’evoluzione culturale orientata alla gestione consapevole delle tecnologie emergenti.

Le novità introdotte dalla L. 132/2025 in materia di salute e sicurezza sul lavoro

Lo scorso 10 ottobre 2025 è entrata in vigore la Legge n. 132/2025, che recepisce e integra l’AI Act europeo, introducendo obblighi specifici nell’ambito della salute e sicurezza sul lavoro. La legge definisce i principi generali di utilizzo dell’IA nel contesto lavorativo: i sistemi di IA devono essere sicuri, affidabili e trasparenti, utilizzati nel rispetto della dignità umana e della riservatezza dei dati personali, e orientati al miglioramento delle condizioni di lavoro e della qualità delle prestazioni.

Un ruolo centrale è attribuito anche all’informativa ai lavoratori, che devono essere a conoscenza dell’impiego di sistemi di IA per finalità decisionali o di monitoraggio che incidano su aspetti rilevanti del rapporto di lavoro.

Infine, la Legge 132/2025 prevede l’istituzione di un Osservatorio nazionale sull’intelligenza artificiale, con compiti di monitoraggio, analisi e supporto all’adozione consapevole delle tecnologie, in attesa di linee guida operative che accompagnino imprese e professionisti nell’applicazione concreta delle nuove disposizioni.

I rischi derivanti dall’utilizzo di sistemi di IA sul luogo di lavoro

L’AI Act europeo, recepito con la Legge 23 settembre 2025 n. 132, e le Linee guida ministeriali mettono in luce le criticità fondamentali derivanti dall’utilizzo di sistemi di IA sui luoghi di lavoro.

Il primo rischio è la c.d. “discriminazione algoritmica”. I sistemi IA per la selezione del personale possono sviluppare bias su genere, età o origine se non adeguatamente istruiti. L’art. 5 dell’AI Act vieta la categorizzazione biometrica per inferenze su razza, opinioni politiche o appartenenza sindacale. L’articolo 8 dello Statuto dei Lavoratori vieta indagini su opinioni politiche, religiose o sindacali: la portata di questa norma è certamente da estendere ai sistemi automatizzati.

La sorveglianza invasiva è il secondo rischio. Il monitoraggio costante della produttività può generare stress, violare la privacy e creare pressione continua. La normativa prevede trasparenza e obblighi informativi per garantire sempre la supervisione umana.

L’AI Act vieta inoltre sistemi di manipolazione comportamentale mediante tecniche subliminali. Infine, per mitigare i rischi, le aziende devono mappare e classificare i sistemi IA, garantire trasparenza e supervisione umana.