1. Introduzione: quando è un algoritmo a decidere
Sempre più spesso, nel mondo del lavoro, decisioni fondamentali che riguardano il lavoratore non sono più prese da una persona fisica, ma da un sistema automatizzato. Dall’assunzione alla valutazione delle performance, fino alla pianificazione dei turni o alla gestione disciplinare, l’algoritmo diventa un “nuovo datore di lavoro invisibile”.
Questa progressiva automazione, se non correttamente regolamentata, rischia di generare dinamiche opache, discriminatorie e lesive della dignità del lavoratore. Per questo motivo, la trasparenza algoritmica non è più solo una sfida tecnologica, ma un dovere giuridico. Essa si colloca al crocevia tra diritto del lavoro, protezione dei dati personali e principi costituzionali di eguaglianza, autodeterminazione e partecipazione.
2. Lavoro e algoritmi: applicazioni e rischi
Le tecnologie basate su intelligenza artificiale, machine learning e data analytics vengono ormai impiegate in moltissimi ambiti della gestione del personale. Le principali applicazioni si registrano in:
- Recruiting e selezione: algoritmi di screening automatico analizzano CV e lettere motivazionali per filtrare candidati;
- Performance management: tool digitali valutano produttività, comportamenti, interazioni online;
- Organizzazione del lavoro: sistemi di scheduling automatizzano l’assegnazione dei turni;
- Disciplinare e compliance: analisi comportamentale e indicatori di rischio generano alert automatici.
Queste tecnologie, se non governate con criteri di equità, accountability e spiegabilità, possono introdurre bias sistemici, trattamenti discriminatori o decisioni arbitrarie.
3. Il quadro giuridico: trasparenza, controllo umano, tutela dei diritti
3.1. Articolo 22 del GDPR: profilazione e decisioni automatizzate
Il Regolamento Generale sulla Protezione dei Dati (Reg. UE 2016/679) vieta in linea di principio le decisioni basate esclusivamente su trattamenti automatizzati, qualora queste abbiano effetti giuridici rilevanti o impatti significativi sulla persona.
Nel contesto lavorativo, questo significa che:
- un algoritmo non può decidere autonomamente un’assunzione, una promozione o una sanzione;
- deve essere garantito l’intervento umano, la possibilità di esprimere il proprio punto di vista e di contestare la decisione (art. 22.3);
- il datore di lavoro deve fornire informazioni significative sulla logica utilizzata, l’importanza e le conseguenze previste del trattamento.
3.2. Principi generali del GDPR: trasparenza, minimizzazione, liceità
Oltre all’art. 22, trovano applicazione gli articoli 5, 13 e 14 del GDPR:
- ogni trattamento deve essere trasparente, lecito e proporzionato;
- devono essere indicate finalità, base giuridica, logiche applicate e diritti dell’interessato;
- l’informativa deve essere redatta in modo chiaro, accessibile e intelligibile anche ai non esperti.
3.3. Articolo 88 GDPR e diritto del lavoro
L’art. 88 consente agli Stati membri di introdurre norme più specifiche in materia di trattamento dati nei rapporti di lavoro. In Italia, il D.Lgs. 101/2018 non ha ancora sviluppato pienamente questo potenziale. La disciplina applicabile resta frammentaria e poco efficace nel contrastare l’opacità algoritmica.
3.4. Articolo 4 Statuto dei lavoratori (L. 300/1970)
L’uso di strumenti tecnologici per il controllo dell’attività lavorativa è consentito solo se:
- giustificato da esigenze organizzative o di sicurezza;
- installato previo accordo sindacale o autorizzazione dell’Ispettorato del Lavoro;
- il lavoratore è informato adeguatamente.
Questa disposizione si applica anche agli algoritmi che elaborano dati raccolti tramite badge, GPS, software gestionali, piattaforme digitali.
4. Giurisprudenza e orientamenti europei
4.1. Corte di Amsterdam – Deliveroo (2021)
La Corte ha stabilito che il sistema di gestione dei rider utilizzato da Deliveroo, basato su un algoritmo chiamato “Frank”, non garantiva trasparenza sufficiente. I giudici hanno richiesto la disclosure delle logiche decisionali e la possibilità di controllo umano, ai sensi dell’art. 22 GDPR.
4.2. CNIL – Linee guida su algoritmi HR (2022)
L’Autorità francese ha pubblicato una guida per l’uso etico e conforme degli algoritmi nelle risorse umane. Tra le raccomandazioni:
- indicare chiaramente se un sistema è automatizzato;
- spiegare logiche e impatti con linguaggio comprensibile;
- garantire l’intervento umano in ogni decisione rilevante.
4.3. Garante Privacy (Italia) – Newsletter 491/2023
Il Garante ha ricordato che ogni sistema automatizzato usato per valutazioni professionali è soggetto a valutazione d’impatto (DPIA) e deve prevedere adeguate misure di mitigazione del rischio, inclusa la trasparenza e la consultabilità dei criteri decisionali.
5. Policy aziendali e linee guida operative
5.1. Mappatura degli algoritmi
- Creare un inventario aggiornato degli strumenti automatizzati utilizzati in ambito HR;
- Classificarli per finalità, impatto, grado di automazione, base giuridica.
5.2. Valutazione d’impatto (DPIA)
- Obbligatoria per trattamenti ad alto rischio (es. profilazione, AI);
- Deve identificare finalità, logiche, rischi e misure di mitigazione;
- Da aggiornare regolarmente.
5.3. Clausole di trasparenza e controllo umano
- Prevedere clausole contrattuali e informative chiare sull’uso degli algoritmi;
- Integrare controlli umani effettivi e tempestivi;
- Assicurare diritto di accesso, rettifica e contestazione da parte del lavoratore.
6. Conclusione: trasparenza algoritmica come nuova frontiera del diritto del lavoro
L’intelligenza artificiale e l’automazione non sono neutre. Riflettono scelte umane, priorità organizzative, bias culturali. È compito del diritto assicurare che queste tecnologie non compromettano la libertà e la dignità del lavoratore.
La trasparenza, l’accountability e la partecipazione devono essere i pilastri di ogni governance algoritmica. Non basta “informare”: occorre rendere comprensibile, contestabile e migliorabile ogni sistema che incida su persone e carriere.
7. Fonti consigliate (open access)
- De Gregorio, G., Algoritmi e potere: decisioni automatizzate e diritti fondamentali, in “European Journal of Privacy Law & Technologies”, 2021, n. 1.
- Floridi, L., Translating Principles into Practices of Digital Ethics: Five Risks of Being Unethical, in “Philosophy & Technology”, 2019, vol. 32.
- Garante per la protezione dei dati personali, Newsletter n. 491/2023.
- CNIL, Guidelines on Algorithms in Employment, 2022.
- Court of Amsterdam, Deliveroo case, ECLI:NL:RBAMS:2021:7649.
Giugno 2025