***
L'algorithmic management quale espressione del potere organizzativo e gestionale del datore di lavoro
Nell’organizzazione del lavoro i sistemi di I.A. sono già una realtà in molti ambiti: si pensi ai sistemi per la gestione della logistica nei magazzini e nei porti; alle piattaforme utilizzate per gestire e guidare i riders nella consegna dei cibi a domicilio; agli algoritmi per prevedere l’afflusso di clientela nelle aziende del retail e conseguentemente organizzare gli approvvigionamenti di merce e predisporre i turni di lavoro.
Le decisioni in merito alla migliore gestione delle attività e delle risorse umane sono demandate a sistemi di intelligenza artificiale che attraverso complessi algoritmi autoadattanti (c.d. machine learning), sono in grado di raccogliere un’infinita quantità di dati provenienti da tutta la filiera produttiva e di vendita, di elaborarli e di individuare la soluzione gestionale ed organizzativa più efficace.
Il ricorso a sistemi di algorithmic management è già (o potrebbe essere presto) applicato in svariati processi quali la selezione del personale, l’assegnazione di incarichi e turni, la valutazione delle performances, l’individuazione e la valutazione dei criteri per il riconoscimento di promozioni, bonus e premi aziendali.
Si tratta quindi di ipotesi che vanno ben al di là dei tradizionali controlli a distanza dell’attività dei lavoratori, che hanno trovato la loro regolamentazione nell’art. 4 dello Statuto dei Lavoratori e che hanno tradizionalmente avuto finalità prevalentemente difensive e volte alla repressione di condotte illegittime dei lavoratori.
In questi casi la tecnologia si affianca (o si sostituisce) al potere direttivo e di indirizzo del datore di lavoro: le informazioni servono non solo e non tanto a controllare se il lavoratore sta lavorando o ad evitare che lo stesso possa commettere illeciti, quanto piuttosto a dirigerlo, ad imporgli ritmi produttivi ed a comunicargli direttive automatizzate.
I riflessi dell'algorithmic management sui diritti dei lavoratori
Se da un lato il ricorso alla tecnologia potrebbe rendere – quantomeno in apparenza - scelte tipicamente discrezionali da parte del datore di lavoro maggiormente imparziali ed efficienti, dall’altro occorre considerare che la scelta operata da un sistema di I.A. non è di per sé dotata del crisma dell’infallibilità.
Al riguardo si consideri, in primo luogo, che l’algoritmo è pur sempre impostato da un programmatore umano: ne deriva che i criteri di impostazione devono essere compatibili con i principi fondamentali della normativa giuslavoristica ed antidiscriminatoria.
In quest’ottica sarebbe di tutta evidenza discriminatorio un algoritmo utilizzato per la selezione del personale impostato in modo tale da assegnare punteggi aggiuntivi a candidati di un determinato sesso. Ma l’algoritmo, proprio perché processa un’infinta quantità di dati e li replica su larga scala, potrebbe rafforzare e propagare anche pregiudizi latenti (e non così evidenti come quello poc’anzi ipotizzato) degli stessi programmatori.
Inoltre gli algoritmi più evoluti, in ragione delle loro capacità di apprendimento ed auto-adattamento, potrebbero giungere ad assumere decisioni di fatto discriminatorie, attraverso un percorso che diventa ignoto agli stessi programmatori.
Ecco, dunque, che scelte discrezionali del datore di lavoro con criteri e strumenti apparentemente imparziali potrebbero assumere una portata discriminatoria in quanto potrebbero tendere a premiare lavoratori di un certo sesso o di una certa fascia d’età: ad esempio è accaduto in passato che un algoritmo utilizzato da Amazon per le promozioni dei propri dipendenti tendesse a premiare maggiormente i lavoratori di sesso maschile piuttosto che femminile.
In casi del genere occorrerà interrogarsi: i) su come un lavoratore possa in primo luogo sapere che una decisione che lo riguarda è stata assunta attraverso un algoritmo; ii) su quali siano i limiti di raccolta e di utilizzo da parte del datore di lavoro dei dati da processare; iii) su quali strumenti un lavoratore possa avere a disposizione per verificare se tale scelta poggia su valutazioni compatibili con la normativa giuslavoristica ed antidiscriminatoria; iv) entro quali limiti il lavoratore possa censurare, anche in sede giudiziale, la decisione datoriale così assunta.
Tali interrogativi non possono essere affrontati esclusivamente attraverso i tradizionali “strumenti” normativi costituiti dall’art. 4 dello Statuto dei Lavoratori in tema di controlli a distanza e dal Codice della Privacy (GDPR).
Altra via, a normativa vigente, astrattamente percorribile da un lavoratore che si senta discriminato da una scelta apparentemente neutra del datore di lavoro ed assunta tramite un algoritmo, potrebbe essere quella di sostenere l’esistenza di una discriminazione indiretta ai sensi dell’art. 2 del d. lgs. n. 216/2003 (Attuazione della direttiva 2000/78/CE per la parità di trattamento in materia di occupazione e di condizioni di lavoro).
In tal caso, ai sensi dell’art. all’art. 28, co. 4, d.lgs. n. 150/2011, interverrebbe la parziale inversione dell’onere della prova per cui il lavoratore / ricorrente dovrebbe limitarsi a fornire elementi di fatto, desunti anche da dati di carattere statistico, dai quali si possa presumere l'esistenza di atti, patti o comportamenti discriminatori ed il datore di lavoro assumerebbe l'onere di provare l'insussistenza della discriminazione.
Sarebbe quindi onere del datore lavoro dimostrare in giudizio, anche spiegando il concreto funzionamento dell’algoritmo, che la scelta assunta sia rispettosa del divieto di discriminazione indiretta.
Si tratta, però di una via difficilmente percorribile dal singolo lavoratore il quale, addirittura, neppure potrebbe sospettare che una decisione che lo riguarda è stata assunta da un algoritmo; in ogni caso il singolo lavoratore, nella stragrande maggioranza dei casi, non sarebbe certamente a conoscenza delle specifiche impostazioni dell’algoritmo e non avrebbe gli strumenti e le informazioni (anche di carattere statistico) per sospettare della discriminatorietà della scelta assunta dal computer ed, ancor meno, per fornire quel principio di prova di cui è in ogni caso onerato.
Conclusioni
L’evoluzione tecnologica è sempre almeno un passo avanti rispetto alla sua regolamentazione normativa; gli attuali strumenti normativi non sembrano tutelare appieno il diritto dei lavoratori di non essere sottoposti a decisioni assunte da decisori non umani in base a criteri imperscrutabili ed utilizzando miriadi di dati anche personali.
Il Libro Bianco sull'intelligenza artificiale della Commissione Europea del 19.2.2020 ha posto in risalto le potenzialità dell’I.A., ma ne ha evidenziato anche i rischi per i diritti fondamentali dei cittadini, compresi il diritto alla privacy, la dignità umana e la non discriminazione.
L'I.A. non solo sarà destinata a svolgere molte funzioni che in precedenza potevano essere esercitate solo da esseri umani, ma i cittadini ed i lavoratori saranno sempre più soggetti ad azioni realizzate ed a decisioni prese da sistemi di I.A..
L’assenza, allo stato, di una compiuta regolamentazione normativa impone sin d’ora la ricerca di soluzioni che contemperino gli indubbi vantaggi del progresso tecnologico con la tutela della dignità e dei diritti fondamentali dei lavoratori.
Con specifico riferimento all’organizzazione e gestione delle risorse umane, l’I.A. dovrà trovare una sua regolamentazione in primis a livello di contrattazione collettiva, anche aziendale.
Dovrebbe essere interesse degli stessi datori di lavoro prevedere momenti di informazione e consultazione sindacale in caso di introduzione di sistemi di I.A. e di contrattarne con la parte sindacale i limiti di utilizzo e gli effetti sui rapporti di lavoro.
In particolare sarebbe opportuno istituire comitati etici di controllo, anche attraverso il coinvolgimento dei rappresentanti sindacali, che vigilino affinché l’utilizzo dei sistemi di I.A. avvenga sempre sotto la continua sorveglianza umana, nel rispetto di precisi parametri di progettazione, in un’ottica etica ed antropocentrica.