Intelligenza artificiale, prevenzione e sicurezza sul lavoro: qualche riflessione e qualche spunto dall’Agenzia Europea per la Salute e Sicurezza sul Lavoro di Bilbao – seconda parte
Nell’articolo pubblicato lo scorso 9 febbraio, assunta la definizione di Intelligenza Artificiale o AI (Artificial intelligence) elaborata dall’Agenzia Italia Digitale – AGID – ( “sistema automatico che può, per un dato insieme di obiettivi definiti e sulla base degli input ricevuti, eseguire attività come apprendimento, ragionamento, risoluzione di problemi”), si era ricordata la sua applicazione nella gestione di chi lavora – metodologie AIWM – AI based worker management. Queste sono definite “sistema di gestione dei lavoratori che raccoglie dati, spesso in tempo reale, sullo spazio di lavoro, sui lavoratori, sui compiti che svolgono e sugli strumenti (digitali) che utilizzano per il loro lavoro, che vengono poi inseriti in un modello basato appunto sull’AI che prende decisioni automatizzate o semi-automatizzate o fornisce informazioni ai responsabili delle decisioni su questioni relative alla gestione dei lavoratori”. Si era ricordata la relativa scarsa diffusione dell’AI nel tessuto produttivo italiano, come da dati ISTAT e qualche ricerca diciamo “privata”, e nella mancanza di informazioni sulla diffusione dell’AIWM; e sinteticamente si erano riportati, basandosi essenzialmente su due studi dell’Agenzia Europea EU-OSHA, indicati sotto, le ricadute positive di AI e AIWM nella prevenzione e sicurezza sul lavoro, in particolare con l’applicazione dei cosiddetti Sistemi di Monitoraggio Digitale. Poiché però non è tutto oro quel che luccica, o più pedestremente perché ogni tecnologia ha sempre una doppia faccia, si parlerà qui dei (possibili, potenziali, reali, talvolta sconosciuti) aspetti negativi. Gli studi in oggetto sono:
- Smart digital monitoring systems for occupational safety and health: uses and challenges” (Sistemi intelligenti di monitoraggio digitale per la salute e la sicurezza sul lavoro: utilizzi e problematiche) – https://osha.europa.eu/en/publications/smart-digital-monitoring-systems-occupational-safety-and-health-uses-and-challenges
- Towards AI-based and algorithmic worker management systems for more productive, safer and healthier workplaces (Verso sistemi di gestione del personale basati sull’intelligenza artificiale e sugli algoritmi per luoghi di lavoro più produttivi, sani e sicuri (https://osha.europa.eu/en/publications/towards-ai-based-and-algorithmic-worker-management-systems-more-productive-safer-and-healthier-workplaces)
I suddetti Sistemi intelligenti di monitoraggio digitale sono, ad esempio, applicazioni per smartphone, dispositivi indossabili, (compresi gli esoscheletri utilizzati per la movimentazione di oggetti pesanti o di particolare forma), videocamere mobili, droni, occhiali e dispositivi di protezione cosiddetti smart (cioè non meramente passivi), sistemi di realtà virtuale o aumentata. Tutti si connettono, e alimentano, a sistemi AI che (cfr. all’inizio) apprendono, ragionano, risolvono. E senza le umane limitazioni di tempo, stanchezza, concentrazione, ridotta capacità di confrontare ed elaborare correttamente dati ed informazioni. Tutti questi apparati sono assolutamente pervasivi e impossibili da sfuggire: altro che il “vecchio” specialista tempi e metodi “iperfordista”, che si avvicinava alle postazioni di lavoro con il suo cronometro, magari in tasca, a osservare, rilevare, eventualmente correggere e appunto cronometrare il ciclo di operazioni ivi svolte, e dal quale ci si poteva “difendere” con qualche accortezza se sufficientemente abili, esperti, e scaltri; più difficile farlo se chi era osservata/o non era particolarmente efficiente (ho qualche ricordo personale in materia). Bene, anzi male, perché questi sistemi, a fianco degli aspetti positivi illustrati nell’articolo precedente, possono far anche crescere i rischi, soprattutto (ma non solo) quelli cosiddetti psicosociali. E per questi ultimi, fra le tante definizioni utilizzate, riportiamo quella dell’INAIL :“ quegli aspetti di progettazione, organizzazione e gestione del lavoro, nonché i rispettivi contesti ambientali e sociali, che potenzialmente possono arrecare danni alla salute psico-fisica del lavoratore” .
Circa i rischi, il primo documento citato sopra utilizza la sottostante immagine, che si commenterà procedendo da sinistra verso destra:

Un primo rischio riguarda effetti negativi magari sconosciuti sia a livello di progettazione sia di uso: gli esoscheletri (oggi sempre più diffusi, e non più fantascientifici come quello che indossava Sigourney Weawer – Ripley in Alien II) ridistribuiscono/diminuiscono lo sforzo nel corpo, ma creano nuovi fattori di rischio, quali disturbi muscolo scheletrici, aumento del carico cardiovascolare e dello stress, eccessiva fiducia dei lavoratori nelle proprie capacità, con conseguenti incidenti da errori di tipo slip – svista – o lapse – dimenticanza (cfr. l’articolo del 27 ottobre 2024). Analogo discorso può farsi per i sistemi di realtà virtuale/aumentata, e per tutte le applicazioni di AI delle quali l’essere umano è praticamente spettatore.
Da altro punto di vista, quando i sistemi di monitoraggio digitale intelligenti utilizzano sensori sussiste il rischio che questi ultimi non raccolgano correttamente i dati negli ambienti industriali; e non per errori di progettazione/costruzione, ma poiché le condizioni operative concrete sono diverse dalle condizioni di laboratorio dove i sensori erano stati testati e certificati, e non quivi riproducibili. Ne originano rischio di esporre i lavoratori a soglie più elevate (rumore, esposizione ad agenti nocivi, vibrazioni) di quelle accettabili o di legge; inoltre i sensori hanno spesso dei limiti, non può farsi eccessivo (totale) affidamento su tali sistemi, che in ogni caso sono solo parte di un sistema organizzativo della sicurezza. Tale sistema però deve funzionare tutto: si ricorderà, ad esempio, che nell’incidente a Calenzano, l’autunno scorso, un sensore aveva sì segnalato la fuoriuscita dei vapori (che sarebbero poi esplosi), ma a non aver funzionato, rendendo inutile la segnalazione, era stato l’intero sistema di sicurezza, precedentemente e successivamente all’esplosione.
Come qualsiasi altro sistema/dispositivo, i sistemi di monitoraggio, come pure i DPI (nella figura detti PPE) o i droni (nella figura definiti UAS – Unmanned aerial systems – cioè sistema di velivoli a guida non umana) possono funzionare male, bloccarsi, dare risposte inadeguate agli input ecc. L’uso improprio dei sistemi di monitoraggio digitale intelligenti può anche compromettere la salute dei lavoratori; ad esempio l’allontanamento continuo dei lavoratori da compiti come la movimentazione manuale, protratta nel tempo, può ridurre la loro forma fisica e fare sorgere patologie da posture incongrue; “ovvi” i problemi alla vista di una continua applicazione agli schermi senza interruzioni.
Soprattutto però, anche se (o specialmente se …) funzionano efficacemente, detti sistemi possono intensificare la sorveglianza, con erosione dell’autonomia dei lavoratori, possibile dequalificazione, maggiori livelli di stress. E sono ipotizzabili eventuali conseguenze disciplinari nel caso di procedure ripetutamente non rispettate e comportamenti errati, (la cui frequenza e gravità è misurabile senza errori). Il rischio è cioè che il monitoraggio possa essere utilizzato come pretesto per una sorveglianza digitale, e per la misurazione delle prestazioni favorisca anche atti di discriminazione lavorativa: ad esempio, l’osservazione, e relativi allarmi, di come vengono compiuti certi movimenti/operazioni può certo prevenire comportamenti scorretti, rischiosi ed infortuni veri e propri, può anche dare informazioni sullo stato di salute di chi lavora, aspetti che dovrebbero essere oggetto di riservatezza. Chi non opera correttamente, o non abbastanza velocemente, non può sfuggire al controllo; ed anche se tale controllo non è poi effettivamente effettuato, la semplice consapevolezza della sua sempre presente possibilità ha effetti negativi sul come si sta nel posto di lavoro, e sul lavoro, sempre più alienato. La stessa privacy può essere messa a rischio, per qual che si dice o fa magari in un momento di pausa, pause che chi lavora ha sempre cercato di ritagliarsi all’interno dell’orario di lavoro, che da quest’ultimo fossero codificate o meno.
Altrettanto importante è la possibilità che aumentino intensità e velocità delle prestazioni richieste, con tutti i connessi rischi infortunistici diciamo tradizionali, e non solo psicosociali. L’indagine «Flash Eurobarometer – OSH Pulse», ancora dell’Agenzia europea per la sicurezza e la salute sul lavoro EU-OSHA, avente ad oggetto sicurezza e della salute sul lavoro (SSL) dopo il periodo pandemico, rileva come il 30% dei lavoratori dell’UE riferisca che la propria azienda/organizzazione utilizza dispositivi digitali per assegnare i turni e il 52% per determinare velocità delle performance lavorative. E ancora in termini di performance, si può arrivare ad una specie di “imprevedibilità” degli orari lavorativi, che siano “flessibili” e codificati contrattualmente o tali di fatto, specie ove non conta l’orario ma il risultato. La conseguente pressione sulle prestazioni, e relativo stress, pare crescere quando si percepiscono i processi lavorativi e la gestione con metodologie AI e AIWM sono percepiti come ingiusti ed estranei calati dall’alto senza partecipazione né coinvolgimento. Circa i processi, aggiungo che per percepirli come giusti/ingiusti bisogna logicamente poterli conoscere: ma è noto che ogniqualvolta il processo è un algoritmo, o una serie di algoritmi, la struttura è ignota e non conoscibile (comprensibile?) da chi lavora, e la relativa giusto/ingiusto meramente teorica. I casi più conosciuti sono lavori tipici della cosiddetta GIG economy: l’autista di UBER, o il rider di una qualsiasi piattaforma di consegne di cibo a domicilio, o anche il corriere con i suoi pacchi contenenti oggetti acquistati on line, si vedono assegnati i compiti dall’algoritmo, una volta data la disponibilità per un periodo X di tempo, in base a criteri non trasparenti, e potenzialmente discriminatori: ad esempio, il rider che rifiuta certi ordini, che so perché in una zona malfamata, o su strade pericolose perché troppo trafficate (ma l’algoritmo non lo sa …), si vede poi retrocesso nell’assegnazione degli ordini stessi. E in tali situazioni manca, normalmente, un interlocutore umano, il che non solo aumenta lo stress (qualcuno potrebbe dire che lo potrebbe anche diminuire, dipende dalle caratteristiche dell’interlocutore umano …), ma rende difficile o impossibile fronteggiare situazioni impreviste e/o non codificate. Ancora, gli operatori dei call center, o comunque di servizi di contatto col pubblico, fisici o virtuali che siano, possono essere sottoposti ad indagini di gradimento successive, svolte in automatico, con conseguenze magari economiche e/o sul mantenimento del posto di lavoro: ma anche in questo caso il contenuto dell’algoritmo può non essere conosciuto.
Un ultimo rischio, forse il più sottovalutato, è che i sistemi di monitoraggio digitali intelligenti siano utilizzati come sostitutivi di una effettiva e solida gestione della salute e sicurezza sul lavoro, magari riducendo le risorse destinate alla formazione dei lavoratori e trascurando altri fattori organizzativi e comunicativi: ad esempio, se si sbagliano movimenti, posizione, procedure, ecco che i sensori e l’AI lo registrano e avvisano chi erra, memorizzano nella propria banca dati, imparano … però magari l’infortunio c’è già stato. Non si deve dimenticare che in ogni organizzazione, ed in ogni sistema di gestione, la variabile decisiva, e quantomai critica nel caso della sicurezza sul lavoro, è il fattore umano, posto che gli infortuni dipendono pressoché sempre da comportamenti umani. I sistemi di monitoraggio digitali intelligenti, come peraltro qualsiasi altro intervento “hard” su macchine, impianti, sistemi, non possono essere da soli la soluzione ai problemi di salute e la sicurezza, ma piuttosto una parte – e a volte non essenziale, e mai sufficiente, come sono sempre le tecnologie – della soluzione.
Enumerati tutti questi rischi, che fare per evitarli? Qualche studio e i suddetti documenti EU-OSHA, qualche soluzione la prospettano, questi ultimi accompagnandola con l’illustrazione di casi di studio in vari paesi europei (Svezia, Danimarca, Germania, Spagna). Mi azzardo a esporle, in una sintesi magari persino eccessiva, quelle di carattere generale; Ma deve restare la consapevolezza che rischi e soluzioni vanno calate nelle singole realtà produttive, ciascuna con proprie caratteristiche, limiti e possibilità, e che la famosa panacea non esiste in questo campo come in nessun altro; peraltro, gli stessi documento riconosce che servono approfondimenti specifici settore per settore sia sui rischi sia sulle misure per diminuirli o eliminarli. Vediamoli
- Formazione – a chi lavora su come interagire con le nuove tecnologie e fornire loro una chiara guida in termini di scopi e limiti; e questo è relativamente semplice se ci sono volontà e cultura organizzativa adeguata.
- Progettazione incentrata sull’uomo – sono preferibili e auspicabilisistemi configurati in base agli specifici luoghi di lavoro e a esigenze non solo organizzativo/produttivo, ma umane, nel senso di evitare/ridurre i rischi sopra illustrati; e sottolineo che i soprattutto per i rischi psicosociali il confine tra sicurezza come mera assenza di eventi dannosi e benessere sono labili; e chi lavora non andrebbe semplicemente coinvolto dopo, ma dovrebbe partecipare prima, sin dall’elaborazione delle specifiche per la progettazione. Non sfuggirà che se è semplice scriverlo, estremamente complesso è il farlo: chi progetta, realizza, usa e monitora sono soggetti diversi, la progettazione parte da esigenze dell’organizzazione che non è detto siano le medesime di chi lavora, anzi: e i fini delle organizzazioni (il profitto per quelle private, i compiti istituzionali per quelli pubbliche o non profit) vedono, nella sicurezza come nel benessere, mezzi e non fini.
- Dialogo sociale e contesto istituzionale e organizzativo – Sono importanti, anzi fondamentali, il ruolo delle strutture di rappresentanza dei lavoratori (ove esistono e dove hanno un qualche reale potere, aggiungo …), . Le strutture di rappresentanza, in Italia RLS e RSU – RSA, altrove come in Germania i rappresentanti dei lavoratori che siedono nei Consigli di Sorveglianza, possono favorire identificazione, prevenzione e mitigazione dei rischi psicosociali derivanti dall’uso delle tecnologie digitali in generale e dell’AIWM in particolare. Ma salute e sicurezza sono solo una parte delle complessive relazioni sindacali all’interno delle organizzazioni, e realisticamente credo si possa dire che decisivi sono i rapporti di forza, da un lato, e il quadro normativo dall’altro. Il documento riporta alcuni esempi positivi in settori ad alto rischio, quali quelli minerario e manifatturiero, e sottolinea l’importanza di una legislazione di sostegno al ruolo delle rappresentanze dei lavoratori anche nella specifica progettazione di sistemi AI e AIWM, come da positivo esempio della Spagna. E infine, oltre alla norme generali di diritto del lavoro, sono qui particolarmente rilevante il rispetto della (copiosa …) normativa su raccolta, conservazione, protezione dei dati personali e sulla riservatezza di dati, sensibili o meno che siano.
Giudichi chi legge se, a fronte di un mondo non solo del lavoro che cambia, e limitiamoci all’AI, le soluzioni prospettate possano bastare; personalmente, il giudizio è piuttosto di inadeguatezza, e che ci sia molto da fare.