Intelligenza artificiale, prevenzione e sicurezza sul lavoro (prima parte)

di Maurizio Mazzetti /
9 Febbraio 2025 /

Condividi su

xr:d:DAFaqDq0vng:481,j:2478510317725370905,t:23100108

L’intelligenza artificiale, con il suo acronimo anglosassone AI (Artificial Intelligence) che userò d’ora in avanti, negli ultimi tempi ha preso sempre più spazio sui media, oltre i ristretti confini delle discussioni degli specialisti. Tra le tante definizioni, riportiamo quella della governativa AGID (Agenzia Italia Digitale): “sistema automatico che può, per un dato insieme di obiettivi definiti e sulla base degli input ricevuti, eseguire attività come apprendimento, ragionamento, risoluzione di problemi”. Detti sistemi impattano già, e non da oggi, sulle nostre vite e sul nostro lavoro; certo negli ultimi tempi hanno trovato sempre più spazio sui media, anche nei confronti di chi non ne è uno specialista o comunque vi ha già a che fare direttamente. R

Se ne parla sempre più magari per magnificarne  le magnifiche sorti e progressive, in termini di risultati scientifici, potenza nelle ricerca ed elaborazione di informazioni,  capacità di problem solving e scrittura di testi, versatilità d’uso, aumenti della produttività (questi ultimi in realtà largamente ancora da dimostrare, almeno nella produzione di cose, a quel che si legge; cfr. infra); oppure per riportare ammirati la mole di investimenti previsti e lo spettacolare incremento dei valori azionari delle società che producono tecnologie di AI e/o che producono i sempre più sofisticati chip necessari al suo funzionamento, come NDIVIA. Ma ecco che arriva una app cinese a basso costo, DeepSeek, realizzata senza chip particolarmente sofisticati per via degli embarghi tecnologici applicati da decenni alla Cina,  senza particolari necessità di energia elettrica per funzionare, e per di più open source, (cioè liberamente scaricabile e modificarne il funzionamento operando sul codice sorgente),  e con prestazioni paragonabili a quelle delle blasonate e molto più costose, e chiuse, colleghe come CHAT GPG  (che chiede 20 dollari al mese per le funzioni base, e 200 per quelle avanzate).  Ed in pochissimo tempo le società variamente legate all’AI subiscono nelle Borse perdite per centinaia di miliardi di dollari (c’è chi li calcola in 750), e sparisce  dai radar un immaginifico progetto di investimento targato Trump e Musk per ben 500 miliardi di dollari.

Quanto ai rischi, con qualche ragione, si parla dell’AI per paventarne l’eccessiva velocità/potenza che metterebbe a rischio la sua controllabilità, la tendenza a sbagliare o “mentire” se non trova informazioni sufficienti, i  controlli eccessivi e la perdita di privacy, la sparizione di posti di lavoro (nella finanza, nelle attività esecutive, in tutti i servizi, ma anche nella ricerca scientifica e tecnologica). Né si può tacere sull’enorme quantità di energia elettrica necessaria – sprecata!! – per i connessi  altamente energivori data center, come peraltro per il suo normale funzionamento; energia che non potrà essere, prevedibilmente, quella rinnovabile, con tutte le conseguenze ambientali negative che ciò comporta, cui si aggiungono le enormi quantità d’acqua per raffreddare i data center stessi. E non mancano, infine,distopiche visioni di una umanità privata del controllo e delle sue capacità decisionali, con una AI più intelligente dell’uomo (taluni diranno: non ci voleva poi molto …),  e fino a scenari analoghi a quelli della serie di film Terminator, dove le “macchine” come arcaicamente ivi definite, si connettevano tra loro in una rete mondiale – SkYNET -, rete che diventava autocosciente; e a fronte del goffo tentativo umano di disconnetterla,  decideva (saggiamente?) di fare a meno dell’umanità scatenando uno olocausto nucleare mondiale.

Ora non è ovviamente questo il luogo appropriato per una discussione approfondita sull’argomento, tanto più che la mia competenza in materia è, diciamo, scarsa; per restare a prevenzione e sicurezza sul lavoro, che, preciso, restano  indissolubilmente connessi con la gestione di lavoratrici e lavoratori nelle organizzazioni, parleremo di alcuni – interessanti studi dell’Agenzia Europea EU OSHA , sito istituzionale generale https://osha.europa.eu/it

che si occupa dell’AI, ed in particolare  di quella che, con la consueta imperante terminologia anglosassone, degli AIWM (AI-based worker management), cioè sistemi per la gestione dei lavoratori basati sull’intelligenza artificiale e gli algoritmi.

Più precisamente, con AIWM si intende “un sistema di gestione dei lavoratori che raccoglie dati, spesso in tempo reale, sullo spazio di lavoro, sui lavoratori, sui compiti che svolgono e sugli strumenti (digitali) che utilizzano per il loro lavoro, che vengono poi inseriti in un modello basato appunto sull’AI che prende decisioni automatizzate o semi-automatizzate o fornisce informazioni ai responsabili delle decisioni su questioni relative alla gestione dei lavoratori”. In ogni caso il documento integrale, però ancora solo in inglese, è reperibile all’indirizzo https://osha.europa.eu/it/publications/towards-transparency-smart-digital-systems-improving-workers-safety-and-health)

Preliminarmente, però, una domanda: quanto è diffusa l’AI nel sistema produttivo italiano? Secondo dati ISTAT diffusi il 17 gennaio 2025 (https://www.istat.it/comunicato-stampa/imprese-e-ict-anno-2024) un terzo delle grandi imprese utilizza tecnologie AI; e cresce inoltre, dal 5,0% all’8,2% la quota di imprese con almeno 10 addetti che utilizza tali tecnologie, anche se permane il ritardo rispetto alla media dell’area Ue27 ove invece la percentuale arriva al 13,5% delle imprese. Le tavole analitiche reperibile all’indirizzo sopraindicato individuano sette tecnologie diverse (o dovremmo dire applicazioni?);  dette tecnologie sono presenti (forse sorprendentemente) in maggioranza nelle attività manifatturiere e anche nelle Costruzioni, e non solo nei servizi. Quelle più usate:

  • Estrarre conoscenza e informazione da un documento di testo (text mining),
  • Convertire la lingua parlata in un formato leggibile dal dispositivo informatico (riconoscimento vocale),
  • Generare linguaggio scritto o parlato (generazione del linguaggio naturale);

Meno diffuse appaiono quelle più correlate con la sicurezza sul lavoro in ambito produttivo o di servizi anche materiali, quali

  • Identificare oggetti o persone sulla base di immagini(riconoscimento, elaborazione delle immagini)
  • Analizzare dati attraverso l’apprendimento automatico (machine learning, deep learning, reti neurali),
  • Automatizzare i flussi di lavoro o supportare nel processo decisionale (Robotic Process Automation, software robot che utilizzano tecnologie di IA per automatizzare le attività umane)
  • Consentire il movimento fisico delle macchine tramite decisioni autonome basate sull’osservazione dell’ambiente circostante(robot o droni autonomi, veicoli a guida)

Dall’indagine ISTAT risulta peraltro che  solo poco più del 5% utilizza almeno due di queste tecnologie, e meno del 3% almeno 3; ma balza all’occhio che, forse anche per la struttura della rilevazione ISTAT, non abbiamo nessuno dato relativo ad un eventuale uso di tecnologie AIWM, che resterebbero comunque, anche nella migliore delle ipotesi, circoscritte allo stesso numero di imprese.  L’ISTAT non ci dice poi nulla sulle altre imprese con meno di 10 addetti, le cosiddette microimprese,  che restano la maggioranza in Italia, intorno ai 4 milioni, pari al  94% o 95% del totale a seconda delle rilevazioni; e verosimilmente l’AI tra queste sarà anche meno diffusa rispetto a quelle di maggiori dimensioni. Quanto a tutto il settore pubblico, la già ricordata AGID  ha prodotto corposo materiale in termini di strategie macro (Strategia Italiana per l’intelligenza artificiale 2024-2026) , sia di applicazioni pratiche attraverso apposito, sintetico decalogo; entrambi sono reperibili all’indirizzo nhttps://www.agid.gov.it/it/ambiti-intervento/intelligenza-artificiale.  L’AGID, e le Pubbliche Amministrazioni tutte, hanno peraltro ancora molto da fare in materia: secondo uno studio pubblicato nel dicembre 2024 (https://www.corrierecomunicazioni.it/pa-digitale/intelligenza-artificiale-la-pa-italiana-a-meta-del-guado) ad opera di Amazon Web Services (ahi …) addirittura un 42% degli enti già userebbe strumenti avanzati, soprattutto per migliorare i servizi a cittadini e imprese. Ma la mancano competenze, investimenti, sono rilevanti i gap territoriali.Se tale percentuale, a qualsiasi cittadino utente, appare sin troppa generosa, uno altro studio, realizzato da Salesforce Italia e Teha Group (https://www.corrierecomunicazioni.it/pa-digitale/intelligenza-artificiale-solo-il-44-delle-pa-italiane-ha-identificato-use-case-siamo-ultimi-fra-i-big-mondiali) conclude che solo il 44% delle amministrazioni pubbliche ha identificato casi d’uso concreti dell’AI, mentre il 30% non ha ancora esplorato a pieno le opportunità offerte da queste tecnologie (mi permetto: e il restante 26%?).  E non sorprende come oggi soltanto il 7,4% del personale pubblico ha una conoscenza di base dell’AI e il 46,2% delle amministrazioni è carente di competenze avanzate in ambito Ict. Lasciamo da parte i dubbi sui numeri di questi studi (fatti da imprese private chi si propongono ovviamene di collaborare, e non certo gratis, ad implementare l’AI nella PA) e sulla necessità/utilità stesse di applicazioni AI nella PA (Quali? Dove? Per fare che?), e torniamo alla sicurezza sul lavoro. Quali opportunità, quali strumenti più avanzati offrono AI e AIWM?

Semplificando al massimo,  l’AI in senso stretto, per quanto riguarda i sistemi di gestione della sicurezza, consente soprattutto Sistemi intelligenti di monitoraggio digitale (applicazioni per smartphone, dispositivi indossabili, videocamere mobili, droni, occhiali e dispositivi di protezione smart, …) tra le tante opportunità possibili, e che non soffrono di limitazioni di tempo o attenzione come un monitoraggio umano, e hanno la capacità di raccogliere dati in tempo reale sull’esposizione dei lavoratori e di prevedere o identificare i loro comportamenti pericolosi; ad esempio, avvisare in tempo reale, ed automaticamente, i lavoratori in caso di accesso (vietato) in aree pericolose, di comportamenti scorretti quali mancato uso dei DPI, movimenti o posture incongrue, malfunzionamento di apparecchiature e dispositivi con rischi di cadute, blocchi, liberazione di sostanze nocive, esplosioni eccetera. Pensiamo, ad esempio, all’incidente mortale collettivo della centrale di Bargi di Suviana, o a quello di Calenzano, e a quanto sarebbe stato utile un sistema di monitoraggio ed intelligenza artificiale per prevenire, se non le esplosioni, le loro conseguenze, anche solo intervenendo sulla posizione, rischiosa e da evitare, dei lavoratori coinvolti (si ricorderà che a Suviana c’è voluto molto tempo per capire chi fossero, di quale impresa appaltatrice dipendenti, e dove si trovassero esattamente al momento dell’incidente). Le tecnologie di cui ai punti da 4 a 7 consentono anche la raccolta di dati e la loro elaborazione con tempi ad approfondimenti che nessun monitoraggio manuale o analogico può svolgere con identica efficacia (si pensi ai near miss, i quasi incidenti, che solo per qualche fortunata circostanza, o casualità, non si traducono in infortuni veri e proprie estremamente difficili da individuare proprio perché sfuggono facilmente a qualsiasi osservatore, e praticamente impossibili da ricostruire a posteriori. Ove si svolgono lavorazioni robotizzate (peraltro difficilmente però tali al 100%), e si usano le tecnologie di cui al punto 7, una AI con idoneo monitoraggio digitale le gestirebbe in toto individuando automaticamente difetti e rischi anche potenziali, e proponendo (o realizzando direttamente, nel caso delle tecnologie sub 7, gli adeguamenti necessari). E emerge, infine,  come in ambito sanitario si allarghi  l’uso degli applicativi AI anche per la cura dei pazienti,  sia negli aspetti propriamente medici (quali terapie e presidi), sia logistici (procurarsi terapie e presidi e somministrarli tempestivamente) e economici, cioè di efficienza e riduzione dei costi.

E’ evidente, da questa sommaria esposizione, che è inevitabile connessione di queste tecnologie non solo con i sistemi AIWM, ma con qualsiasi sistema di gestione di quelle che con brutto ma invalso termine, si definiscono le risorse umane – HR, Human resources (e si osservò lo slittamento linguistico, le persone per un’azienda o organizzazioni se sono “risorse” il primo verbo che si accoppia a tale vocabolo è ”sfruttare”). Perché gestione della sicurezza sul lavoro e gestione delle persone che lavorano sono essenziali e indissolubili dalla gestione complessiva dell’organizzazione (azienda, ente ecc.); e perché nessuna organizzazione, quale che sia il suo fine, può fare a meno di persone che operino al suo interno, e il successo/insuccesso di una organizzazione sono spesso successo/insuccesso della sua componente umana. Quali opportunità offrirebbero, in più ed in meglio, i sistemi AIWM rispetto ad altri sistemi più tradizionali?  Già si è detto che ‘AIWM può essere utilizzata per prevenire e mitigare alcuni rischi; possono poi, migliorare la progettazione del lavoro e l’assegnazione dei compiti o essere utili per la prevenzione del burnout, ad esempio, programmando le pause e regolando i carichi di lavoro in base a indicatori rilevanti  per chi opera). In alcuni settori specifici analizzati, quali settore manifatturiero e minerario, il documento  riporta come il coinvolgimento dei rappresentanti dei lavoratori, o dei lavoratori stessi, nella progettazione dei sistemi AIWM contribuisca alla prevenzione di diversi rischi. In alcune situazioni è stato poi possibile mediare sulla percezione e l’impatto della tecnologia sul benessere dei lavoratori, ad esempio attraverso l’implementazione di sistemi di gestione algoritmica sotto la supervisione umana e l’inclusione di ulteriori garanzie per i lavoratori.  Questo però indica come il contesto istituzionale e organizzativo in cui vengono applicate tecnologie digitali, AI e AIWM è almeno altrettanto importante per il loro chiamiamolo successo che la qualità intrinseca delle tecnologie stesse.  E il documento sostiene come le strutture di rappresentanza dei lavoratori, cioè sindacati e/o altre strutture di cogestione come i Consigli di sorveglianza in Germania nelle aziende con più di un certo (elevato) numero di dipendenti, il cosiddetto dialogo sociale e la contrattazione collettiva siano fondamentali, In particolare, anche in relazione alla salute e sicurezza sul lavoro, possono favorire l’identificazione, prevenzione e mitigazione dei rischi, non solo quelli che chiameremo hard, ma di quelli cosiddetti psicosociali derivanti dall’uso delle tecnologie digitali in generale e dell’AIWM in particolare. Posizione, questa, condivisibile in linea di massima, ma tutta da verificare, e quantomeno problematica sul piano pratico.

Nel prossimo, successivo articolo, previa minima esposizione appunto del concetto di rischi psicosociali, si tratterà degli elementi negativi di tali sistemi AI e AIWM su questi rischi; ed anticipo che benché tali tecnologie non siano certo le uniche fonti di rischio psicosociale, gli studi indicano che tali tecnologie possono anche accrescerli o crearne di nuovi. Il che ci induce magari a riflettere se davvero, come si sostiene spesso, nessuna tecnologia è buona o cattiva in sé, ma lo diventa a seconda dell’uso e del contesto.

Articoli correlati