C’è una scena che si ripete più spesso di quanto immaginiamo, ma che raramente entra nei report.
Un operatore si ferma un secondo prima.Un carico oscilla e poi si stabilizza.Una procedura viene “aggiustata” sul momento perché qualcosa non torna.
Non succede niente. E proprio per questo, non resta traccia.
Eppure, è lì che il sistema ha parlato. Solo che nessuno si è fermato davvero ad ascoltare.
Quando si affronta il tema dei near miss, si è tentati di considerarli eventi minori, quasi incidenti evitati per caso. È una lettura comoda, ma un po’ troppo veloce. James Reason, psicologo britannico e professore emerito di psicologia all’Università di Manchester, tra i principali studiosi dell’errore umano nei sistemi complessi, ha mostrato che gli eventi avversi non sono quasi mai il risultato di un singolo errore. Nascono piuttosto dall’interazione tra fallimenti attivi, cioè le azioni delle persone, e condizioni latenti: decisioni organizzative, vincoli tecnici, pressioni produttive, modalità di progettazione del lavoro.
In questa prospettiva, il near miss non è un evento fortunato. È un evento incompleto.
L’errore si è già verificato. Il sistema ha già mostrato una deviazione. È solo una barriera, spesso residuale, ad aver evitato il danno.
E questa idea, se la si prende sul serio, cambia parecchio.
Perché smette di essere una storia su qualcuno che ha sbagliato.
Diventa una storia su come funziona davvero un’organizzazione.
Se l’errore non è un’anomalia, ma una possibilità strutturale, allora la domanda non può essere “chi ha sbagliato”, ma “in quali condizioni quell’errore è diventato probabile”.
Jens Rasmussen, ingegnere e ricercatore danese specializzato nello studio dell’interazione uomo-macchina e dei sistemi complessi, ha descritto bene questa dinamica. Le persone non operano sempre allo stesso livello di controllo. A volte agiscono in modo automatico, altre seguono regole, altre ancora devono interpretare e decidere in situazioni nuove. L’errore emerge quando il contesto supera la capacità di adattamento: quando una regola viene applicata fuori contesto, quando un automatismo viene attivato nel momento sbagliato, quando la complessità richiede un livello di comprensione che il tempo o le informazioni disponibili non consentono.
Se ci si pensa, è qualcosa che conosciamo bene.
Succede nei lavori ripetitivi.
Succede nei cambi turno.
Succede quando si fanno troppe cose insieme.
E succede soprattutto quando il rischio è sempre lì, ogni giorno, fino a diventare quasi invisibile.
La psicologia della sicurezza aggiunge un ulteriore livello. L’errore aumenta in presenza di fatica, distrazione, sovraccarico cognitivo, pressione sui tempi, formazione insufficiente, procedure non aderenti al lavoro reale. In queste condizioni, il lavoratore non prende decisioni “sbagliate” nel senso morale del termine. Si muove dentro un contesto che riduce la qualità delle informazioni e comprime i tempi di scelta.
È qui che il tema si sposta definitivamente dal comportamento individuale al sistema.
La letteratura è coerente su questo punto. Reason distingue tra approccio centrato sulla persona e approccio sistemico, sottolineando come la prevenzione efficace richieda di intervenire sulle condizioni che rendono probabile l’errore. Rhona Flin, psicologa del lavoro e dei fattori umani, insieme a Kevin O’Connor e Margaret Crichton, ha contribuito a rendere centrali le cosiddette non-technical skills, cioè quelle competenze cognitive e relazionali che sostengono il lavoro sicuro: consapevolezza situazionale, decision making, comunicazione, leadership. Jeremy Stranks, autore britannico specializzato in salute e sicurezza sul lavoro, insiste invece sul peso del contesto organizzativo e culturale nel generare o ridurre i comportamenti insicuri.
Non è solo teoria. I numeri, anche quelli italiani, non raccontano una storia così diversa.
Secondo la Relazione annuale INAIL relativa al 2025 seppur ancora provvisoria indica che, le denunce di infortunio presentate all’Istituto sono state 598.000, con un incremento dello 1,4% rispetto al 2024, 8mila casi in più. Mentre le denunce con esito mortale sono state 1.093, per un totale di +3 rispetto al 2024, in linea con il 2019 (1.084).
Questo significa che, pur in presenza di sistemi di gestione e obblighi normativi consolidati, il numero complessivo degli eventi non mostra una riduzione strutturale significativa. Quando si parla di interferenze operative, si tratta di una lettura organizzativa del fenomeno, non di una voce esplicitamente riportata nelle tabelle INAIL.
Non è quindi un problema episodico.
È qualcosa che si ripete.
Che ritorna.
E allora il punto non è eliminare l’errore. È imparare a riconoscerlo prima che produca conseguenze.
Il near miss, in questo senso, è uno strumento straordinario. Non perché sia meno grave, ma perché è più frequente, più vicino, più leggibile. Ogni mancato infortunio rende visibile una barriera debole: una procedura poco chiara, un presidio tecnico inefficace, una comunicazione incompleta, un comportamento indotto dal contesto.
È lì che il sistema lascia tracce.
Ma perché questo valore emerga, serve qualcosa che spesso manca: un circuito di apprendimento.
Un circuito che non si limita a raccogliere segnalazioni, ma le trasforma in conoscenza organizzativa. Che non si ferma al dato, ma lo interpreta. Che non si limita a correggere l’errore visibile, ma interviene sulle condizioni che lo hanno reso possibile.
Questo implica una trasformazione più profonda. Le persone devono poter segnalare senza timore. Devono sapere che ciò che osservano ha un valore. E soprattutto devono vedere che quel segnale genera un cambiamento.
Altrimenti, dopo un po’, smettono di parlare.
Non è solo una questione di procedure o di sistemi informativi. È una questione di cultura. Di coerenza tra ciò che si dichiara e ciò che accade davvero. Di spazio dato alla parola.
Nel lavoro che facciamo, quando parliamo di sicurezza, parliamo sempre meno di documenti e sempre più di questa capacità: fermarsi, dire, ascoltare. Intercettare i segnali deboli prima che diventino evidenti.
Perché alla fine, ogni organizzazione produce continuamente segnali.
La differenza non sta nel fatto che esistano o meno.
Sta in ciò che si sceglie di farne.
Lasciarli passare, come se non fossero niente.
Oppure considerarli per quello che sono: l’inizio di qualcosa che, se ascoltato, può ancora cambiare direzione.