“Un errore e sei morto” - non è così che accadono gli incidenti

- italian beatrice rivoira ccr complacency decision making gareth lock rebreather Nov 10, 2023

Questa frase viene spesso utilizzata per far sì che le persone prestino attenzione ai pericoli che affrontano durante un’immersione, soprattutto utilizzando il rebreather. “Se non presti attenzione e commetti un errore, allora sei morto”. Il problema è che gli incidenti non accadono sempre in questo modo e, di conseguenza, iniziamo a deviare da un comportamento considerato 'accettabile'.

Questo blog è stato scritto per integrare un articolo di John Bantin su “Undercurrent”, che evidenzia i rischi legati alle immersioni con i rebreather, facendo riferimento al documentario 'If Only...' (https://www.thehumandiver.com/ifonly).


- Documentario disponibile su vimeo con i sottotitoli in italiano (https://vimeo.com/414325547 avviare il documentario, cliccare su CC sulla barra del video e selezionare la lingua desiderata per i sottotitoli) -

Consiglio vivamente di visitare il sito e leggere il suo articolo su https://www.undercurrent.org/blog/2020/06/01/the-tragic-and-un-necessary-death-of-brian-bugge/ poiché trasmette diversi punti chiave in modo efficace.

Tuttavia, ho un problema con la frase utilizzata nell'articolo e nel titolo di questo blog, e adesso spiegherò il perché.

“La pratica prolungata delle abilità motorie rende il cervello più efficiente...”

I nostri cervelli sono cablati per l'efficienza. Cerchiamo la soluzione più efficiente ad un problema, magari impiegando meno tempo, spendendo meno denaro, prendendo scorciatoie nei processi che seguiamo o prestando meno attenzione ad un compito che ci è ormai più che familiare. Questo è un comportamento normale dell'essere umano. Purtroppo, spesso giudichiamo il compito guardando il risultato, e non guardando come siamo arrivati lì. Questo è un pregiudizio cognitivo, una scorciatoia mentale che utilizziamo per risparmiare energia: un buon risultato significa che abbiamo avuto un buon processo, quindi ripeteremo quel processo la prossima volta. (A meno che non ci impegniamo in un efficace debriefing per evidenziare dove abbiamo deviato dal piano originario).

Il problema è che se erodiamo gli standard che ci sono stati insegnati, erodiamo anche i margini di sicurezza integrati nel sistema (il 'sistema' è composto da formazione, attrezzature, ambiente, procedure, esseri umani ed il loro comportamento) fino a che non ci ritroviamo a camminare sul filo del rasoio, un filo di cui potremmo non essere a conoscenza. Tutto ciò è più comunemente noto come 'normalizzazione della devianza' e questo video fornisce una spiegazione in più sull'argomento.

Normalizzazione della Devianza - Una Breve Spiegazione da The Human Diver su Vimeo.

Questa deriva, o normalizzazione della devianza, non accade solo a livello del singolo subacqueo, ma può accadere anche a livello di istruttore, centro immersioni ed agenzia.

Per esempio, se un istruttore comincia a deviare dagli standard ed insegna allo studente ciò che ritiene essere giusto, ma che è in realtà sbagliato, lo studente difficilmente potrà rendersene conto. Quindi è un problema dello studente se in seguito accade qualcosa a causa di una mancanza di conoscenza/abilità? Come fa l'organizzazione a garantire che queste deviazioni siano limitate? I moduli di fine corso difficilmente avranno effetto, poiché gli studenti non sanno ciò che non sanno.

Ora che abbiamo rilevato come il tema della deviazione sia un fenomeno normale, vediamo cosa possiamo fare per prevenire questa deriva, la compiacenza o la normalizzazione della devianza. Come comunità subacquea, non dobbiamo reinventare la ruota poiché le industrie ad alto rischio hanno già fatto il lavoro duro nell'arco dell’ultimo secolo, tra il 1960 e il 2000. Hanno sviluppato concetti come i fattori umani e le prestazioni umane ed organizzative, in cui hanno identificato le condizioni produttrici di errori e sviluppato barriere/difese per evitare che gli incidenti accadano.

Human Error: Amazon.co.uk: Reason, James: 0783324940244: Books

Errore Umano: Amazon.co.uk: Reason, James: 0783324940244: Libri

Uno dei modelli più noti per spiegare questo processo è il 'Modello del Formaggio Svizzero' del Professor James Reason. Il Professor Reason spiega che se all’interno di un sistema possiamo progettare strumenti e processi a diversi livelli (Livello Organizzativo, supervisionale ed individuale) che impediscono che un errore si verifichi, fornendo quindi delle 'difese in profondità', allora riduciamo la probabilità che un errore raggiunga gli utenti finali.

Normalmente, con “utenti finali”, ci si riferisce ai lavoratori, ma gli stessi concetti si possono applicare anche ai subacquei.

Il Modello del Formaggio Svizzero viene di solito mostrato come un'immagine statica, ma non è così che le cose funzionano nel mondo reale. I buchi sono creati dagli esseri umani a causa della loro fallibilità, si spostano, si aprono e si chiudono. Questo video mostra un modello dinamico del Modello del Formaggio Svizzero.

Modello del Formaggio Svizzero Sempilce da The Human Diver su Vimeo.

Questo è un modello semplice e lineare con un processo di causa ed effetto ovvio: qualcosa accade nel passato ed influisce su qualcosa nel futuro. Si pensa di poter risolvere questo problema chiudendo i buchi (le falle nel sistema), interrompendo la catena di eventi, così che l'incidente non si verifichi. Quindi, gli errori/sviste/violazioni esistono ancora all'interno del sistema, ma non possono propagarsi fino alla loro conclusione portando ad un incidente.

Questo modello, o analogia, è stato ritenuto valido per un lungo periodo di tempo, ma da quando i ricercatori e le industrie hanno iniziato a sviluppare idee sul pensiero sistematico e la sua complessità, è stato riconosciuto che non è necessario avere una catena di eventi per avere un incidente. Si potrebbero avere anche una serie di pressioni o fattori avversi, dove ognuno di per sé non avrebbe causato alcun problema, che si uniscono creando una “massa critica”.

Queste sono le mie idee, e potrebbero essere scartate dal punto di vista accademico, ma credo che aiutino a dimostrare o spiegare il concetto, ed è per questo che ho creato le seguenti due animazioni

In quest’animazione, ho creato una versione sferica del Modello del Formaggio Svizzero, in cui ogni strato o guscio (giallo – grigio) è uno strato del modello classico, ad esempio, l'Influenza Organizzativa, il Fallimento Supervisionale, i Fallimenti Latenti od i Fallimenti Attivi, ed al centro c'è un rilevatore o sensore (rosso) che "esploderà" una volta che una quantità critica di "energia" (grigio chiaro) arriverà su di esso. Questa animazione ha un "grande buco" (ovale) che permette a molta "energia" di arrivare sul rilevatore in breve tempo. Nota che "l’energia" può provenire da diverse direzioni e diversi fallimenti.

Modello del Grande Ovale da The Human Diver su Vimeo.

La seconda animazione è simile ma, in questo caso, abbiamo molti piccoli buchi che consentono contemporaneamente all' "energia" di arrivare sul sensore, portando allo stesso risultato finale.

Modello dei Piccoli Ovali da The Human Diver su Vimeo.

Se guardiamo indietro a ciascuno degli incidenti o degli eventi avversi nelle tre animazioni, possiamo identificare quei fattori critici o causali che hanno contribuito all'evento (bias di retrospettiva, il famoso “senno di poi”). Tuttavia, in tempo reale, ci confrontiamo con molteplici obiettivi concorrenti che erodono i margini di sicurezza creati. Ancora una volta, questo è un comportamento normale dell'essere umano. Non sappiamo quale di quei fattori sarà quello che alla fine spingerà il sistema a raggiungere la massa critica.

Tale concetto ricorda il commento di Sidney Dekker: "La causa è qualcosa che costruiamo. Non è qualcosa che troviamo."

Ciò non significa che siamo tutti condannati. Ci sono diversi modi riconosciuti per ridurre la deriva a tutti i livelli all'interno del sistema, a livello organizzativo, a livello supervisionale ed anche per il subacqueo ‘finale’. Lo “UK Health and Safety Executive” e l'Università di Cranfield hanno scritto questo rapporto che evidenzia come gli incidenti/incidenti possano essere ridotti nelle immersioni con CCR, incluso l'insegnamento ai subacquei dei fattori umani e degli errori umani.

Gli strumenti, le procedure ed i processi disponibili non sono di per sé sufficienti, devono essere impiegati e verificati/testati nella loro l'efficacia. Se non si controlla quanto bene un'organizzazione, un istruttore o un subacqueo stiano facendo, non bisogna stupirsi se alla fine si sono allontanati parecchio dagli standard e si verifica un incidente dovuto a questa deriva ed all'accumulo di cattive abitudini/vecchie attrezzature/vecchie procedure. L'incidente sarà probabilmente una sorpresa, poiché tutto è stato fatto attraverso il sistema di sempre e non si è mai finiti con un morto... fino a quando non si raggiunge la massa critica, un punto che non si può prevedere con una precisione del 100%.

Va fatto notare che 'controllato/testato’ significa anche rendere conto personalmente di quanto ti è stato insegnato, utilizzando strumenti come checklist, briefing e debriefing.


Beatrice is an active open circuit and CCR technical instructor. She holds a Master's Degree in Marine Biology and Oceanography and co-authored the book "Biodiving: Environments and Organisms in the Mediterranean". She traveled the world diving and teaching in different environments and she is now working as a Diving Safety officer for the NYUAD. Beatrice can be contacted at https://www.facebook.com/zeroemissionsub/