'Błąd Pilota' nie 'poprawiajmy pilota. Błąd nurka. Poprawmy nurka.

- polish andrzej górnicki decision making gareth lock non-technical skills podejmowanie decyzji umiejętności nietechniczne Dec 16, 2022
ga

Podczas II wojny światowej amerykańscy piloci bombowców ciągle podnosili podwozie swoich bombowców B-17 zamiast podnosić klapy, gdy kołowali do lądowania po nalotach bombowych. Po tych wypadkach mówiono, że piloci powinni zwracać większą uwagę, a jeśli nie potrafią, to potrzebują więcej szkoleń. Problem polegał na tym, że więcej szkoleń nie rozwiązywało problemu, i dopiero psycholog Alfonso Chapanis rozpoznał co się dzieje w kokpicie i zdał sobie sprawę, że nie jest to kwestia związana z człowiekiem, ale z systemem, i wszystko się zmieniło. Problem polegał na tym, że położenie elementów sterujących podnoszeniem klap było tuż obok elementów sterujących podnoszeniem podwozia, a do tego miały one identyczny kształt! Biorąc pod uwagę, że te misje były dość stresujące i często wykonywane w nocy, więc bodźce wizualne były ograniczone, nie należy się dziwić, że błędy zdarzały się regularnie, nawet gdy pilotom kazano upewnić się, że dokonali właściwego wyboru. Występujące warunki powodujące błędy sprawiały, że łatwiej było wybrać zły przełącznik niż właściwy. Rozwiązaniem było rozmieszczenie przestrzenne przełączników, a co ważniejsze, zmiana informacji zwrotnej, jaką otrzymywali piloci, gdy czuli palcami element sterujący. Podwozie miało teraz kółko, a klapy małą dźwignię, więc piloci otrzymywali natychmiastową informację zwrotną, że umieścili ręce w złym miejscu. Ten problem już nigdy się nie powtórzył.

Aby ta zmiana mogła nastąpić, musiała nastąpić zmiana sposobu myślenia, aby zdać sobie sprawę, że bez względu na to, co się robi, w obecnym układzie piloci byli bardziej skłonni do popełnienia błędu, ponieważ zostali skazani na porażkę. Zdano sobie sprawę, że mówienie im, aby byli bardziej ostrożni, aby zwracali większą uwagę, w efekcie, gdzie kierownictwo próbowałoby "naprawić" pilota, nie miało większego znaczenia. Nawet gdy karali pilotów, to po pewnym czasie problemy nadal występowały. Ponieważ system nie został zmieniony, w końcu strach przed karą ustępował i błędy wracały. Jeśli pozbędziemy się "złego jabłka" bez zajęcia się problemami systemowymi, kolejne "złe jabłka" powrócą.

Bankomaty

Bardziej aktualny przykład podejścia do systemu a nie proszenia klientów o większą ostrożność. Kiedyś bankomaty dawały klientowi najpierw gotówkę, a dopiero później jego kartę. Banki zdały sobie sprawę, że błędy pojawiały się, ponieważ klient był zorientowany na cel - zdobyć gotówkę, pójść na zakupy - i kiedy miał już gotówkę, odchodził, zostawiając kartę w bankomacie.

Kosztowało to banki pieniądze na wymianę kart, ale co ważniejsze, oznaczało, że ktoś inny mógł wziąć kartę i wykorzystać ją do nieuczciwych transakcji. Aby temu zaradzić, banki zmieniły kolejność wydawania gotówki i karty - teraz najpierw zwracano kartę, a potem gotówkę. Oznaczało to, że klient tracił tylko gotówkę, a nie kartę i potencjalnie więcej pieniędzy. Wprowadzono również sygnał dźwiękowy, aby zwrócić uwagę klienta na wydaną gotówkę.

Przyczyny 'wypadków' nurkowych

W świecie nurkowania wydaje się, że mamy ciągle te same awarie i wypadki. Na przykład, jeśli spojrzymy na dane z badań Denoble et al, to okaże się, że zdarzeniem wyzwalającym 346 śmiertelnych wypadków nurkowych była niewystarczająca ilość gazu w 41% przypadków, uwięzienie w 20% przypadków i problemy ze sprzętem w 15% przypadków (obrazek poniżej). Problem z tym badaniem polega na tym, że było ono skoncentrowane na wynikach. Nie zajęto się czynnikami przyczynowymi i skutkowymi, a uczciwie mówiąc, było to spowodowane tym, że otrzymane dane nie miały takiego poziomu szczegółowości (i nadal nie mają).

Co więcej, nie ma ustalonego procesu wyjaśniającego opartego na badaniach naukowych w zakresie bezpieczeństwa, który szukałby czynników ludzkich lub czynników przyczyniających się do powstania zdarzeń w myśleniu systemowym. Problem ten jest podobny do tego, jaki występuje w corocznym raporcie dotyczącym incydentów nurkowych, publikowanym przez British Sub-Aqua Club (BS-AC) w Wielkiej Brytanii. Dane te są kategoryzowane na podstawie dotkliwości wyniku, a nie tego, jak incydent potoczył się w taki sposób, w jaki się potoczył. np. sytuacja braku gazu po rozdzieleniu się nurków, skutkująca szybkim wynurzeniem i DCS, byłaby zaliczona do kategorii DCS. W analizie nie szuka się warunków powodujących błędy ani czynników przyczynowo-skutkowych, również dlatego, że przedkładane raporty często ich nie zawierają, a zasoby do monitorowania osób składających raporty są ograniczone. Ponadto, ponieważ nie istnieje kultura zgłaszania, ani skuteczna kultura "uczenia się na podstawie niezamierzonych wyników", te liczne zdarzenia potencjalnie wypadkowe, które się zdarzają, nie są wychwytywane, a analiza jest ukierunkowana na ofiary śmiertelne.

'Nie można zmienić ludzkich uwarunkowań'

Profesor James Reason powiedział: "Nie można zmienić ludzkich uwarunkowań, ale można zmienić warunki, w których ludzie pracują". Chodziło mu o to, że błędy, które popełniają pracownicy, nie wynikają z ich niekompetencji, ale przede wszystkim z tego, że zostali skazani na porażkę przez system, nawet wtedy, gdy powinni być odpowiedzialni za swoje działania. Otrzymali nieodpowiednie szkolenie, musieli stosować niekompletne procedury, mieli ograniczony czas na wykonanie zadania, nie mieli skutecznego nadzoru lub szkolenia, byli nagradzani za wydajność zamiast za bezpieczeństwo, nie mieli wystarczającego doświadczenia do wykonania zadania lub dokonywali nieodpowiedniej oceny ryzyka z powodu braku wiedzy. Nauka o bezpieczeństwie wykazała, że gdy tylko zaczniemy zajmować się systemowymi przyczynami występowania zdarzeń niepożądanych, co w efekcie spowoduje przeniesienie punktu ciężkości z popełniającego błędy pracownika na system, wówczas bezpieczeństwo i produkcja ulegną znacznej poprawie.

Nie oznacza to, że osoby zajmujące się czynnikami ludzkimi i myśleniem systemowym zaakceptowały fakt, że ludzie będą popełniać błędy i dlatego jest to sprawa przegrana. W rzeczywistości jest wręcz przeciwnie. Ponieważ uznaje się, że ludzie będą popełniać błędy, wprowadza się systemy, które zmniejszają prawdopodobieństwo wystąpienia utajonych problemów lub częściej je wychwytują, tak aby w przypadku wystąpienia czynnych usterek nie były one katastrofalne. Przykłady tego obejmują stosowanie skutecznych list kontrolnych, dwukierunkowej komunikacji w zamkniętej pętli komunikacyjnej, omówień lub elementów wymuszających (takich jak klucze USB lub bankomaty).


Co jest potrzebne, aby doszło do wypadku?

Zastanawiając się nad tym, jak dochodzi do wypadków, można stwierdzić, że potrzebne są pewne warunki.

Utajone problemy, szczególnie warunki powodujące błędy, które zwiększają szanse, że błąd nie zostanie wychwycony przez nurka lub instruktora,
Niebezpieczne środowisko, tzn. coś, co może zaszkodzić osobom zaangażowanym, oraz,
Aktywny błąd, tj. pominięcie, pomyłka, błąd lub "naruszenie".

Jeśli nie mamy tych wszystkich warunków razem, to nie ma znaczenia, co się stanie naprawdę w sensie aktywnej awarii. Na przykład, nie jest katastrofą, jeśli nurek straci cały gaz na głębokości, jeśli ma obok siebie partnera, jest dobrze wyszkolony i może wynurzyć się dzieląc się gazem. Jeśli jednak zabraknie mu gazu na głębokości, a nie wie, jak daleko jest jego partner, bo był zajęty robieniem zdjęć, jego "wyborem" jest szybkie wynurzenie się z głębokości, co niestety doprowadza do DCS i kończy się paraliżem. Patrząc wstecz na kontekst, jako zespół partnerów, nie byli szkoleni w:

  •  nurkowania jako wzajemnie odpowiedzialny zespół,
  • wykonaniu omówienia, które wyraźnie określa, jakie będą cele i jak zostaną osiągnięte,
  • regularnym sprawdzaniu wzajemnej pozycji i rozumieniu/budowaniu świadomości sytuacyjnej,
  • wyrobieniu sobie nawyk monitorowania gazu podczas nurkowania,
  • tym jak podsumować i wyciągnąć wnioski z nieoptymalnych nurkowań, ponieważ rozdzielenie, obniżona świadomość i niski poziom gazu miały miejsce również podczas poprzednich nurkowań.

Jeśli chodzi o sytuację na powierzchni, załoga łodzi nie była dobrze wyćwiczona w leczeniu nagłych wypadków, zestaw O2 nie był sprawny i nie było helikoptera, który mógłby zabrać ofiarę, biorąc pod uwagę zmniejszone możliwości z powodu cięć finansowych. Wszystkie te czynniki po zdarzeniu były również obecne, ale nigdy wcześniej nie były "istotne".

Postarajcie się, aby uwaga była skupiona we właściwym miejscu.

Skupiając się tylko na pojedynczym nurku i jego wrodzonej zawodności, nie zobaczymy jaki sens miało jego postępowanie, a jeśli tego nie zrobimy, nie będziemy w stanie zająć się problemami systemowymi, ponieważ łatwo jest powiedzieć "popraw nurka". Często słyszymy: "nurkowie powinni być bardziej odpowiedzialni". Jak możesz być odpowiedzialny, jeśli nie rozumiesz, że ryzyko, z którym się stykasz, jest wiarygodne, ponieważ twoje szkolenie nie obejmuje go w wystarczającym stopniu? Albo uznając, że mentalność lub środowisko społeczne nie sprzyjają rozpoznaniu ryzyka.

Co ciekawe, większość uwagi poświęconej bezpieczeństwu nurkowania skupia się na kwestiach zdrowotnych. Wynika to z faktu, że często prowadzą one do zdarzeń śmiertelnych, biorąc pod uwagę niebezpieczne środowisko, w którym odbywa się nurkowanie. Jest tak również dlatego, że organizacje zaangażowane w bezpieczeństwo nurkowania, takie jak DAN, mają silne nastawienie na czynniki związane ze zdrowiem. Jeżeli stan zdrowia jest ciągłym problemem, to jak rozwiązać go z punktu widzenia systemu?

Po pierwsze, należy uznać, że nurkowanie nie jest dla odpowiednie wszystkich. O ile można unosić się w wodzie, jeśli ma się dużą nadwagę i nie jest się sprawnym fizycznie, to czy jest się w stanie przeprowadzić akcję samoratownictwa, uratować kogoś innego lub samemu zostać uratowanym, jeśli coś nie pójdzie zgodnie z planem? Planowanie dla optymalnych warunków to brak spojrzenia systemowego.

Czasami decyzje dotyczące bezpieczeństwa podejmuje "system", a zasady narzuca się innym. W kulturach indywidualistycznych (takich jak amerykańska) takie podejście nie jest dobrze widziane. Jednakże wielokrotnie wykazano, że ludzie nie są dobrymi decydentami, gdy mają niepełne informacje lub gdy istnieją naciski komercyjne konkurujące z bezpieczeństwem. Wykazano również, że ryzyko jest słabo oceniane, tam gdzie działanie jest dobrowolne, „ludzie zaakceptują ryzyko związane z dobrowolnymi działaniami (takimi jak jazda na nartach), które jest mniej więcej 1000 razy większe niż to, które tolerowaliby w przypadku niedobrowolnych zagrożeń, które zapewniają ten sam poziom korzyści." (Slovic, 1987). Zauważyłem pewną ironię, gdy dochodzi do poważnego wypadku. Często słyszę opinię "Powinni byli przestrzegać zasad, a wtedy nie skończyliby martwi", osoby, które ją głoszą pytane, czy przestrzegają tych samych zasad w 100% czasu, często odpowiadają: nie. Zasady dotyczą innych, a nie ich!

Nie oznacza to, że rządowe regulacje są odpowiedzią, ponieważ istnieje już pewien poziom nadzoru. To, co można by poprawić, to poziom wiedzy i doświadczenia, jaki zdobywają nurkowie i instruktorzy nurkowania. Istnieje potrzeba, aby kompetencje były praktycznie oceniane na bieżąco, regularnie, szczególnie w przypadku instruktorów. Jeśli instruktorzy trenerzy nauczają czegoś nieoptymalnego, to instruktorzy uczą się tej nieoptymalnej umiejętności, która następnie jest przekazywana kursantom na ich kursie. Nauczanie błędnych informacji kursantom nie musi pochodzić od instruktorów/trenerów, instruktorzy w naturalny sposób dryfują i jeśli nie zostanie to wychwycone poprzez aktywny monitoring, pozostaje ukryte. Ten brak kompetencji nie jest zwykle problemem, aż do momentu, kiedy występują warunki powodujące błędy i niebezpieczne warunki i pojawia się aktywna awaria (pomyłka, pominięcie lub błąd). W tym momencie dochodzi do wypadku, a kropki we wzorze są już wyraźnie widoczne. Jako zewnętrzni obserwatorzy możemy z łatwością prześledzić przebieg wypadków, stwierdzając, że było to "oczywiste", że do tego dojdzie. Rzecz w tym, że te same ukryte problemy były obecne zanim doszło do wypadku, ale nikt nie próbował ich szukać, lub, co potencjalnie ważniejsze, nie wiedział czego szukać lub nie chciał szukać z powodów komercyjnych/prawnych.

Poprawianie" nurka lub instruktora nigdy nie rozwiąże problemów systemowych. Aby rozwiązać te problemy systemowe, proces badania każdego zdarzenia niepożądanego lub zdarzenia potencjalnie wypadkowego musi sięgać dalej niż do jednostki i szukać zrozumienia "lokalnej racjonalności" - jaki sens "lokalnie" miało zrobienie przez nurka tego, co zrobił? Zatrzymanie się na "błędzie ludzkim" lub "błędzie nurka" oznacza, że albo nie chcemy szukać dalej, aby zrozumieć czynniki sprawcze, albo nie mamy umiejętności lub wiedzy, aby zadać dociekliwe pytania "Jak to miało sens?". Jeśli jedynym, co mamy, jest młotek, problemy, które trzeba rozwiązać, wyglądają po prostu jak gwoździe.

W ciągu najbliższych kilku tygodni będę umieszczał w domenie publicznej materiały, które pomogą nurkom, instruktorom, organizacjom i agencjom zadawać te ciekawe pytania w sposób ustrukturyzowany. Na poziomie organizacyjnym agencje mogą nie chcieć zadawać tych pytań z powodów prawnych, ale znajdą się tacy, którzy będą chcieli dowiedzieć się, jak przejść od "naprawiania" do uczenia się. Możemy się poprawić tylko wtedy, gdy poznamy system, a nie tylko skupimy się na ludzkiej zawodności.


Gareth Lock jest właścicielem The Human Diver, niszowej firmy skupionej na kształceniu i rozwijaniu nurków, instruktorów i powiązanych zespołów, aby mogli osiągać wysoką wydajność. Jeśli chciałbyś pogłębić swoje doświadczenie nurkowe, rozważ wzięcie udziału w kursie wprowadzającym online, który zmieni twoje podejście do nurkowania, ponieważ bezpieczeństwo jest twoim postrzeganiem, odwiedź stronę internetową.