통합 검색어 입력폼

인간에 의한 사고를 줄이는 법

조회수 2017. 8. 11. 22:00 수정
번역beta Translated by kaka i
번역중 Now in translation
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 다양한 분야의 재밌고 유익한 콘텐츠를 카카오 플랫폼 곳곳에서 발견하고, 공감하고, 공유해보세요.

시스템의 빈틈이 인간의 실수를 만듭니다.

※ Nautilus에 Douglas Starr가 기고한 「The Tricks Used by Pilots, Surgeons & Engineers to Overcome Human Error」를 번역한 글입니다.


2015년 3월, 독일의 비행기 저먼윙스(Germanwings) 4U9525 편이 알프스 산맥에 추락했을 때 그 원인을 찾는 것은 어렵지 않았습니다. 부기장 안드레아스 루비츠는 우울증을 겪고 있었고 그는 수백 명의 승객과의 동반 자살을 택한 것으로 드러났습니다.


그러나 이걸로 모든 문제가 해결된 것은 아닙니다. 어떻게 정신적 문제가 있는 조종사가 승객을 가득 태운 비행기를 조종할 수 있었을까요? 어떻게 그는 조종실의 문을 잠가 기장이 들어오는 것을 막았을까요? 어떤 시스템적 오류가 이런 치명적인 조합들을 동시에 가능하게 만든 것일까요?

사건 현장.

문제는 인간의 실수다


대형 사고 뒤에는 항상 이런 질문들이 따라옵니다. 그리고 우리는 사고의 가장 중요한 원인 가운데 하나로 인간의 실수를 발견할 수 있습니다. 물론 때로 사람들이 기계의 문제를 찾지 못했을 때 인간을 원인으로 지목하기도 하지만, 대부분의 사건에서 인간의 실수는 사건의 중요한 원인으로 자리 잡고 있습니다.


사실 ‘인적 오류(human error)’라는 말은 인간의 실수가 기술에 의해 대규모의 사건으로 발전할 수 있게 된 오늘날에 와서야 만들어진 단어입니다. 과거에도 사람들은 실수를 저질렀지만, 그 규모는 기껏 손에 든 망치가 미끄러지는 수준이었습니다. 그러나 산업혁명은 인간을 하나의 도구로 사용했고, 특히 지루한 반복 작업은 사고를 더 빈번하게 만들었습니다. 때로 한 사람의 실수는 전체 생산라인을 멈추게 했습니다.


사고가 날 때마다 자본가는 기계보다 노동자를 탓했습니다. 20세기 초, 현장 심리학자들은 소위 ‘사고 경향성(accident-prone)’이라는, 곧 어떤 노동자들은 왜 사고를 잘 내는지를 연구했습니다. 이 용어를 만든 이 중의 한 명인 영국의 산업심리학자 에릭 파머는 이들을 판별하는 방법, 그리고 사건의 피해를 최소화하는 방법에 대해 연구했습니다.


2차대전은 인적 오류의 의미를 크게 변화시켰습니다. 급격한 기술의 발전은 가장 사고 경향성이 낮은 이들조차도 때로 실수를 하도록 만들었습니다. 1943년 미국 공군은 심리학자 알폰스 채파니스를 불러 왜 파일럿들이 특정 항공기를 탈 때 착륙 후 바퀴를 다시 집어넣는 실수를 반복하는지 물었습니다. 이 때문에 상당수의 비행기가 지상에 충돌했고 화재를 일으켰습니다.


채프니스는 조종사들을 인터뷰하는 한편 조종석을 면밀히 조사했습니다. 그는 B-175 비행기의 날개 조종 레버와 착륙용 바퀴 레버가 똑같이 생겼으며 바로 옆에 위치한다는 것을 발견했습니다. 파일럿들은 날개를 조종하려다가 바퀴를 다시 집어넣었던 것입니다. 이 경우 문제는 파일럿이 아니라 기술에 있었습니다.

착륙사고를 낸 A B-17

전쟁이 끝난 후, 이 같은 문제 해결 방식은 산업 분야로 옮겨져 ‘인간공학(human factors engineering)’으로 발전했습니다. 이는 문제의 원인을 표면적인 인간의 실수에서 찾는 것이 아니라 인간이 조종해야 하는 복잡한 시스템에서 찾는 것입니다. 곧 전쟁 이전에는 사람들이 인간을 오류의 원인으로 보았다면 전쟁 이후 사람들은 시스템 자체에 오류가 있다고 생각하게 된 것입니다. 


1967년에는 이런 오류들을 찾기 위해 미국 연방교통안전위원회(NTSB)와 전문가들로 구성된 ‘긴급 수사팀(Go Teams)’이 만들어졌습니다. 오늘날 비행기가 확률적으로 가장 안전한 이동수단이 된 데에는 바로 이들의 기여가 자리 잡고 있습니다.



시스템의 빈틈이 인간의 실수를 만든다


재해는 피할 수 없었지만, 매 사고는 우리의 오류에 대한 이해를 깊게 만들어 주었습니다. 이제 우리는 인적 오류의 원인에 기술만이 있는 것이 아니라 그 기술이 운영되는 방식에도 있다는 것을 알고 있습니다.


쓰리마일 핵발전소 사건에서 사회학자 찰스 페로는 ‘정상 사고(normal accident)’라는 개념을 만들었습니다. 이는 수천 개의 부품과 동작이 필요한 어떤 기술들은 그 엄청난 복잡성 때문에 반드시 사고가 일어날 수밖에 없다는 것입니다.


챌린저호 비극에서 사회학자 다이앤 본은 ‘비정상의 정상화(normalized deviance)’ 이론을 만들었습니다. 이는 NASA 사람들이 가스가 새는 것을 막는 O-링에 문제가 생기는 것을 너무 자주 봐왔기 때문에, 이 문제가 심각한 사건을 일으키리라고는 생각지 못하게 된 것을 말합니다.


문제를 보다 적극적으로 해결하려는 이런 사고방식은 ‘근원분석(root-cause analysis)’이라는 이름으로 중화학공업, 소방산업, 의학 분야 등 다양한 산업 분야로 확대되었습니다.


몇십 년 전까지만 하더라도 마취는 가장 위험한 의학 시술 중의 하나였습니다. 이 문제는 의료진이 산소 튜브와 질소 튜브를 혼동하지 않도록 새롭게 장치를 디자인하는 것으로 상당 부분 해결되었습니다. 펜실베니아 대학의 리 플레셔는 오늘날 마취 중 사고 확률은 50분의 1로 줄었다고 이야기합니다.


어떤 외과 의사들은 수술 전, 마치 파일럿들이 하는 것처럼 체크 리스트를 확인합니다. 몇 년 전 어깨 회전근개 수술을 받을 때 간호사는 내 한쪽 어깨에는 ‘yes’를, 다른 쪽 어깨에는 ‘no’를 써 놓았습니다.

WHO의 수술 체크리스트

이제 사법 시스템에도 이런 근원분석이 도입되려 하고 있습니다. 잘못된 기소와 판결 역시 재해 못지않게 많은 문제를 일으킵니다. 심리학자와 사법 전문가들은 이런 법적 참사의 원인이 단순히 열정적인 검사나 경찰의 실수이기보다는 수많은 다양한 요인의 결과라고 말합니다. 


퍼거슨 시에서 있었던 마이클 브라운 총기 사고를 생각해봅시다. 누구도 대런 윌슨이 그날 아침 비무장한 10대를 사살할 것이라고는 생각지 못했을 것입니다. 따라서 우리는 왜 그가 그런 판단을 하게 되었는지를 먼저 물어야 합니다.


그가 비살상무기를 휴대했다면 어떨까요? 그가 흥분 완화 훈련(de-escalation training)을 받았다면 어떨까요? 그가 동료와 같이 순찰 중이었다면 어땠을까요? 인종주의와 ‘세입을 목적으로 한 치안(revenue based policing)’이 이 사건의 원인에 어느 정도의 비중을 차지하고 있는 것일까요? 변호사 제임스 도일은 경찰 시스템과 법정에 이런 시스템적 분석이 필요하다는 운동을 벌이고 있습니다.

이 문제는 단순히 경찰이나 검찰의 문제가 아닙니다. 해결해야 할 사건의 수는 많고, 예산은 부족합니다. 그리고 위에서는 이런 상황에 적응하도록 만들고 있지요.

이런 접근도 고의적으로 사고를 내려는 이를 막을 수는 없을 것입니다. 그러나 대다수 비극의 원인에는 결국 이런 복잡한 세상에서 살기에는 불완전한 존재인 우리 자신이 있습니다. 이것이 비난에 앞서 겸손이 필요한 이유입니다.


원문: 뉴스페퍼민트


이 콘텐츠에 대해 어떻게 생각하시나요?