福島真人

福島真人

(写真:KITTIKUN YOKSAP / shutterstock

組織事故を減らすために必要なこと

2024年1月2日に羽田空港で起きた日航機と海保機の衝突事故。機体が全焼する大事故でありながら、日航機からは死者が一人も出なかったことは「奇跡」とも言われた。なぜ「奇跡」は起きたのか。一方でなぜ事故は起きるのか。科学技術社会学の観点から「組織事故」を研究しつづけている福島真人氏が解説する。

Updated by Masato Fukushima on January, 25, 2024, 5:00 am JST

「組織事故」をなくすことは可能なのか。大激論が交わされた

先日の羽田空港における日航機と海保機の衝突という事故は、一方で日航機クルーの的確な誘導により乗客に死者が出ないという朗報と共に、滑走路上の衝突という、航空管制のシステムを揺るがしかねない大事件という、二つの顔を持つ結果が同居する事態となった。前者についての報道は、そうした的確な判断と処理の背後に、危機対応のための常時のトレーニングの重要性を強調するものが多くあった。他方、後者に関する航空関係者の反応は、ことの重大さに関する彼らの危機感を示しており、それは現在進行中の事故調査報告のみならず、事故後行われた、空港側の迅速な対応にも見て取れる点である。

このように二つの顔を持つニュースを聞いて筆者が思い出したのは、こうしたタイプの事故、即ちその背後に組織的要因が係わっている、所謂「組織事故」について激しく行われた、組織社会学的な論争である。一方のグループは、一種の悲観論を展開する社会学者達で、その主張によれば、高度に複雑なテクノロジーを伴う組織においては、全体があまりに複雑なためその全体像が見渡せず、その一部で発生した問題が全体に波及する様子を全てモニターすることも出来ないため、何らかの事故はある種必然的に発生し、それを避けることは出来ない。ペロー(C.Perrow)の代表作である、Normal Accidentsという本のタイトルは、まさに「事故というのはこうした組織では普通のこと(normal)」という皮肉っぽいニュアンスさえ感じさせるものである。

この主張に対して、経営学や社会心理学を含むバークレーの研究チームは、その作業に危険を伴う現場での研究を行った。航空管制や空母での戦闘機の離発着、更には原子力発電所における定期検査といった、一つミスが起こると大事故に繋がりかねないような現場である。彼らは調査の対象として、特に事故率が低い対象を選び、長期的な現場観察を行った。そこで見いだされた一連の組織論的な特徴をまとめて、それらを高信頼性組織(high reliability organization)と呼んだのである。そこにはいくつかの共通特性があり、例えば、ちょっとした不具合でも徹底的にその原因を分析する組織的志向性、自ら犯したミスを積極的に報告するルーチン、あるいはメンバーが一人欠けても、それを他の人が柔軟にバックアップできるような組織対応といった一連の特徴である。

高信頼性組織的のように見えても、実は偶然助かっていたケースもある

一方ではテクノロジー型の巨大組織における事故の必然性、他方では危険度の高い組織経営における事故防止の努力の可能性、という正反対の主張だったために、両グループの間では一時期激しい論争が繰り広げられた。例えば、後者の事例に近い、成功例のように見える事例も、よくよく調べるとかなり危ない状態に近い面があり、事故に至らなかったのは偶然だといった主張がなされ、論争はなかなか終結しなかった。現在「組織事故」についてよく読まれるタイプの概説書は、たいてい両者の主張を折衷した内容になっている。

今回の羽田空港における事故も、ある意味この論争の両方の側面に近い事例が現れているとも言える。日航機からの脱出に係わるクルーの素早い判断と、それに促された乗客の迅速な行動は、高信頼性組織的とでも言える特徴を示しているといっていい。その背後には事故を想定した徹底した訓練があると同時に、現場で起こる様々な問題、例えば機内放送が使えないとか、どのドアが脱出用に安全かをスタッフがとっさに自律的に判断し、それに従って機内からの脱出を誘導するといった細かな過程がある。かつてある原子力安全文化に関する研究会で、電力会社系の安全研究者が、緊急時での現場への権限委譲と自発的行動の必要性という考えについて、食ってかかってきた妙な経験がある。こういう現場でいちいち上司の判断を待っていたら、助かる乗客も助からなかっただろう。東日本大震災より遥か前の話である。地上にいた他社の職員も迅速に救助に協力したと聞くが、まさに自発的に組織の穴を埋めるという実例でもある。

(写真:BABAROGA / shutterstock

組織事故の背後には、直接的には見えない様々な原因が隠れている

事故に対する迅速で的確な組織的対処はメディア等でも多く称賛されたが、他方、この事故そのものが、ペローらのいうnormal accidentの予感がする危機的な側面もある。それはこうした大事故をもたらした原因が複数ありそうで、その余波がどこまで広がるか、現時点では見通しがきかないからである。直接の原因は管制塔からのナンバー1という指示を海保機の機長が勘違いし、滑走路に侵入したためとされているが、話がそこで終わりそうにないのが、これが「組織」事故たる所以でもある。こうした指示への誤解を防ぐため、海保機の複数のメンバーがそれを復唱し、確認したという。つまり、もしこれが勘違いだったとしても、機長のみならず、複数の乗員がそれに気がつかなかったということになる。更に、滑走路への異常な進入を監視する装置も稼働していたが、管制塔でもその異常に気がつかず、しかも黙視で確認も出来なかったという。

別稿で組織事故に関する、有名なスイス・チーズモデルを紹介したが、危険因子を防ぐ組織的防御壁には所々穴があいており、その穴が並ぶと危険因子が防御壁を貫通して事故が起こる、という話である。前に詳述したように、ここでいう防御壁とは、我々の日常における危険因子の監視の努力を示し、そこに穴かあくというのは、何らかの理由で、そうした因子をチェックできない状態が生まれることを示す。

更に一部報道では、こうした事故の背後に羽田での離発着の過密さや、そうした状況をもたらした過去の政策の問題といった指摘もあるようだ。まさに一つの組織事故の背後には、直接的には見えない様々な原因が隠れているという、典型的な例である。複雑なテクノロジーに依存する組織における事故の必然性という議論と、風景が重なって見えてしまうのである。

緊張した状態では、自分の名前すら聞き間違う

かつて筆者が救命救急センターで調査を行っていた際に、現場で生じる、ありとあらゆる不測の事態と、それに対処する現場の奮闘という二つの極を目の当たりにした。例えば、当病院の医療安全委員会に参加させてもらい、様々なヒヤリ・ハット報告を聞いて驚いたのは、いかに組織の中で事故に繋がりかねないミスが充満しているかという事実である。別稿では似たような薬の名前の取り違えや、二つで一セットのアンプル数の数え間違いといった話を紹介したが、それらは文字通り氷山の一角に過ぎない。手術する患者の取り違えといった重大案件がたまに報道されることがあるが、そこまでいかなくても、委員会では、直前で間違いに気がついたというケースを聞いた記憶がある。しかも患者本人に名前を確認しているにも係わらず、である。当時の議論では、〇〇さんですねといわれ、その名前が違っても、手術前で心理的に不安定になっている患者は、思わずハイと言ってしまうのではないか、ということであった。名前確認といった単純作業にも危険因子が潜んでいるのである。結果として患者本人に名前を言わせるように方針を変えたというが、自分の名前ですら間違えかねないとしたら、疲労等の条件が重なると、プロですらナンバー1といった表現を取り違えてしまう可能性もあると感じるのは私だけであろうか。

テクノロジーが変化する時期はリスクが高まる

また、依拠するテクノロジーの変化もこうした危険因子となりうる。センターでは、当時紙による薬剤のオーダーが段階的に電子的なそれに変わりつつあり、両方が一部混在していた。紙による薬剤処方のチェックは、紙一枚にその日の処方が一望でき、医局等の会議でその内容を繰り返しチェックする指示表と、病棟全体の指示を看護師が管理する分厚い指示簿が併用されていたが、そこに医師が個別に直接電子的に指示するシステムが加わったのである。だが何かの拍子で前者の紙系と後者の電子系の指示の齟齬が発覚し、これはシステムとして危ないという話になった。どこかで指示もれ等が発生する可能性があるからである。

前述した高信頼性組織論者が懸念を表明していたのは、当時アメリカの軍内部で進んでいた急速なICT化の過程である。新規システムの不安定性が、現場の兵隊を危険に晒す可能性を危惧していたのである。先日のハマスによるイスラエル攻撃で、諜報能力を誇る後者が、前者のローテクな通信手段の内容を傍受できなかったという話もあるが、長期的に安定利用してきたテクノロジーを別のものに変える時期は、そうしたリスクが高まるというのは一般的に見られる傾向でもある。

状況は変化し、危険因子を常にモニターすることは出来ない

また筆者のセンター訪問時に経験した大きな組織的変化は、救急医療が研修過程の必修になり、大量の研修医が押し寄せてきたという点であった。それ以前では、救急医学に加わる研修医は、専門志向の研修医と、救急の基礎技術を学びたいというその他の分野の少人数の研修医達で、彼らをまとめて小グループに分け、専門救急医と共同で患者対応をしていた。そこに突然、従来の数倍の人数の研修医が押し寄せてきたのである。当然、現場は一時大混乱状態になった。救急医療に不慣れな大量の新人に患者を診せる訳にはいかないため、センター側は迅速に対応した。今まで各チームの統括役だった上級医が、直接患者に対応する形に変え、大量の新人に患者を診させるという危ないやり方は避けたのである。救急医は何事も迅速なので、一緒にご飯を食べたりすると、こちらが食べ終わらないうちに席を立ってしまったりするが、ことリスク管理に関しては迅速かつ的確であった。

とはいえ、こうした救急的な精査の目があっても、それが行き届かない面もないとは言えなかった。例えばセンターに複数ある集中治療室(ブースの形になっている)には、生命維持のための複数の装置が置かれているが、非常に多いそれらのコードが文字通り蜘蛛の巣か何かのようにこんがらがっており、機器の一部を移動させようとした時に、そのどれがどれだか分からない状態で、ちょっと危なっかしいと感じた覚えがある。だがこういう点は関係者の視野にはないようであった。

状況は常に変化し、そこに発生しうる危険因子を常にモニターすることは出来ない。その点では事故社会学者は正しい。しかしそれでもある程度はそうした危険因子を振り返り、可能な穴をある程度は塞ぐことは出来るかもしれない。そのために必要なのは絶えざる学習である。

参考文献
真理の工場ー科学技術の社会的研究』福島真人(東京大学出版会 2017年)
学習の生態学-実験、リスク、高信頼性』福島真人(筑摩書房 2022年)
Edwin Hutchins 1995  Cognition in the Wild, MIT Press
Charles Perrow(1984)Normal Accidents : Living with High-risk Technologies Basic Books. 
Ranga Ramanujam & Karlene Roberts(2018) Organizing for Reliability: A Guide for Research and Practice, Stanford University Press.