Почему в гибели «Титаника» никто не виноват – как бы нам этого ни хотелось

Тема вины экипажа «Титаника» давно существует как самостоятельный культурный феномен.

Любая крупная трагедия воспринимается проще, если в ней удаётся обозначить конкретных виновников: капитан Смит не снизил скорость, Исмей якобы давил на ход, Мэрдок ошибся с манёвром, впередсмотрящие проглядели айсберг. Подобная схема удобна, поскольку создаёт иллюзию контроля и ощущение, будто при иных действиях трагедии можно было бы избежать.

Однако при обращении к источникам и профессиональному контексту эпохи эта картина теряет убедительность. Большинство действий экипажа «Титаника» не являлись отклонением от нормы, напротив – они соответствовали тому, что в начале XX века считалось корректной морской практикой. Это ставит более принципиальный вопрос: как могла произойти катастрофа, если люди действовали в рамках того, что воспринималось как профессионально обоснованное поведение?

В инженерии, авиации, медицине, энергетике и транспорте сформировалась самостоятельная область исследований, которую условно называют science of safety (наука о безопасности). Её ключевой вывод заключается в том, что крупные катастрофы крайне редко являются следствием единичной «человеческой ошибки»1. Гораздо чаще они возникают потому, что люди действуют рационально и добросовестно внутри неверной или неполной модели системы.

➡️ Нэнси Левесон в книге Engineering a Safer World («Проектирование более безопасного мира», 2011) вводит понятие process model (модель процесса) – внутреннего представления человека о том, как устроена система и как она должна себя вести. Именно на основе этой модели люди принимают решения, и если модель неполна или ошибочна, то даже рациональные действия могут приводить к катастрофическим последствиям2.

➡️ Джеймс Ризон в работе Human Error («Человеческая ошибка», 1990) показывает, что аварии возникают не из-за разовой ошибки человека, а из-за накопленных latent failures (латентных системных сбоев) – скрытых дефектов в организации, правилах и допущениях системы, которые долгое время остаются незаметными3.

➡️ Чарльз Перроу в книге Normal Accidents («Нормальные аварии», 1984) утверждает, что аварии в сложных системах являются не исключением, а закономерным следствием ограниченности человеческого знания и невозможности полностью предусмотреть поведение системы4.

➡️ Генри Петроски в работе To Engineer Is Human («Инженерить – значит быть человеком», 1985) демонстрирует, что нормы безопасности почти всегда формируются постфактум, после катастроф, поскольку до аварии пределы применимости существующей модели попросту неочевидны5.

➡️ Ричард Кук в эссе How Complex Systems Fail («Как дают сбой сложные системы», 2000) обобщает этот вывод, подчёркивая, что сложные системы могут долго функционировать без серьёзных отказов, пока не сталкиваются с редкой комбинацией факторов, выходящей за пределы исходных допущений модели6.


Тот же механизм системной уязвимости хорошо прослеживается и за пределами морской истории. Человек может годами водить автомобиль, полагаясь на устойчивую модель поведения, пока редкая комбинация условий не приводит к аварии. Пациент может долгое время не ощущать симптомов болезни, пока скрытый процесс внезапно не проявляется в острой форме. Инженерная система может десятилетиями функционировать без серьёзных сбоев, пока редкое сочетание факторов не выводит её за пределы проектных допущений. Во всех этих случаях речь идёт не о «глупости» или небрежности людей, а о границах модели, в рамках которой они действуют.

❗️Именно этот тип системного отказа и лежит в основе катастрофы «Титаника»❗️

❇️ Материалы Британского расследования 1912 года показывают, что в начале XX века существовала устойчивая профессиональная модель навигационной безопасности, основанная на визуальном обнаружении опасности и отсутствии автоматического требования снижения скорости при ясной погоде7.

Показания капитанов Бертрама Хейса («Олимпик»), Фредерика Пассоу («St. Paul» – «Сент-Пол»), Ричарда Оуэна Джонса и других подтверждают, что следование полным ходом в ясную погоду даже в районах льдов являлось профессиональной нормой эпохи8.

Важно, что эта практика не только воспринималась как разумная, но и долгое время подтверждалась статистически. Так, период с конца XIX века до 1912 года являлся самым безопасным в истории трансатлантических пассажирских перевозок: уровень смертности исчислялся единичными случаями на миллионы перевезённых пассажиров, что статистически подтверждало устойчивость сложившейся практики9.


При этом важно понимать, что и британское, и американское расследования 1912 года в значительной степени оставались в логике своей эпохи и продолжали искать персональные ошибки и юридически формализуемую вину. Системный взгляд на катастрофы как на результат ошибок модели, а не людей, сформировался лишь во второй половине XX века. Поэтому прямого языка современной теории безопасности в отчётах 1912 года мы не найдём – и это нормально с точки зрения истории науки.

Принципиально, что речь в данном случае идёт не об оправдании и не об эмоциональной защите экипажа, а о попытке объяснить катастрофу на языке науки, а не на языке морали. Это два разных уровня анализа, и смешение их лишь упрощает картину вместо того, чтобы прояснять её.


⏺️ Если сформулировать вывод предельно прямо, то причина отсутствия персональной вины заключается в следующем:

  • ни один из ключевых участников событий не нарушал ни профессиональных норм своей эпохи, ни логики принятых процедур;
  • капитан не нарушал сложившихся судоводительских норм и доказавших себя безопасных практик;
  • офицеры не игнорировали сложившийся регламент и действовали по стандартной схеме;
  • впередсмотрящие не действовали халатно, добросовестно высматривая айсберг;
  • руководство компании не требовало формально запрещённых действий.

Все решения принимались внутри той системы представлений о безопасности, которая считалась обоснованной, проверенной практикой и подтверждённой статистикой.

Именно поэтому невозможно честно утверждать, что катастрофа стала следствием чьей-то недобросовестности, некомпетентности или нарушения долга. Речь идёт не об индивидуальной ошибке, а о том, что сама система профессиональных допущений оказалась ограниченной. Люди действовали как обычно – но в рамках модели, которая однажды вышла за пределы своей применимости.


После катастрофы в Международной конвенции по охране человеческой жизни на море (SOLAS 1914Safety of Life at Sea) были закреплены новые требования к скорости в районах, где сообщается о льдах, а также был создан International Ice Patrol (Международный ледовый патруль)10. Логика безопасности сместилась от принципа «мы увидим вовремя» к принципу «даже если увидим вовремя, риск должен снижаться заранее». Это было не исправление «ошибок экипажа», а признание того, что прежняя система допущений была неполной.

Самые опасные ошибки – это не ошибки действий, а ошибки допущений, не ошибки людей, а ошибки моделей. История «Титаника» неудобна именно потому, что в ней сложно отыскать «злодеев». Есть лишь люди, действующие в рамках системы разумно, дисциплинированно и профессионально – и система допущений, которая однажды перестала работать.

Максим Полищук


Источники

  1. Leveson N. Engineering a Safer World. MIT Press, 2011.
  2. Leveson N. Engineering a Safer World, глава 3.
  3. Reason J. Human Error. Cambridge University Press, 1990.
  4. Perrow C. Normal Accidents. Princeton University Press, 1984.
  5. Petroski H. To Engineer Is Human. St. Martin’s Press, 1985.
  6. Cook R. How Complex Systems Fail. Cognitive Technologies Laboratory, 2000.
  7. British Wreck Commissioner’s Report on the Loss of the Titanic. London, 1912.
  8. U.S. Senate Inquiry into the Loss of the Titanic. Testimonies of Hayes, Passow, Jones, 1912.
  9. Историко-исследовательское общество «Титаника». Аналитическая статья «Скорость “Титаника” и статистика безопасности». titanicsociety.ru.
  10. International Convention for the Safety of Life at Sea (SOLAS), 1914.