Почему в гибели «Титаника» никто не виноват – как бы нам этого ни хотелось
Тема вины экипажа «Титаника» давно существует как самостоятельный культурный феномен.
Любая крупная трагедия воспринимается проще, если в ней удаётся обозначить конкретных виновников: капитан Смит не снизил скорость, Исмей якобы давил на ход, Мэрдок ошибся с манёвром, впередсмотрящие проглядели айсберг. Подобная схема удобна, поскольку создаёт иллюзию контроля и ощущение, будто при иных действиях трагедии можно было бы избежать.
Однако при обращении к источникам и профессиональному контексту эпохи эта картина теряет убедительность. Большинство действий экипажа «Титаника» не являлись отклонением от нормы, напротив – они соответствовали тому, что в начале XX века считалось корректной морской практикой. Это ставит более принципиальный вопрос: как могла произойти катастрофа, если люди действовали в рамках того, что воспринималось как профессионально обоснованное поведение?
В инженерии, авиации, медицине, энергетике и транспорте сформировалась самостоятельная область исследований, которую условно называют science of safety (наука о безопасности). Её ключевой вывод заключается в том, что крупные катастрофы крайне редко являются следствием единичной «человеческой ошибки»1. Гораздо чаще они возникают потому, что люди действуют рационально и добросовестно внутри неверной или неполной модели системы.
➡️ Нэнси Левесон в книге Engineering a Safer World («Проектирование более безопасного мира», 2011) вводит понятие process model (модель процесса) – внутреннего представления человека о том, как устроена система и как она должна себя вести. Именно на основе этой модели люди принимают решения, и если модель неполна или ошибочна, то даже рациональные действия могут приводить к катастрофическим последствиям2.
➡️ Джеймс Ризон в работе Human Error («Человеческая ошибка», 1990) показывает, что аварии возникают не из-за разовой ошибки человека, а из-за накопленных latent failures (латентных системных сбоев) – скрытых дефектов в организации, правилах и допущениях системы, которые долгое время остаются незаметными3.
➡️ Чарльз Перроу в книге Normal Accidents («Нормальные аварии», 1984) утверждает, что аварии в сложных системах являются не исключением, а закономерным следствием ограниченности человеческого знания и невозможности полностью предусмотреть поведение системы4.
➡️ Генри Петроски в работе To Engineer Is Human («Инженерить – значит быть человеком», 1985) демонстрирует, что нормы безопасности почти всегда формируются постфактум, после катастроф, поскольку до аварии пределы применимости существующей модели попросту неочевидны5.
➡️ Ричард Кук в эссе How Complex Systems Fail («Как дают сбой сложные системы», 2000) обобщает этот вывод, подчёркивая, что сложные системы могут долго функционировать без серьёзных отказов, пока не сталкиваются с редкой комбинацией факторов, выходящей за пределы исходных допущений модели6.

Тот же механизм системной уязвимости хорошо прослеживается и за пределами морской истории. Человек может годами водить автомобиль, полагаясь на устойчивую модель поведения, пока редкая комбинация условий не приводит к аварии. Пациент может долгое время не ощущать симптомов болезни, пока скрытый процесс внезапно не проявляется в острой форме. Инженерная система может десятилетиями функционировать без серьёзных сбоев, пока редкое сочетание факторов не выводит её за пределы проектных допущений. Во всех этих случаях речь идёт не о «глупости» или небрежности людей, а о границах модели, в рамках которой они действуют.
❗️Именно этот тип системного отказа и лежит в основе катастрофы «Титаника»❗️
❇️ Материалы Британского расследования 1912 года показывают, что в начале XX века существовала устойчивая профессиональная модель навигационной безопасности, основанная на визуальном обнаружении опасности и отсутствии автоматического требования снижения скорости при ясной погоде7.
Показания капитанов Бертрама Хейса («Олимпик»), Фредерика Пассоу («St. Paul» – «Сент-Пол»), Ричарда Оуэна Джонса и других подтверждают, что следование полным ходом в ясную погоду даже в районах льдов являлось профессиональной нормой эпохи8.
Важно, что эта практика не только воспринималась как разумная, но и долгое время подтверждалась статистически. Так, период с конца XIX века до 1912 года являлся самым безопасным в истории трансатлантических пассажирских перевозок: уровень смертности исчислялся единичными случаями на миллионы перевезённых пассажиров, что статистически подтверждало устойчивость сложившейся практики9.

При этом важно понимать, что и британское, и американское расследования 1912 года в значительной степени оставались в логике своей эпохи и продолжали искать персональные ошибки и юридически формализуемую вину. Системный взгляд на катастрофы как на результат ошибок модели, а не людей, сформировался лишь во второй половине XX века. Поэтому прямого языка современной теории безопасности в отчётах 1912 года мы не найдём – и это нормально с точки зрения истории науки.
Принципиально, что речь в данном случае идёт не об оправдании и не об эмоциональной защите экипажа, а о попытке объяснить катастрофу на языке науки, а не на языке морали. Это два разных уровня анализа, и смешение их лишь упрощает картину вместо того, чтобы прояснять её.
⏺️ Если сформулировать вывод предельно прямо, то причина отсутствия персональной вины заключается в следующем:
- ни один из ключевых участников событий не нарушал ни профессиональных норм своей эпохи, ни логики принятых процедур;
- капитан не нарушал сложившихся судоводительских норм и доказавших себя безопасных практик;
- офицеры не игнорировали сложившийся регламент и действовали по стандартной схеме;
- впередсмотрящие не действовали халатно, добросовестно высматривая айсберг;
- руководство компании не требовало формально запрещённых действий.
Все решения принимались внутри той системы представлений о безопасности, которая считалась обоснованной, проверенной практикой и подтверждённой статистикой.
Именно поэтому невозможно честно утверждать, что катастрофа стала следствием чьей-то недобросовестности, некомпетентности или нарушения долга. Речь идёт не об индивидуальной ошибке, а о том, что сама система профессиональных допущений оказалась ограниченной. Люди действовали как обычно – но в рамках модели, которая однажды вышла за пределы своей применимости.

После катастрофы в Международной конвенции по охране человеческой жизни на море (SOLAS 1914 – Safety of Life at Sea) были закреплены новые требования к скорости в районах, где сообщается о льдах, а также был создан International Ice Patrol (Международный ледовый патруль)10. Логика безопасности сместилась от принципа «мы увидим вовремя» к принципу «даже если увидим вовремя, риск должен снижаться заранее». Это было не исправление «ошибок экипажа», а признание того, что прежняя система допущений была неполной.
Самые опасные ошибки – это не ошибки действий, а ошибки допущений, не ошибки людей, а ошибки моделей. История «Титаника» неудобна именно потому, что в ней сложно отыскать «злодеев». Есть лишь люди, действующие в рамках системы разумно, дисциплинированно и профессионально – и система допущений, которая однажды перестала работать.
Максим Полищук
Источники
- Leveson N. Engineering a Safer World. MIT Press, 2011.
- Leveson N. Engineering a Safer World, глава 3.
- Reason J. Human Error. Cambridge University Press, 1990.
- Perrow C. Normal Accidents. Princeton University Press, 1984.
- Petroski H. To Engineer Is Human. St. Martin’s Press, 1985.
- Cook R. How Complex Systems Fail. Cognitive Technologies Laboratory, 2000.
- British Wreck Commissioner’s Report on the Loss of the Titanic. London, 1912.
- U.S. Senate Inquiry into the Loss of the Titanic. Testimonies of Hayes, Passow, Jones, 1912.
- Историко-исследовательское общество «Титаника». Аналитическая статья «Скорость “Титаника” и статистика безопасности». titanicsociety.ru.
- International Convention for the Safety of Life at Sea (SOLAS), 1914.
