В январе 2026 года нефтегазовая индустрия выпустила отчёт, который переворачивает эту логику. Его первый принцип звучит как ересь:
«Ошибки — это нормально».
За ним стоит 200 лет эволюции мысли — от пороховых мельниц DuPont до программы Safe Choice от ExxonMobil и работы Shell, BP и десятков других компаний, которые поняли: наказывать людей за ошибки так же глупо, как наказывать их за плохое зрение.
Эта статья — история о том, как отрасль, где цена ошибки измеряется жизнями, училась прощать людей и проектировать системы, в которых ошибаться не страшно. И о том, почему это касается каждого из нас — даже когда мы просто наливаем кофе.
- Пролог: история про краны
- Бихевиоризм: Великое упрощение
- DuPont и рождение порядка
- 1960-е: бихевиоризм выходит на заводы
- 1970-80-е: научное оформление Поведенческой Безопасности
- Кризис: почему Поведенческая Безопасность перестала устраивать
- Слепые зоны великого упрощения
- 2000-2010-е: голоса в пустыне
- Интеграция: как нефтегазовые гиганты строили мост
- ExxonMobil: безопасный выбор и наука принятия решений
- Shell: пять принципов обретают форму
- BP: Марчин Назарук и системная интеграция
- IOGP: рождение отраслевого стандарта
- Что такое IOGP
- 2018: отчёт 621 — «Демистификация человеческого фактора»
- 2026: отчёт 810 — «Человеческая деятельность»
- Пять принципов — ядро отчёта 810
- Принцип 1: ошибки — это нормально
- Принцип 2: обвинения ничего не решают
- Принцип 3: контекст определяет поведение
- Принцип 4: обучение жизненно важно
- Принцип 5: то, как лидеры реагируют, имеет значение
- Точки интеграции — где меняется работа
- Проектирование: главное — чтобы человеку было удобно и безопасно
- Выполнение работ: инструменты, которые работают
- Обучение и улучшение: копаем вглубь
- Эпилог: что нам делать с этим знанием
Пролог: история про краны
Представьте себе обычный день. Вы приходите в офис, наливаете чашку кофе, идёте в переговорную. Ничего необычного. А теперь представьте, что краны горячей и холодной воды в вашем офисе сделаны одинаковыми — наощупь, по форме, по цвету. И однажды, задумавшись о важном совещании, вы включаете не тот кран и обжигаете руку.
Кто виноват?
Если вы ответили «я, надо быть внимательнее» — вы человек традиционной культуры безопасности. Если вы ответили «тот, кто спроектировал эти краны» — вы уже готовы к тому, о чём пойдет речь.
Эта простая дилемма — обжечься или не обжечься, на самом деле отражает 200-летнюю эволюцию мысли о том, как люди ошибаются и как сделать так, чтобы ошибки не стоили жизни. Эта статья — история о том, как нефтегазовая индустрия, одна из самых опасных в мире, училась задавать правильные вопросы.
Бихевиоризм: Великое упрощение
DuPont и рождение порядка
В 1802 году Элеутер Ирене Дюпон основал пороховую фабрику на берегах реки Брендивайн. Он строил производство самого опасного продукта своего времени, и у него был учитель — Антуан Лавуазье, великий химик, который возглавлял королевские пороховые заводы Франции. От Лавуазье Дюпон унаследовал простую истину:
«Мы должны стремиться понять опасности, с которыми живём».
Уже в первых планах завода Дюпон заложил принципы, которые сегодня назвали бы управлением рисками: минимально безопасные расстояния между зданиями, специальные конструкции, направляющие взрывную волну от людей, двойные предохранительные клапаны («потому что если используется только один, он может случайно засориться, и завод взорвётся»). В 1811 году появился первый свод правил безопасности.
DuPont создала систему. Но в центре этой системы всё еще был человек, который должен соблюдать правила.
1960-е: бихевиоризм выходит на заводы
К 1960-м годам DuPont сделала следующий шаг. Имея за плечами 150 лет опыта управления безопасностью, компания разработала программу STOP (Safety Training Observation Program). Суть была проста: супервайзеры наблюдают за работниками, отмечают безопасные и опасные действия, дают обратную связь. Это была первая системная попытка применить бихевиоризм — науку о поведении — к промышленной безопасности.
Это сработало. Травматизм пошёл вниз. Идея казалась гениальной: если мы научимся правильно вознаграждать безопасное поведение и корректировать опасное, мы сможем управлять безопасностью так же предсказуемо, как управляем производством.
1970-80-е: научное оформление Поведенческой Безопасности
В 1978 году психолог Джуди Комаки с коллегами опубликовала знаковое исследование в Journal of Applied Psychology. Впервые было строго экспериментально доказано: систематическое наблюдение и положительное подкрепление действительно снижают травматизм. Комаки заложила научный фундамент для того, что назовут Поведенческой Безопасностью (BBS).
В том же 1978 году вышла работа Бет Сульцер-Азарофф, которая исследовала использование обратной связи для выявления опасностей.
А в 1979 году два специалиста Procter & Gamble, Джин Эрнест и Джим Палмер — впервые предложили сам термин «Поведенческая безопасность».
В 1980-90-х годах Поведенческая безопасность начала победное шествие по миру. Томас Краузе применил прикладной анализ поведения на морской буровой платформе и написал книгу, ставшую практической библией BBS. Э. Скотт Геллер, профессор Вирджинского политеха, развил концепцию «активной заботы о людях». Дэн Петерсен интегрировал психологию, эргономику и менеджмент в целостный подход. К 1990-м годам BBS стала стандартом де-факто для прогрессивных компаний.
Всё было хорошо. Слишком хорошо.
Кризис: почему Поведенческая Безопасность перестала устраивать
Слепые зоны великого упрощения
К 2000-м годам накопилась критическая масса сомнений. Исследователи, профсоюзы и просто честные практики начали замечать трещины в монолите BBS.
Первое: обвинение жертвы. В статье «Обвиняя работника: Расцвет программ поведенческой безопасности (2000) Фредерик и Лессин писали, что BBS создаёт «атмосферу страха, где работники неохотно сообщают о травмах, боясь быть названными “небезопасным работником”». Система, задуманная как позитивная, превращалась в инструмент давления. Если наблюдение фокусируется только на действиях работника, игнорируя условия, вина за инцидент неизбежно ложится на него.
Второе: игнорирование системы. Терри Матис, основатель ProAct Safety, сформулировал проблему точно: «Многие подходы к изменению поведения работников не осознавали и не учитывали организационные влияния на поведение и просто пытались навязать изменения на уровне отдельного работника». Давление сроков, нехватка персонала, противоречивые процедуры, плохая эргономика — всё это оставалось за рамками анализа.
Третье: извращение мотивации. Бонусы за «безопасное поведение» или «отсутствие травм» приводили к парадоксальному эффекту — люди начинали скрывать инциденты, чтобы не лишать команду премии. Погоня за «хорошими цифрами» убивала возможность учиться на ошибках.
Стало ясно: фокусироваться только на поведении — всё равно что лечить симптом, игнорируя болезнь. Организационные факторы часто оказывались важнее индивидуального выбора. Нужен был новый взгляд, который не отбрасывал бы наследие BBS, но дополнял его пониманием контекста и системности.
2000-2010-е: голоса в пустыне
В 2000-х годах начали появляться работы, которые закладывали фундамент нового подхода. Сидни Деккер, Эрик Холлнагель, Тодд Конклин — эти имена стали ассоциироваться с «новым взглядом на безопасность» (New View of Safety). Они говорили, что человеческая ошибка — это не причина, а следствие. Что безопасность — это не отсутствие плохих событий, а способность системы справляться с неожиданностями. Что обвинение — это интеллектуальный тупик.
Но в отрасль, привыкшую к простым и понятным чек-листам BBS, эти идеи входили с трудом. Первоначальная реакция многих руководителей безопасности была резко негативной. Их воспринимали как «маргиналов – теоретиков», которые хотят отменить ответственность и разрешить людям ошибаться. Критика звучала так: «Вы что, предлагаете не наказывать нарушителей? Это приведёт к хаосу!».
Потребовалось время, чтобы донести простую мысль: речь не об отмене ответственности, а о том, чтобы возложить ответственность на тех, кто создаёт условия для работы.
Интеграция: как нефтегазовые гиганты строили мост
К началу 2010-х годов идеи «нового взгляда» начали проникать в корпоративную практику. Каждая из крупных компаний внесла свой уникальный вклад.
ExxonMobil: безопасный выбор и наука принятия решений
ExxonMobil пошла своим путём, сфокусировавшись на науке принятия решений. В 2015-2016 годах на строительной площадке проекта Hebron в Канаде была разработана программа Безопасный Выбор (Safe Choice).
Компания провела детальный анализ инцидентов и обнаружила удивительную вещь: хотя некоторые происшествия были связаны с решениями, принятыми в последний момент, многие стали результатом решений, принятых за дни, месяцы и даже годы до события. Руководители, планировщики, закупщики — все они своими решениями создавали контекст, в котором работникам переднего края приходилось рисковать.
ExxonMobil сместила акцент с абстрактного понятия «толерантность к риску» на качество решений, которые люди принимают каждый день. В программе использовались неожиданные методы обучения — например, «трюковой велосипед», где руль поворачивается не в ту сторону, чтобы наглядно показать, как трудно преодолевать когнитивные искажения простым усилием воли. Сотрудников знакомили с идеями Дэниела Канемана о «быстром и медленном мышлении», объясняя, что травмы часто случаются именно в режиме «быстрого», автоматического мышления.
Программа Safe Choice не только дала выдающиеся результаты на Hebron, но и была масштабирована глобально с философией «user-centered design» — вовлекая работников в адаптацию программы под местные нужды.
Shell: пять принципов обретают форму
Shell интегрировала принципы Человеческой Деятельности в свою систему управления безопасностью как минимум с начала 2020-х годов. В программных документах «Making Goal Zero Happen» и «Safety Refresh» эти принципы заняли центральное место.
В 2024 году на конференции SPE специалисты Shell (Shariq Abbasi, Fons Claessen, Robin Bryden) представили доклад, где прямо указали: «Принципы Человеческой Деятельности» (наряду с «Learner Mindset» и «Psychological Safety») находятся в самом сердце их подхода к безопасности.
Учебные курсы по Человеческой Деятельности для морской отрасли уже прямо указывали, что они «основаны на материалах Shell». Shell не просто использовала эти принципы — она активно делилась ими с партнёрами, создавая отраслевой стандарт.
BP: Марчин Назарук и системная интеграция
BP внесла свой вклад через работу Марчина Назарука (Marcin Nazaruk), занимавшего позицию ведущего советника по человеческой деятельности в BP (BP’s Upstream Human Performance Lead Adviser).
В 2018 году IOGP присудила Назаруку награду Outstanding Young Professional Award за его достижения в области безопасности и человеческого фактора. Как отметил исполнительный директор IOGP Гордон Баллард, «работа Марчина — это именно тот инновационный подход и нестандартное мышление, которые нужны нашему сектору, чтобы вывести управление рисками на новый уровень».
Философия Назарука точно отражала суть подхода Человеческой Деятельности:
«Безопасность — это фундаментальная ценность, и важно работать со всеми сторонами — лидерами, сотрудниками и подрядчиками — чтобы воплотить подход “человеческой деятельности” в жизнь. Признавая, что люди совершают ошибки, и изучая глубинные условия и системы, которые способствуют их возникновению, мы можем лучше проектировать установки и процессы, чтобы помогать снижать и управлять этими рисками».
Позже Назарук продолжил свою миссию в Baker Hughes, возглавляя Техническую секцию по человеческому фактору SPE и получив международную награду SPE HSE Award в 2022 году.
IOGP: рождение отраслевого стандарта
Что такое IOGP
IOGP (International Association of Oil & Gas Producers) — Международная ассоциация производителей нефти и газа — это глобальный форум, объединяющий нефтегазовые компании по всему миру. Основанная в 1974 году, ассоциация ставит своей целью продвижение передового опыта в области безопасности, охраны труда и окружающей среды.
Ключевая миссия IOGP — создание общего отраслевого языка и стандартов. Благодаря этой работе подрядчики, работающие с разными операторами в разных регионах, могут ссылаться на одни и те же принципы безопасности. Результаты впечатляют: с 1985 года, когда IOGP начала собирать данные по безопасности, уровень смертельного травматизма в отрасли снизился более чем на 90%.
2018: отчёт 621 — «Демистификация человеческого фактора»
В октябре 2018 года IOGP выпустила отчет 621 — «Demystifying Human Factors: Building confidence in human factors investigation» («Демистификация человеческого фактора: Повышение доверия к расследованиям человеческого фактора»).
Этот документ стал мостом между BBS и новым, системным подходом. Его задача была чётко сформулирована в названии: снять покров таинственности с человеческого фактора. До выхода этого отчёта многие специалисты боялись применять инструменты человеческого фактора в расследованиях, полагая, что это удел узких экспертов.
Ключевая идея отчёта 621: человеческая ошибка или нарушение — это не первопричина, а симптом более глубоких системных проблем в организации. Ошибка — это следствие условий, в которых работают люди: устаревшие процедуры, нехватка времени, плохая эргономика, неудобные инструменты. Это был прямой вызов традиционному BBS-подходу, который часто останавливался на констатации «небезопасного действия».
Отчёт 621 заложил фундамент. Он научил отрасль правильно расследовать инциденты, видеть за ошибкой человека системные провалы.
2026: отчёт 810 — «Человеческая деятельность»
В январе 2026 года Подкомитет по человеческому фактору Комитета по безопасности IOGP выпускает Отчёт 810 — «Человеческая деятельность» (Human Performance).
Этот отчёт является закономерным развитием идей, заложенных в отчёте 621. Если отчёт 621 был сфокусирован на том, как правильно расследовать ошибки, то отчёт 810 идёт дальше — он предлагает целостную систему того, как проектировать работу и управлять ею так, чтобы ошибок было меньше, а система была к ним устойчива.
Отчёт 810 аккумулировал 200-летний опыт DuPont, 50-летнюю научную традицию BBS, уроки критики обвинительного подхода и практическую апробацию в Shell, BP, ExxonMobil. Это зрелый документ, который предлагает отрасли не просто инструменты, а новую философию.
Вот как официальный сайт IOGP описывает этот документ:
«Этот отчёт отражает растущее понимание в нашей отрасли: достижение безопасности, надёжности и операционного совершенства требует фундаментального сдвига в том, как организации понимают и управляют ролью людей в сложных системах. Человеческая деятельность — это не краткосрочная инициатива или отдельная программа. Это новый способ мышления о том, как выполняется работа».
Пять принципов — ядро отчёта 810
В основе отчёта IOGP 810 лежат пять принципов, которые и составляют суть подхода Human Performance.
Принцип 1: ошибки — это нормально
Это не моральное оправдание халатности, а констатация факта, известного когнитивной психологии. Люди не могут работать как идеальные машины — на нас влияют усталость, стресс, сложность задачи и тысячи других факторов. Ошибка — это такой же продукт системы, как и правильно выполненная задача.
Ключевой вывод: если ошибка произошла, вопрос не в том, «кто это сделал», а в том, почему система позволила этому случиться. Если ваша система допускает ошибку ценой в миллиард рублей из-за одного неверного клика, значит, система спроектирована плохо.
Принцип 2: обвинения ничего не решают
Обвинение — это интеллектуальный тупик. Как только вы нашли виноватого, исследование прекращается. «Проблема решена, человека уволили». На самом деле обвинение — это главный враг обучения.
Когда в компании культура обвинения, люди молчат. Они не сообщают о «серых» зонах, о мелких неполадках, о том, что процедура не работает. Они боятся, что их же и обвинят. В результате организация слепнет, а риски растут.
Принцип 3: контекст определяет поведение
Почему умный, опытный сотрудник пошёл на риск? Ответ нужно искать не в его личности, а в контексте — в условиях работы.
Отчёт вводит понятие «ловушки ошибок»:
- Физические ловушки: тесно, шумно, темно, неудобная конструкция.
- Операционные ловушки: начальник сказал «сделай до вечера, иначе сорвём контракт», процедура написана сложно, никто её не понимает.
- Когнитивные ловушки: человек на 12-м часу смены, внимание притупилось.
Также важно понятие «операционные дилеммы» — ситуации, когда сотрудник оказывается между молотом и наковальней: хочешь безопасности — делай медленно, но тогда не выполнишь план. Создавая такие дилеммы, менеджмент сам провоцирует нарушения.
Принцип 4: обучение жизненно важно
Учиться нужно не только на катастрофах. Учиться нужно на нормальной работе. Отчёт вводит понятие Learning from Normal Work (LFNW) — «Извлечение уроков из нормальной работы».
Каждый день сотрудники совершают маленькие подвиги, чтобы работа была сделана. Они находят обходные пути, когда инструмент не подходит, договариваются, когда процедуры противоречат друг другу. Изучая этот «скрытый героизм», можно выявить слабые места системы и усилить их до того, как случится беда.
Принцип 5: то, как лидеры реагируют, имеет значение
Это клей, скрепляющий все четыре принципа. Сотрудники смотрят не на плакаты по безопасности, а на своего босса. Если после инцидента босс кричит и ищет виноватых, он убивает психологическую безопасность. Если он спрашивает: «Чему нас научила эта ситуация? Что мы можем улучшить в системе?» — он строит культуру доверия.
Shell называет это «learner mindset» — мышление ученика, а не судьи.
Точки интеграции — где меняется работа
Мало принять принципы, их нужно встроить в повседневность. Отчёт выделяет три ключевые точки интеграции.
Проектирование: главное — чтобы человеку было удобно и безопасно
Самый дешёвый способ предотвратить катастрофу — не создать условий для неё. Инжиниринг человеческого фактора (HFE) — это наука о том, как человек взаимодействует с машиной. Как должны быть расположены приборы, чтобы оператор не ошибся? Какая сигнализация не доведёт до нервного срыва?
Отчёт ссылается на предшественника — IOGP 454 — Инжиниринг Человеческого Фактора в проектах: проектируйте для людей, и они отплатят вам безопасностью.
Выполнение работ: инструменты, которые работают
- Предсменные совещания: диалог, где бригада обсуждает не только «что» делать, но и «какие ловушки» их поджидают
- Право остановить работы: реальная власть любого сотрудника остановить работу, если он видит риск, без страха наказания.
- Управление усталостью: работа на износ — прямая угроза безопасности.
Обучение и улучшение: копаем вглубь
Расследование инцидентов превращается в расследование системы. Вместо «Кто нажал?» — «Почему процедура позволила нажать? Почему защита не сработала?». Методология «Обучающих команд» (Learning Teams) приходит на смену карательным комиссиям.
Эпилог: что нам делать с этим знанием
Итак, мы прошли долгий путь. От пороховых мельниц XIX века, где безопасность обеспечивалась гранитными стенами и железными правилами. Через бихевиористскую революцию, научившую нас наблюдать за поведением и поощрять безопасные действия. Через горькие уроки критики, показавшей, что фокус только на поведении превращается в обвинение жертвы. К синтезу — пониманию, что человек вписан в систему, и менять нужно систему, а не только человека.
Отчёт IOGP 810 — это манифест. Он говорит нам: перестаньте искать виноватых. Начните искать причины. Проектируйте работу так, чтобы ошибка не приводила к катастрофе. Слушайте тех, кто делает работу — они знают о её ловушках больше, чем вы. И, самое главное, — реагируйте на ошибки с любопытством, а не с гневом.
Это трудно. Это требует мужества от лидеров — признать, что они не всё знают. Терпения от акционеров — результаты будут не завтра. Доверия от всех сотрудников.
Но альтернатива — система, которая учится только ценой крови. Где люди боятся начальника больше, чем взрыва. Где инциденты неизбежны, но о них молчат.
И помните: ошибки — это нормально. Ненормально — не учиться на них.
Эта статья основана на отчёте IOGP 810 «Человеческая деятельность» (январь 2026), а также на открытых источниках о развитии подходов к безопасности в нефтегазовой отрасли. Полный текст отчёта доступен на официальном сайте IOGP. Все права сохранены.


