ИИ в критической инфраструктуре: стандарты HSE, Ростехнадзор и формальная верификация промышленной безопасности
Внедрение систем искусственного интеллекта в контуры управления критической инфраструктурой представляет собой один из самых сложных инженерных, математических и нормативных вызовов современности. Критическая инфраструктура, охватывающая энергетику, системы водоснабжения, химическую промышленность, транспортные узлы и нефтегазовый сектор, исторически опиралась на строгий, математически доказуемый детерминизм. В этой среде каждое действие программируемого логического контроллера должно быть абсолютно предсказуемым и повторяемым.
Искусственный интеллект, напротив, имеет фундаментально вероятностную природу. Он оперирует эвристиками, скрытыми весами многослойных нейронных сетей и статистическими выводами, создавая беспрецедентный концептуальный конфликт. Ключевая проблема формулируется следующим образом: каким образом можно интегрировать технологический «черный ящик» с вероятностным поведением в экосистемы, требующие стопроцентной функциональной безопасности и работающие в режиме жесткого реального времени.
Данное исследование предлагает исчерпывающий диагностический анализ текущего состояния промышленной безопасности в эпоху машинного обучения. Анализ деконструирует этот конфликт на нескольких уровнях: от базовых архитектурных противоречий до эволюции глобальных нормативных баз. В исследовании подробно рассматриваются стандарты Управления по охране труда Великобритании, новые требования Европейского Союза, российская специфика в контексте Федерального закона № 187-ФЗ, а также передовые методы формальной верификации программного кода.
Главная цель отчета — перевести дискурс об искусственном интеллекте в промышленности из плоскости спекулятивных маркетинговых ожиданий в строгую инженерно-правовую парадигму, где безопасность является не абстрактной концепцией, а математически доказуемым свойством системной архитектуры.
Раздел 1. Мир промышленной безопасности: от жесткого детерминизма к эшелонированному управлению рисками
Фундаментальные основы функциональной безопасности и стандарт IEC 61508
Индустриальная безопасность базируется на концепции функциональной безопасности, которая является неотъемлемой частью общей безопасности любой сложной системы и напрямую зависит от правильного функционирования электрических, электронных и программируемых электронных элементов.1 Краеугольным камнем этой парадигмы на протяжении десятилетий выступает международный стандарт IEC 61508.3
Данный документ не просто задает правила написания кода, он определяет всеобъемлющий жизненный цикл безопасности и вводит критическое понятие уровней полноты безопасности (Safety Integrity Level, SIL) — дискретной шкалы от SIL 1 до SIL 4. Уровень SIL 4 представляет собой наивысший предел надежности, требуемый для управления процессами, отказ которых может привести к катастрофическим последствиям, масштабным экологическим бедствиям или массовым человеческим жертвам.3
Математическая и инженерная основа IEC 61508 заключается в бескомпромиссном управлении двумя типами сбоев: случайными аппаратными отказами (износ компонентов, воздействие радиации, температурные флуктуации) и систематическими ошибками проектирования (ошибки в архитектуре, дефекты в программном обеспечении).5 Для подтверждения соответствия стандарту требуется реализация жесткого процесса верификации и валидации, известного как V-модель.
Этот процесс включает архитектурное проектирование, модульное тестирование, статический анализ кода (с применением таких инструментов, как Coverity или Polyspace), а также проверки на моделях и доказательство теорем для математического подтверждения корректности работы системы до ее развертывания на реальном объекте.6 В традиционных системах промышленной автоматизации (ПЛК и SCADA) управляющая логика пишется на строго детерминированных языках, определенных стандартом IEC 61131-3, таких как Structured Text или Ladder Diagram.7
В таких архитектурах при одних и тех же входных данных конечный автомат всегда переходит в одно и то же состояние и формирует идентичный управляющий сигнал. Применение искусственного интеллекта, который может динамически изменять свои внутренние веса в процессе непрерывного обучения или генерировать новые, непредсказуемые состояния (галлюцинации), вступает в прямое и неразрешимое противоречие с требованиями детерминизма, заложенными в саму основу вычисления вероятности отказов для уровней SIL.8
Подход Управления по охране труда Великобритании (UK HSE)
На международной арене Управление по охране труда Великобритании (Health and Safety Executive, HSE) демонстрирует один из наиболее системных, взвешенных и адаптивных подходов к регулированию технологических сдвигов в промышленности. Законодательство Великобритании в области охраны труда, фундаментом которого является Закон о здоровье и безопасности на рабочем месте 1974 года, имеет ярко выраженный целеполагающий характер.9 Это означает, что нормативная база устанавливает конечные цели безопасности, которые должны быть достигнуты предприятием, но не предписывает жестко конкретные технологические методы их достижения. Такой подход обеспечивает юридическую гибкость и позволяет закону оставаться актуальным независимо от смены технологических укладов.
Согласно стратегическим отчетам и статистическим данным HSE на 2024–2026 годы, искусственный интеллект не рассматривается регулятором как отдельная, экзотическая категория риска, требующая формирования совершенно новой отрасли права. Напротив, он органично интегрируется в существующую многолетнюю концепцию оценки промышленных рисков.10 Ключевой юридический принцип заключается в том, что лица и организации, создающие или внедряющие риск (в данном случае — развертывающие нейросетевые алгоритмы на производстве), несут полную ответственность за управление им с использованием принципа ALARP (сведение риска к уровню, настолько низкому, насколько это разумно достижимо).9
Статистика HSE демонстрирует смещение фокуса промышленных угроз. Несмотря на снижение числа несчастных случаев со смертельным исходом (124 случая в 2024–2025 годах), общий уровень профессиональных заболеваний растет.12 Около 1,9 миллиона рабочих в Великобритании страдают от заболеваний, связанных с работой, из которых 964 тысячи случаев приходятся на стресс, депрессию и тревожность, а 511 тысяч — на нарушения опорно-двигательного аппарата.12
Общие экономические потери от травм и болезней оцениваются в 22,9 миллиарда фунтов стерлингов.12 В контексте внедрения искусственного интеллекта HSE акцентирует внимание на том, что алгоритмическое управление персоналом может усиливать психологическое давление на рабочих. Поэтому стратегические приоритеты HSE на 2026 год включают содействие безопасным инновациям, обязательную оценку кибербезопасности искусственного интеллекта (так как взлом алгоритма переводит киберугрозу в плоскость физического кинетического ущерба), а также обеспечение прозрачности систем алгоритмического мониторинга.9 Интеграция таких систем требует тщательного документирования и консультаций с рабочими коллективами перед их внедрением.11
Российская специфика: Ростехнадзор и Федеральный закон № 187-ФЗ
В Российской Федерации регулирование критической инфраструктуры исторически опирается на более прескриптивный (строго предписывающий) подход, ориентированный на выполнение детальных регламентов. В контексте цифровизации ключевым системообразующим документом является Федеральный закон от 26 июля 2017 года № 187-ФЗ «О безопасности критической информационной инфраструктуры Российской Федерации».3
Действие данного закона распространяется на стратегически важные объекты в сфере энергетики, топливно-энергетического комплекса, химической, атомной, металлургической и оборонной промышленности, а также на системы здравоохранения, транспорта и связи.3 Закон классифицирует объекты критической информационной инфраструктуры по категориям значимости и требует обязательного внедрения эшелонированных систем защиты информации, межсетевых экранов, систем обнаружения и предотвращения вторжений, а также строгих мер физической безопасности.14
Архитектурный подход, применяемый при реализации требований 187-ФЗ, особенно в сфере жилищно-коммунального хозяйства и энергетики, предполагает выделение четырех ключевых представлений инженерных систем: эксплуатационного (характеристики зданий и организаций), критического (регистрация инцидентов в реальном времени), аналитического (выявление паттернов и прогнозирование с использованием данных) и стратегического (глобальное планирование).18 В этом контексте активно продвигается концепция доверенных программно-аппаратных комплексов (ДПАК), гарантирующих целостность среды исполнения.18
В отличие от гибкого подхода британского HSE, Ростехнадзор и Федеральная служба по техническому и экспортному контролю пока не сформировали единого, исчерпывающего свода правил, регламентирующего непосредственно использование вероятностных моделей искусственного интеллекта в активном контуре управления опасными производственными объектами.3 Образовался определенный нормативный вакуум. Тем не менее, наблюдается четкая тенденция к глубокой цифровизации экологического и технологического контроля.
С 1 сентября 2025 года вступают в силу новые «Правила создания и эксплуатации системы автоматического контроля выбросов загрязняющих веществ», утвержденные Постановлением Правительства РФ № 779.19 Параллельно вводится в действие национальный стандарт ГОСТ Р 71981-2025 на предиктивные системы автоматического контроля выбросов.21 Этот шаг означает фактическую легализацию предиктивной аналитики (машинного обучения) в экологии и обеспечении безопасности промышленных объектов.
Однако базовая концепция промышленной безопасности в России остается предельно консервативной: любые системы машинного зрения, нейросетевого анализа данных или предиктивной аналитики могут функционировать исключительно в авангарде системы — в режиме «советчика» или монитора. Они не имеют юридического и технического права самостоятельно, без участия квалифицированного оператора или формально верифицированного шлюза, формировать управляющие команды для исполнительных механизмов (клапанов, насосов, турбин) на объектах критической инфраструктуры.3

Раздел 2. Столкновение парадигм: Искусственный интеллект против функциональной безопасности
Интеграция искусственного интеллекта в производственные процессы на современном этапе выявила ярко выраженную бинарную природу его применения. Когда алгоритм развертывается в качестве «советника», он экономит предприятиям сотни миллионов долларов и предотвращает катастрофические аварии.3 Однако попытка замкнуть контур и передать искусственному интеллекту право на автономное управление физическими процессами создает неприемлемые векторы риска, ломающие саму архитектуру функциональной безопасности.3
Эффективность ИИ в предиктивном обслуживании (Уровень советчика)
Исторически промышленные предприятия опирались на две базовые стратегии технического обслуживания: реактивную и профилактическую. Реактивная модель предполагает эксплуатацию оборудования до его физического отказа.22 В высоконагруженных отраслях, таких как химическая промышленность или нефтепереработка, эта стратегия ведет к разрушительным финансовым последствиям. Каждый час внепланового простоя крупного химического комплекса обнимается убытками порядка 100 000 долларов, а глобальные промышленные потери от непредвиденных отказов ежегодно исчисляются триллионами долларов.23 Профилактическая стратегия, основанная на плановых остановках и заменах узлов по жесткому календарному графику (независимо от их фактического износа), решает проблему внезапных поломок, но порождает колоссальную неэффективность в виде «чрезмерного обслуживания», преждевременной утилизации рабочих компонентов и перерасхода ресурсов.22
Предиктивное обслуживание, реализуемое на базе машинного обучения, представляет собой фундаментальный сдвиг парадигмы. Переход осуществляется от календарного планирования к науке, управляемой данными.22 Анализируя непрерывные потоки высокочастотной телеметрии — данные датчиков вибрации, температуры, акустических эмиссий, давления и скорости потока — нейронные сети способны выявлять тончайшие паттерны деградации материалов за недели и месяцы до физического разрушения узла.24 На предприятиях прецизионной металлообработки системы искусственного интеллекта фиксируют специфические вибрационные сигнатуры, указывающие на усталость металла в шпинделях фрезерных станков с числовым программным управлением.27 Это позволяет провести упреждающий ремонт и избежать внезапного разрушения шпинделя, которое могло бы привести к выбросу металлических осколков с баллистической скоростью на рабочем месте.27
В химической отрасли интеллектуальные мониторинговые платформы обнаруживают слабые сигналы, предвещающие заклинивание насосов, утечки через торцевые уплотнения или закоксовывание реакторов.23 Индустриальный искусственный интеллект выступает здесь в роли высокотехнологичного диагностического сканера, который переводит эксплуатацию из режима реактивного тушения пожаров в режим проактивного ухода за активами.22 При этом система не принимает решений за инженера; она предоставляет ему точный прогноз (например, «вероятность отказа подшипника в течение 48 часов составляет 92%»), оставляя право на остановку линии за человеком.
Не менее значимым является влияние искусственного интеллекта на выявление и анализ «потенциально опасных инцидентов» или «промахов» (near misses). В промышленной безопасности действует статистический закон: на каждую серьезную травму или фатальный исход приходятся сотни мелких происшествий и тысячи опасных действий.28 Интеграция алгоритмов компьютерного зрения и обработки естественного языка позволяет автоматизировать сбор и классификацию таких инцидентов. Алгоритмы извлекают данные из неструктурированных отчетов, записей о техническом обслуживании и видеопотоков с камер наблюдения на строительных площадках или в производственных цехах.29 Интеллектуальные системы связывают разрозненные факторы: усталость рабочих (вычисляемую на основе графиков смен), погодные условия, темпы производства и типы выполняемых операций, создавая предиктивные модели риска.27 Например, в горнодобывающей промышленности анализ сейсмических данных и вибраций оборудования позволил алгоритмам предсказывать обрушения горных пород за четыре часа до инцидента, что дало возможность безопасно эвакуировать персонал и снизить количество тяжелых инцидентов более чем вдвое.27 Дискурс в сфере охраны труда благодаря таким системам смещается с ретроспективного поиска виновных после аварии на проактивное управление вероятностями.32
Анатомия катастрофы: Искусственный интеллект в автономном контуре управления
Глубинный системный разрыв происходит в тот момент, когда аналитические выводы вероятностной нейронной сети напрямую, минуя формальную верификацию и надзор человека, транслируются в управляющие команды для исполнительных механизмов. Системы глубокого обучения обладают неустранимым недостатком — непрозрачностью логического вывода (эффект «черного ящика»). Они подвержены математическим галлюцинациям и критическим ошибкам классификации при столкновении с краевыми случаями (edge cases) — ситуациями, которые статистически не были представлены в обучающей выборке.
Хрестоматийным примером системного отказа автономной архитектуры является инцидент с беспилотным автомобилем Uber в Темпе (штат Аризона) в марте 2018 года.34 Система компьютерного зрения транспортного средства не смогла корректно классифицировать женщину, переходившую дорогу с велосипедом вне пешеходного перехода в темное время суток. Алгоритм, не имея в базе данных точного паттерна «пешеход, ведущий велосипед в неположенном месте», не инициировал экстренное торможение, что привело к фатальному исходу.34 Трагедия была многократно усугублена человеческим фактором: оператор безопасности, находившийся за рулем, излишне доверял автономной системе и отвлекся от дороги. Этот феномен в инженерной психологии получил название «предвзятость автоматизации» (automation bias) — тенденция операторов передоверять машинам критические функции, игнорируя собственный здравый смысл или противоречивые показания приборов.35
В военной и аэрокосмической инфраструктуре последствия предвзятости автоматизации иллюстрируются сравнением инцидентов с применением зенитно-ракетного комплекса Patriot и корабельной боевой информационной управляющей системы AEGIS.35 Из-за особенностей организационных протоколов, доктрин обучения и интерфейсов систем, операторы Patriot в боевой обстановке демонстрировали чрезмерное доверие решениям автоматики, что в нескольких случаях привело к поражению дружественных самолетов. Анализ этих прецедентов убедительно доказывает, что само по себе наличие человека «в контуре» (human-in-the-loop) не является абсолютной гарантией безопасности.34 Если скорость принятия решений алгоритмом или сложность анализируемой среды превышают когнитивные возможности оператора по верификации этих решений, человек превращается из контролирующего звена в пассивного наблюдателя.
Применение полностью автономных контуров на опасных промышленных объектах сопряжено с неприемлемыми рисками. Рассмотрим масштабные эксперименты корпорации Yokogawa по внедрению автономного искусственного интеллекта на симуляторе завода FKDPP (установка по производству химических компонентов).36 Процесс требовал управления четырьмя клапанами на основе данных с девяти датчиков для максимизации выпуска продукции при жестком соблюдении температурных режимов и стандартов качества.36 Хотя алгоритм смог оптимизировать процесс за 30 циклов обучения на симуляторе, перенос такой системы в реальный мир сталкивается с суровой физической реальностью. В химической промышленности динамика реакторов нелинейна, свойства сырья варьируются, а объекты обладают колоссальной тепловой инерцией.36 Ошибка алгоритма на химическом заводе — это не зависание приложения, а разрыв трубопровода высокого давления, неконтролируемая экзотермическая реакция, выброс токсичных газов (аммиака, хлора, цианистого водорода) и масштабная экологическая катастрофа.39 Искусственный интеллект, стремясь к математически выверенной «оптимизации» энергопотребления, может легко сгенерировать управляющий вектор, который нарушит физические пределы прочности металла устаревшего трубопровода. С точки зрения жестких стандартов IEC 61508 подобная непредсказуемость абсолютно недопустима.1
Раздел 3. Формирующийся нормативный ландшафт (2024–2026)
Осознание мировым техническим сообществом масштабов экзистенциальной угрозы, исходящей от неконтролируемого внедрения алгоритмов машинного обучения в физический мир, спровоцировало беспрецедентную по скорости эволюцию международных стандартов и нормативных актов. Регуляторы стремятся создать правовой и инженерный каркас для укрощения вероятностной природы искусственного интеллекта.
Ключевые нормативные акты формируют многоуровневую систему требований, дифференцированных по степени риска. Таблица ниже систематизирует наиболее значимые стандарты, вступившие в силу или обновленные в период с 2024 по 2027 год, иллюстрируя переход от классического управления аппаратными отказами к регулированию алгоритмической логики.
Стандарт / Нормативный акт | Год / Статус | Основной фокус | Область применения | Влияние на критическую инфраструктуру (КИИ) |
|---|---|---|---|---|
IEC 61508 3 | Действующий (базовый) | Управление случайными аппаратными отказами и систематическими ошибками кода. Определение уровней SIL. | Промышленная автоматизация, электроника, ПЛК, SCADA. | Фундаментальный барьер. Запрещает использование вероятностных систем (ИИ) в автономных контурах управления без математической доказуемости. |
Закон ЕС об ИИ (EU AI Act) 41 | Вступил в силу в августе 2024 г. Полное применение к 2026-2027 гг. | Риск-ориентированный подход. Запрет неприемлемых рисков, жесткое регулирование «высокого риска». | Все системы ИИ, развертываемые на территории Европейского Союза. | ИИ в компонентах безопасности КИИ классифицируется как «Высокий риск». Требует прозрачности, аудита данных, интерпретируемости и контроля со стороны человека. |
ISO 21448 (SOTIF) 5 | Обновляется/Адаптируется | Безопасность предполагаемой функциональности. Борьба с функциональной недостаточностью без аппаратных сбоев. | Автономные транспортные средства, робототехника, тяжелое машиностроение. | Требует доказательств безопасности при непредсказуемом поведении среды или алгоритмических ошибках (например, сбоях компьютерного зрения). |
ISO/PAS 8800 45 | Опубликован в декабре 2024 г. | Синтез требований безопасности (ISO 26262 и SOTIF) специально для функционала на базе ИИ. | Системы, критичные к безопасности, использующие машинное обучение. | Внедряет двухуровневый анализ (на уровне всей системы и на уровне компонентов ИИ) с использованием методов оценки системных рисков (STPA). |
NIST AI RMF (версия 2025) 46 | Обновлен в 2025 г. | Управление специфическими угрозами ИИ: отравление данных, атаки уклонения, безопасность генеративного ИИ. | Глобальная рекомендательная структура для всех разработчиков и пользователей ИИ. | Требует внедрения Спецификации материалов ИИ (AI-BOM) для контроля цепочек поставок и разграничения ответственности в гибридных системах. |
Анализ Закона ЕС об искусственном интеллекте показывает, что европейский законодатель выбрал путь жесткой превентивной регуляции. Системы, предназначенные для использования в качестве компонентов безопасности в управлении дорожным движением, водоснабжением, газоснабжением и электросетями, прямо занесены в Приложение III как «системы высокого риска».43 Провайдеры обязаны внедрить всеобъемлющие системы управления качеством, гарантировать репрезентативность и отсутствие предвзятости в обучающих наборах данных, а также обеспечить архитектурную прозрачность (интерпретируемость), позволяющую людям понимать, как алгоритм пришел к конкретному выводу.43
Параллельно инженерное сообщество смещает фокус в области стандартизации. Долгое время стандарты функциональной безопасности фокусировались исключительно на минимизации аппаратных сбоев. Однако внедрение алгоритмов показало, что автономная система может отработать математически безупречно (датчики целы, процессор работает), но при этом принять решение, ведущее к катастрофе. Для закрытия этой бреши был разработан стандарт ISO 21448 (SOTIF), который фокусируется на опасностях, возникающих из-за функциональной недостаточности самой алгоритмической модели или предсказуемого неправильного использования людьми.5 Логическим продолжением стал стандарт ISO/PAS 8800 (опубликован в декабре 2024 года), который специфицирует требования непосредственно к компонентам на базе ИИ, требуя анализа рисков как на макроуровне (вся система), так и на микроуровне (отдельная нейросеть) с использованием системно-теоретического анализа процессов (STPA).45 Национальные институты, такие как NIST в США, в обновлениях 2025 года усилили контроль за кибербезопасностью моделей, требуя защиты от отравления обучающих выборок и внедрения механизмов контроля цепочек поставок ИИ.46
Раздел 4. Стратегические рекомендации: гибридные архитектуры и формальная верификация
Прямое использование больших языковых моделей (LLM) или нейронных сетей для автономного программирования контроллеров или непосредственного управления процессами представляет собой экзистенциальный риск. Тем не менее, полный отказ от внедрения искусственного интеллекта лишает промышленность беспрецедентного потенциала макроэкономической оптимизации. Технологический консенсус, формируемый индустриальными гигантами (Siemens, Schneider Electric, ABB), заключается в переходе к строгим гибридным архитектурам и обязательном внедрении математической формальной верификации программного кода.
Архитектура эшелонированной защиты и разделение ответственности
Стратегия гибридной архитектуры базируется на жестком разделении функциональных обязанностей вычислительных систем согласно классической модели ISA-95.54 Вероятностные модели искусственного интеллекта развертываются исключительно на верхних уровнях иерархии: Уровень 3 (Системы управления производственными процессами — MES) и Уровень 4 (Планирование ресурсов предприятия — ERP, облачные платформы). На этих уровнях ИИ выступает в роли сверхмощного аналитического ядра: он строит физически точные цифровые двойники предприятий, симулирует производственные циклы и генерирует рекомендации для операторов в формате систем-суфлеров (Copilots).3 Компания ABB, например, успешно интегрирует библиотеки NVIDIA Omniverse в свои программные комплексы для преодоления барьера между виртуальным обучением алгоритмов и их реальным внедрением, достигая высочайшей точности симуляций.57 Компания Siemens активно внедряет специализированные сопроцессоры обработки данных (DPU) для изоляции аналитических потоков ИИ от контуров управления, обеспечивая сетевую архитектуру нулевого доверия (zero-trust).58
Принципиально важно, что Уровень 1 (непосредственно ПЛК) и Уровень 2 (SCADA), образующие детерминированный контур реального времени, остаются полностью защищенными логическим «воздушным зазором» или специализированным шлюзом безопасности. Любая оптимизационная уставка, рассчитанная ИИ в облаке (например, рекомендация повысить температуру в реакторе на 2 градуса для экономии топлива), перед попаданием на исполнительные механизмы должна пройти валидацию через жестко закодированную, математически доказуемую логику ПЛК. Контроллер физически не позволит выполнить команду, если она нарушает предельно допустимые давления, скорости или температурные диапазоны, гарантируя соблюдение стандартов функциональной безопасности.3
Интеграция LLM в разработку ПЛК: потребность в формальной верификации
В последние годы большие языковые модели продемонстрировали выдающиеся способности в генерации исходного кода, в том числе на специфическом для промышленной автоматизации языке Structured Text. Однако использование такого кода в АСУ ТП «как есть» недопустимо, поскольку LLM не предоставляют никаких гарантий безошибочности и часто генерируют структурно несовершенный или логически ошибочный синтаксис.7 Чтобы преодолеть этот барьер надежности, академические исследователи и инженеры разработали многоагентные замкнутые контуры разработки и верификации.
Передовым примером такого подхода является концептуальный фреймворк Agents4PLC. Данная система автоматизирует не только генерацию кода для ПЛК, но и его комплексную проверку на уровне исполнения, исключая человеческий фактор.7 Архитектура Agents4PLC включает оркестрацию нескольких специализированных интеллектуальных агентов, усиленных методами генерации с дополненной выборкой (RAG) и цепочками рассуждений (Chain-of-Thought) 7:
- Агент проверки синтаксиса: Фокусируется на базовой исполнимости кода. Он использует мощные промышленные трансляторы и компиляторы (такие как MATIEC с открытым исходным кодом или современные индустриальные решения на базе LLVM, например RuSTy), чтобы гарантировать полное соответствие сгенерированного текста жесткому стандарту IEC 61131-3.7
- Агент функциональной верификации: Это ядро безопасности всей гибридной системы. Вместо того чтобы полагаться на субъективную способность нейросети оценивать саму себя, этот агент передает код внешним, строго детерминированным математическим инструментам — символьным моделлерам (Symbolic Model Checkers), таким как nuXmv или специализированная платформа PLCverif.7
- Агент отладки (Debugging Agent): Формирует контур обратной связи. Если решатель nuXmv математически доказывает, что код может привести к запрещенному состоянию, агент отладки анализирует сгенерированный контрпример и отправляет генератору новые инструкции для исправления логики. Процесс рекурсивно повторяется до тех пор, пока формальная верификация не выдаст математическое доказательство абсолютной надежности программы.7
Формальные методы как абсолютный математический гарант
Формальная верификация — это метод математического доказательства того, что программное обеспечение или аппаратура полностью соответствует своей спецификации. В отличие от традиционного модульного тестирования, которое способно проверить лишь ограниченный, конечный набор заранее придуманных сценариев (и неизбежно пропускает скрытые уязвимости), методы проверки моделей (Model Checking) исчерпывающе исследуют все возможные состояния конечного автомата (Finite State Machine). Этот метод математически гарантирует отсутствие «мертвых зон», тупиковых ветвлений или неучтенных комбинаций входных сигналов в логике контроллера.6
Сложность применения формальных методов исторически заключалась в так называемом «взрыве пространства состояний» (state space explosion) и необходимости глубоких математических знаний от рядовых инженеров.63 Однако развитие современных решателей выполнимости (SMT-solvers) в инструментах наподобие Dafny или программных комплексах от компании Prover позволило автоматизировать процессы доказательства теорем.64 Успешность такого подхода подтверждена на сложнейших объектах критической инфраструктуры. В частности, совместное исследование, проведенное в 2025 году Европейской организацией по ядерным исследованиям (CERN) и Центром по изучению тяжелых ионов (GSI), доказало высочайшую эффективность концепции «Формальная верификация как сервис» (Formal Verification as a Service) для обеспечения безаварийной работы уникальных научных установок и ускорителей элементарных частиц, требующих соответствия стандартам, аналогичным IEC 61508 и IEC 61511.66
Интеграция больших языковых моделей в процесс формальной верификации (где вероятностный ИИ креативно синтезирует программный код, а детерминированный SMT-решатель строго и беспристрастно доказывает его корректность) представляет собой идеальный технологический симбиоз. Такая архитектура обеспечивает непревзойденную скорость разработки алгоритмов управления без малейших компромиссов в области абсолютной промышленной безопасности.7

Раздел 5. Горизонт 2027–2030: новые организационные роли и конвергенция
По мере того как технологии искусственного интеллекта переходят от стадии фрагментарных пилотных проектов к этапу глобального масштабирования (макроэкономические модели прогнозируют, что к 2030 году ИИ создаст в промышленном секторе добавленную стоимость порядка 1 триллиона долларов 38), нормативная среда и корпоративные структуры управления неизбежно претерпят кардинальные, системные изменения.
Конвергенция стандартов и гармонизация практик Ростехнадзора
Ожидается, что в среднесрочной перспективе с 2027 по 2030 год фрагментированные инициативы, такие как стандарты серии SOTIF, паспорта безопасности оборудования ЕС и структуры NIST RMF, начнут интегрироваться в единые, взаимно признаваемые на глобальном уровне механизмы сертификации критических систем. В контексте российской инфраструктуры, регуляторы в лице Ростехнадзора и ФСТЭК неизбежно столкнутся с острой необходимостью создания национальных метрологических полигонов для объективной сертификации и тестирования алгоритмов машинного обучения. Отказ от быстрой адаптации международных инженерных практик, в частности, методов математического и системного моделирования функциональной безопасности (подобных тем, что описаны в ISO/PAS 8800), может привести к системному технологическому отставанию в стратегически важных отраслях. Прогнозируется разработка и принятие отечественных нормативных актов, легализующих использование предиктивного искусственного интеллекта на архитектурном Уровне 3 с обязательным внедрением сертифицированных криптографических и верификационных барьеров на базе доверенных программно-аппаратных комплексов (ДПАК).18
Эволюция кадрового состава: Офицер по рискам ИИ (AI Safety Officer)
Одним из наиболее значимых и видимых организационных изменений ближайших лет станет повсеместная институционализация принципиально новой руководящей роли — Офицера по рискам искусственного интеллекта (AI Risk Officer) или Офицера по безопасности ИИ.3 Возникновение этой должности напрямую продиктовано требованиями новейшего международного стандарта ISO/IEC 42001, регламентирующего построение систем менеджмента искусственного интеллекта (AIMS) в корпоративном секторе.71
В отличие от традиционных специалистов по технике безопасности или инженеров по комплаенсу, Офицер по рискам ИИ обязан обладать уникальным набором компетенций на стыке прикладного дата-сайенса, кибербезопасности, системной инженерии и промышленного права. Согласно методологии ISO 42001, в прямые обязанности данного специалиста входит:
- Непрерывный мониторинг и управление рисками: Идентификация, оценка и минимизация специфических для нейросетей угроз на протяжении всего жизненного цикла развернутого алгоритма, начиная от проектирования архитектуры данных и заканчивая выводом системы из эксплуатации.70
- Противодействие дрейфу данных (Ontology Drift): Математические модели не статичны; они неизбежно деградируют с течением времени из-за микроскопических изменений физических параметров завода (естественный износ насосов, сезонная смена химического состава сырья, колебания температуры окружающей среды). Офицер обязан с помощью контрольных метрик отслеживать этот дрейф данных и инициировать процедуру дообучения или калибровки нейросети задолго до того, как ее предсказания выйдут за пределы допустимой погрешности и станут потенциально опасными.75
- Обеспечение аудита и интерпретируемости (Explainability): Гарантия того, что решения, принимаемые искусственным интеллектом, не являются «черным ящиком». Специалист должен обеспечить наличие инструментов, позволяющих независимым комиссиям по расследованию промышленных инцидентов однозначно интерпретировать логику срабатывания алгоритмов в любой заданный момент времени в прошлом.70
Осознавая грядущий дефицит кадров, крупнейшие международные сертификационные центры (включая BSI и UL Solutions) и профильные образовательные консорциумы уже запустили специализированные сертификационные программы подготовки специалистов по безопасности ИИ, адаптированные для тяжелой промышленности.10 Прогнозируется, что к концу десятилетия наличие в штатном расписании сертифицированного Офицера по безопасности ИИ станет обязательным лицензионным условием для функционирования любых производственных предприятий, эксплуатирующих объекты критической инфраструктуры и подпадающих под действие национальных законов (подобных 187-ФЗ) или международных директив.
Выводы
Масштабная интеграция искусственного интеллекта в экосистему критической инфраструктуры является необратимым макроэкономическим трендом, однако этот процесс не отменяет фундаментальных законов физики, термодинамики и базовых принципов инженерии надежности. Данное исследование неопровержимо доказывает, что концептуальное противоречие между вероятностной природой машинного обучения и строгими, детерминированными стандартами функциональной безопасности (такими как IEC 61508) может быть успешно разрешено исключительно инженерными методами. Решение лежит не в плоскости слепого, некритичного доверия к генеративным алгоритмам, а в построении многослойной, эшелонированной архитектуры безопасности. В такой архитектуре искусственный интеллект ограничен рамками высокопроизводительного аналитического сенсора (советника оператора), а любые попытки автоматизации написания исполнительного управляющего кода жестко и бескомпромиссно лимитируются методами формальной математической верификации, гарантирующими проверку каждого бита логики до его компиляции в контроллер. Передовая тяжелая промышленность горизонта 2027–2030 годов будет характеризоваться не тотальной заменой квалифицированных инженеров нейросетями, а мощным технологическим симбиозом. В этой новой парадигме искусственный интеллект решает задачи оптимизации сложнейших нелинейных многомерных процессов, формальная математическая логика SMT-решателей обеспечивает абсолютную гарантию безопасности исполнения на физическом уровне, а компетентный Офицер по безопасности ИИ управляет всем жизненным циклом этого интеллектуального контура, опираясь на передовые международные стандарты.
Часто задаваемые вопросы (FAQ)
Вопрос 1: Допускают ли требования стандарта IEC 61508 прямое внедрение систем искусственного интеллекта для автономного управления критическими физическими процессами (соответствующими высоким уровням целостности безопасности SIL 3/4)?
Ответ: Категорически нет. Архитектура стандарта IEC 61508 базируется на требованиях абсолютного детерминизма, предсказуемости и прозрачности логики для предотвращения систематических аппаратных и программных отказов. Фундаментально вероятностная природа нейронных сетей (отсутствие стопроцентных гарантий воспроизводимости результата при получении идентичных входных данных в ситуациях скрытых изменений весов или краевых аномалий) делает их технически и юридически несовместимыми с прямым управлением на уровнях SIL 3/4 без внедрения дополнительных, строго детерминированных аппаратных или программных барьеров.
Вопрос 2: Каким образом технология формальной верификации решает критическую проблему использования больших языковых моделей (LLM) для автоматической генерации программного кода ПЛК?
Ответ: Многоагентные системы генерации, применяющие методы формальной верификации (подобные фреймворку Agents4PLC), не доверяют исходному коду, написанному нейросетью. Сгенерированный алгоритм, например на языке Structured Text, транслируется в строгую математическую модель, которая подвергается всесторонней проверке с помощью SMT-решателей (символьных моделлеров, таких как nuXmv или PLCverif). Инструмент перебирает миллионы возможных состояний конечного автомата (Model Checking), чтобы математически доказать отсутствие сценариев нарушения спецификаций безопасности. В случае выявления логической ошибки или тупика, искусственный интеллект получает точный контрпример для немедленного исправления кода. Программа не переносится в контроллер до успешного завершения математического доказательства.
Вопрос 3: В чем заключается концепция стандарта SOTIF (ISO 21448) и почему он приобрел критическую важность именно в эпоху развития ИИ?
Ответ: Традиционные промышленные стандарты (включая автомобильный ISO 26262 или базовый IEC 61508) направлены исключительно на борьбу с техническими сбоями и поломками комплектующих (например, перегорание процессора, короткое замыкание датчика). Однако внедрение алгоритмов показало, что автономная интеллектуальная система может работать абсолютно без аппаратных сбоев, но при этом сформировать фатальное решение из-за функциональной недостаточности самой модели (например, камеры автопилота ослеплены низким солнцем, и алгоритм не классифицировал препятствие). SOTIF (Безопасность предполагаемой функциональности) регулирует именно безопасность сложной алгоритмической функции при полном отсутствии сбоев оборудования, требуя исчерпывающих доказательств того, что система безопасно справится с разумно прогнозируемым непредвиденным использованием или краевыми изменениями среды.
Вопрос 4: Как вступление в силу Закона ЕС об ИИ (EU AI Act) практически повлияет на сектор промышленной автоматизации и инжиниринга?
Ответ: Любые ИИ-системы, проектируемые для применения в качестве компонентов безопасности в контурах управления критической цифровой и физической инфраструктурой (сети водоснабжения, газопроводы, электроэнергетика, управление транспортом), жестко классифицированы в Приложении III Закона как «системы высокого риска». К моменту полного внедрения требований (в 2026-2027 годах) разработчики и системные интеграторы будут обязаны на юридическом уровне внедрить сертифицированные системы управления рисками, вести непрерывное детальное логирование процессов, обеспечивать идеальное качество и репрезентативность обучающих выборок данных, а главное — гарантировать архитектурную интерпретируемость (прозрачность) работы алгоритмов для государственного аудита.
Вопрос 5: Может ли внедрение системы предиктивного обслуживания (Predictive Maintenance) на промышленном предприятии само по себе спровоцировать техногенную аварию?
Ответ: Изолированно — нет, при условии, что она строго ограничена функционалом «советчика». Если искусственный интеллект анализирует спектр вибрации крупнотоннажного насоса и сигнализирует оператору о 90-процентной вероятности разрушения торцевого уплотнения через две недели, дополнительный риск не создается. Системная опасность возникает в двух сценариях: во-первых, если алгоритм наделяется исполнительными полномочиями автономно изменять режим работы физического процесса (например, самостоятельно перекрывать задвижки на трубопроводе высокого давления); во-вторых, если оператор смены становится жертвой психологического феномена «предвзятости автоматизации», начиная игнорировать тревожные сигналы классической детерминированной SCADA-системы в угоду ложно-оптимистичному прогнозу от нейросети.
Вопрос 6: Какие принципиальные новшества содержит обновленная в 2025 году структура NIST AI Risk Management Framework, актуальные для промышленности?
Ответ: Реагируя на экспоненциальный рост возможностей больших языковых моделей и генеративного ИИ, институт NIST существенно расширил базовую таксономию технологических угроз. В структуру управления рисками были включены специфические векторы кибератак, нацеленные исключительно на машинное обучение, такие как целенаправленное «отравление» массивов обучающих данных (poisoning attacks) и атаки уклонения (evasion attacks). Наиболее значимым операционным нововведением для индустриального сектора стало жесткое требование к прозрачности цепочек поставок нейросетевых решений с обязательным внедрением AI-BOM (Спецификации материалов искусственного интеллекта), что обязывает корпорации детально документировать происхождение, архитектуру и уязвимости всех сторонних ИИ-компонентов, развернутых в контуре завода.
Вопрос 7: Какова роль Офицера по безопасности ИИ (AI Safety Officer) и почему эта должность становится необходимой на современных предприятиях?
Ответ: Офицер по безопасности ИИ — это новая высокоуровневая руководящая позиция, необходимость которой институционализирована международным стандартом построения систем менеджмента ИИ ISO/IEC 42001. В отличие от традиционного главного инженера или специалиста по охране труда, данный руководитель сфокусирован на отслеживании неочевидных рисков машинного обучения на всем его длительном жизненном цикле. Ключевые метрики контроля включают оценку дрейфа онтологических данных (когда ИИ начинает выдавать ошибочные предсказания из-за изменения характеристик изношенного оборудования, на которых он не обучался), минимизацию алгоритмической предвзятости, обеспечение киберустойчивости нейросетей от вмешательства извне и поддержание уровня интерпретируемости решений. В условиях тотальной цифровизации наличие сертифицированного AI Safety Officer становится базовым требованием для безопасной эксплуатации высокотехнологичных производств.
Связанные материалы
Для системного и более глубокого погружения в узкоспециализированные технические, математические и правовые аспекты архитектурной разработки безопасных промышленных интеллектуальных систем рекомендуем ознакомиться с нашими предыдущими аналитическими исследованиями в данной серии:
- Long-read #1: Архитектура формальной верификации — Автоматы (FSM) и Линейная темпоральная логика (LTL) в промышленном программировании высокой надежности.
- Long-read #3: Регуляторная гильотина Европы — Глубокий разбор структуры EU AI Act и его долгосрочных последствий для глобальных разработчиков и интеграторов.
- Long-read #6: Искусственный интеллект и Право — Юридическая ответственность, распределение рисков и страхование при катастрофических сбоях автономных систем на производстве.
- Long-read #7: Уроки смежных высокотехнологичных отраслей — Машинное обучение в имплантируемых медицинских устройствах высшего класса риска (анализ протоколов жесткой сертификации FDA и CE).
Источники
Using the Power of AI to Make Factories Safer | NVIDIA Technical Blog, дата последнего обращения: мая 5, 2026, https://developer.nvidia.com/blog/using-the-power-of-ai-to-make-factories-safer/
IEC and ISO launch working group to advance functional safety of AI systems, дата последнего обращения: мая 5, 2026, https://www.iec.ch/blog/iec-and-iso-launch-working-group-advance-functional-safety-ai-systems
21-promt-tema-8-kriticheskaya-infrastruktura.md
IEC 61508 Overview: The Complete Guide for Functional Safety in Industrial Manufacturing, дата последнего обращения: мая 5, 2026, https://www.jamasoftware.com/ebook/iec-61508-complete-guide-to-functional-safety-in-industrial-manufacturing/
The Necessity of a Holistic Safety Evaluation Framework for AI-Based Automation Features, дата последнего обращения: мая 5, 2026, https://arxiv.org/html/2602.05157v2
IEC 61508: The Standard for Functional Safety from Concept to Operation — Promwad, дата последнего обращения: мая 5, 2026, https://promwad.com/news/iec-61508-standard
Agents4PLC: Automating Closed-loop PLC Code Generation … — arXiv, дата последнего обращения: мая 5, 2026, https://arxiv.org/abs/2410.14209
The Application of Artificial Intelligence in Functional Safety — IET Electrical, дата последнего обращения: мая 5, 2026, https://electrical.theiet.org/media/ifbjt25i/the-application-of-artificial-intelligence-in-functional-safety-v9.pdf
HSE’s regulatory approach to Artificial Intelligence (AI) – News, дата последнего обращения: мая 5, 2026, https://www.hse.gov.uk/news/hse-ai.htm
HSE outlines regulatory approach to workplace AI | News, дата последнего обращения: мая 5, 2026, https://www.hse-network.com/a-look-at-the-hses-regulatory-approach-to-artificial-intelligence-ai/
AI in Health & Safety: Complete Guide 2026 | Arinite, дата последнего обращения: мая 5, 2026, https://www.arinite.com/blog/how-artificial-intelligence-is-transforming-health-and-safety-at-work
What the latest workplace safety statistics mean — Notify Technology, дата последнего обращения: мая 5, 2026, https://www.notifytechnology.com/2025-workplace-safety-statistics-hse-insights-and-notify-impact/
HSE Annual Statistics and Report 2025: Trends and Strategic Priorities for 2026, дата последнего обращения: мая 5, 2026, https://www.dacbeachcroft.com/en/What-we-think/HSE-Annual-Statistics-and-Report-2025-Trends-and-Strategic-Priorities-for-2026
CII Protection, дата последнего обращения: мая 5, 2026, https://satel.ru/en/integration/cii-protection/
federal law of the russian federation — CIS Legislation, дата последнего обращения: мая 5, 2026, https://cis-legislation.com/document.fwx?rgn=98928
On the Security of the Critical Information Infrastructure of the Russian Federation, дата последнего обращения: мая 5, 2026, https://www.prlib.ru/en/node/692141
New legislation regulating cyber security and the internet in Russia (English), дата последнего обращения: мая 5, 2026, https://www.cliffordchance.com/briefings/2017/10/new_legislation_regulatingcybersecurityandth.html
Security of critical information infrastructure of the Russian Federation — TAdviser, дата последнего обращения: мая 5, 2026, https://tadviser.com/index.php/Article:Security_of_critical_information_infrastructure_of_the_Russian_Federation
С 1 сентября 2025 года устанавливаются новые Правила создания и эксплуатации системы автоматического контроля выбросов и (или) сбросов загрязняющих веществ — КонсультантПлюс, дата последнего обращения: мая 5, 2026, https://www.consultant.ru/law/hotdocs/89459.html
С 1 сентября 2025 года действуют новые правила создания и эксплуатации системы автоматического контроля выбросов и (или) сбросов загрязняющих веществ, дата последнего обращения: мая 5, 2026, https://info.cntd.ru/news/read/s-1-sentyabrya-2025-goda-deystvuut-novye-pravila-sozdaniya-i-kspluatacii-sistemy-avtomaticheskogo-kontrolya-vybrosov-i-ili-sbrosov-zagryaznyauschih-veschestv
Скачать ГОСТ Р 71981-2025 Системы автоматического контроля выбросов и сбр, дата последнего обращения: мая 5, 2026, https://files.stroyinf.ru/Data/857/85789.pdf
The Role of AI in Predictive Maintenance — IBM, дата последнего обращения: мая 5, 2026, https://www.ibm.com/think/insights/ai-in-predictive-maintenance
Common Challenges Solved by AI in Chemical Manufacturing — Imubit, дата последнего обращения: мая 5, 2026, https://imubit.com/articles/ai-in-chemical-manufacturing
Using AI in Predictive Maintenance | Deloitte US, дата последнего обращения: мая 5, 2026, https://www.deloitte.com/us/en/what-we-do/capabilities/applied-artificial-intelligence/articles/using-ai-in-predictive-maintenance.html
(PDF) AI-Driven Predictive Maintenance for Identifying Failure-Prone Components in Industrial Equipment — ResearchGate, дата последнего обращения: мая 5, 2026, https://www.researchgate.net/publication/404101845_AI-Driven_Predictive_Maintenance_for_Identifying_Failure-Prone_Components_in_Industrial_Equipment
Reliable Industrial Robots with AI — Enhancing Fail-Safe Operations with Predictive Maintenance | RoboticsTomorrow, дата последнего обращения: мая 5, 2026, https://www.roboticstomorrow.com/story/2024/10/reliable-industrial-robots-with-ai-enhancing-fail-safe-operations-with-predictive-maintenance/23346/
How Artificial Intelligence Is Reshaping Occupational Health and Safety, дата последнего обращения: мая 5, 2026, https://ohsonline.com/articles/2025/12/22/how-artificial-intelligence-is-reshaping-occupational-health-and-safety.aspx?Page=3
Near Miss Reporting: How Accident Analysis Improves Workplace Safety, дата последнего обращения: мая 5, 2026, https://www.industrialsafetyrescue.com/near-miss-reporting-accident-analysis/
AI-Powered MIS for Risk Detection in Industrial Engineering Projects — TechRxiv, дата последнего обращения: мая 5, 2026, https://www.techrxiv.org/doi/pdf/10.36227/techrxiv.175825736.65590627
AI in Construction Site Safety: Top Innovations for Protecting Workers — ABC Carolinas, дата последнего обращения: мая 5, 2026, https://abccarolinas.org/ai-in-construction-site-safety/
Machine learning applications for predicting safety incidents in construction industry — PMC, дата последнего обращения: мая 5, 2026, https://pmc.ncbi.nlm.nih.gov/articles/PMC12867970/
AI Workplace Safety: How Predictive Systems Redefine Risk and ROI — RTS Labs, дата последнего обращения: мая 5, 2026, https://rtslabs.com/ai-workplace-safety/
Advanced Guide: Reducing Workplace Incidents with AI Safety Tech, дата последнего обращения: мая 5, 2026, https://www.protex.ai/guides/advanced-guide-on-workplace-ai-safety
Who Is Responsible When Autonomous Systems Fail? — Centre for International Governance Innovation, дата последнего обращения: мая 5, 2026, https://www.cigionline.org/articles/who-responsible-when-autonomous-systems-fail/
AI Safety and Automation Bias | CSET, дата последнего обращения: мая 5, 2026, https://cset.georgetown.edu/wp-content/uploads/CSET-AI-Safety-and-Automation-Bias.pdf
Case Study: AI-Based Autonomous Control — International Society of Automation (ISA), дата последнего обращения: мая 5, 2026, https://www.isa.org/intech-home/2022/october-2022/features/case-study-ai-based-autonomous-control
Top 5 Reasons AI Fails in Chemical Manufacturing—and How to Avoid Them — SymphonyAI, дата последнего обращения: мая 5, 2026, https://www.symphonyai.com/resources/blog/industrial/top-5-reasons-ai-fails-chemical-manufacturing/
AI: The next frontier of performance in industrial processing plants — McKinsey, дата последнего обращения: мая 5, 2026, https://www.mckinsey.com/industries/metals-and-mining/our-insights/ai-the-next-frontier-of-performance-in-industrial-processing-plants
Investigations | CSB — Chemical Safety Board, дата последнего обращения: мая 5, 2026, https://www.csb.gov/investigations/
INCIDENT REPORTS — Chemical Safety Board, дата последнего обращения: мая 5, 2026, https://www.csb.gov/assets/1/6/incident_reports_volume_2_2025-03-12.pdf
AI Act | Shaping Europe’s digital future — European Union, дата последнего обращения: мая 5, 2026, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
EU Regulation on AI | Insight — Baker McKenzie, дата последнего обращения: мая 5, 2026, https://www.bakermckenzie.com/en/insight/publications/resources/product-risk-radar-articles/eu-regulation-on-ai
Annex III: High-Risk AI Systems Referred to in Article 6(2) | EU Artificial Intelligence Act, дата последнего обращения: мая 5, 2026, https://artificialintelligenceact.eu/annex/3/
What is SOTIF? | Ansys, дата последнего обращения: мая 5, 2026, https://www.ansys.com/simulation-topics/what-is-sotif
Safety for AI-Based Systems | The Safexplain, дата последнего обращения: мая 5, 2026, https://safexplain.eu/safety-for-ai-based-systems/
NIST AI RMF 2025 Updates: What You Need to Know About the Latest Framework Changes, дата последнего обращения: мая 5, 2026, https://www.ispartnersllc.com/blog/nist-ai-rmf-2025-updates-what-you-need-to-know-about-the-latest-framework-changes/
AI Risk Management Framework | NIST — National Institute of Standards and Technology, дата последнего обращения: мая 5, 2026, https://www.nist.gov/itl/ai-risk-management-framework
High-level summary of the AI Act | EU Artificial Intelligence Act, дата последнего обращения: мая 5, 2026, https://artificialintelligenceact.eu/high-level-summary/
Why SOTIF (ISO/PAS 21448) Is Key For Safety in Autonomous Driving | Perforce Software, дата последнего обращения: мая 5, 2026, https://www.perforce.com/blog/qac/sotif-iso-pas-21448-autonomous-driving
From Silos to Systems: Process-Oriented Hazard Analysis for AI Systems — arXiv, дата последнего обращения: мая 5, 2026, https://arxiv.org/html/2410.22526v1
NIST Risk Management Framework | CSRC, дата последнего обращения: мая 5, 2026, https://csrc.nist.gov/projects/risk-management
A Look at New AI Control Frameworks from NIST & CSA — Cloud Security Alliance, дата последнего обращения: мая 5, 2026, https://cloudsecurityalliance.org/blog/2025/09/03/a-look-at-the-new-ai-control-frameworks-from-nist-and-csa
NIST AI Risk Management Framework: A simple guide to smarter AI governance — Diligent, дата последнего обращения: мая 5, 2026, https://www.diligent.com/resources/blog/nist-ai-risk-management-framework
ONE Tech — Industrial AI — Digital Asset Management — Siemens, дата последнего обращения: мая 5, 2026, https://assets.new.siemens.com/siemens/assets/api/uuid:54efa286-c254-4b72-88ed-c6a1a3fbc81b/25113-deep-dive-industrial-AI.pdf
Schneider Electric Unveils Innovations Advancing American Manufacturing at Automate 2025, дата последнего обращения: мая 5, 2026, https://www.se.com/us/en/about-us/newsroom/news/press-releases/schneider-electric-unveils-innovations-advancing-american-manufacturing-at-automate-2025-6821e196c40a38c3120b8237
[Podcast] How AI is changing industrial engineering — Schneider Electric Blog, дата последнего обращения: мая 5, 2026, https://blog.se.com/digital-transformation/artificial-intelligence/2025/10/27/podcast-malini-nambiar-how-ai-is-changing-industrial-engineering/
ABB Robotics Partners with NVIDIA to Deliver Industrial-Grade Physical AI at Scale, дата последнего обращения: мая 5, 2026, https://www.abb.com/global/en/news/134030
Next-Gen industrial AI | Siemens, дата последнего обращения: мая 5, 2026, https://www.siemens.com/en-us/company/innovation/research-development/next-gen-industrial-ai/
AI-ready at the Edge – Siemens Industrial Automation DataCenter with accelerated AI computing power and advanced cybersecurity | Press, дата последнего обращения: мая 5, 2026, https://press.siemens.com/global/en/pressrelease/ai-ready-edge-siemens-industrial-automation-datacenter-accelerated-ai-computing-power
LLM4PlC: Harnessing large Language Models for Verifiable Programming of PlCs in Industrial Control Systems — IEEE Xplore, дата последнего обращения: мая 5, 2026, https://ieeexplore.ieee.org/iel8/10554670/10554675/10554746.pdf
Agents4PLC: Automating Closed-loop PLC Code Generation and Verification in Industrial Control Systems using LLM-based Agents | Request PDF — ResearchGate, дата последнего обращения: мая 5, 2026, https://www.researchgate.net/publication/401233128_Agents4PLC_Automating_Closed-loop_PLC_Code_Generation_and_Verification_in_Industrial_Control_Systems_using_LLM-based_Agents
«Simple Open-Source Formal Verification of Industrial Programs» by Christopher Disney Peterson — Digital Commons @ Cal Poly, дата последнего обращения: мая 5, 2026, https://digitalcommons.calpoly.edu/theses/2664/
Bringing Automated Formal Verification to PLC Program Development, дата последнего обращения: мая 5, 2026, https://digibuo.uniovi.es/dspace/bitstream/10651/30651/1/TD_BorjaFernandezAdiego.pdf
On the Impact of Formal Verification on Software Development — Computer Science, дата последнего обращения: мая 5, 2026, https://cseweb.ucsd.edu/~mcoblenz/assets/pdf/OOPSLA_2025_Dafny.pdf
Formal Methods articles — Prover Technology, дата последнего обращения: мая 5, 2026, https://www.prover.com/categories/formal-methods/
Formal Verification of PLCs as a Service: A CERN-GSI Safety-Critical Case Study (extended version) — reposiTUm, дата последнего обращения: мая 5, 2026, https://repositum.tuwien.at/bitstream/20.500.12708/218545/1/Lopez%20Miguel%20Ignacio%20David%20-%202025-02-26%20-%20Formal%20Verification%20of%20PLCs%20as%20a…pdf
[2502.19150] Formal Verification of PLCs as a Service: A CERN-GSI Safety-Critical Case Study (extended version) — arXiv, дата последнего обращения: мая 5, 2026, https://arxiv.org/abs/2502.19150
What makes a verification environment ‘Formal-Ready’? — LUBIS EDA, дата последнего обращения: мая 5, 2026, https://lubis-eda.com/formal-ready-verification-environment-lubis-eda/
Supporting Software Formal Verification with Large Language Models: An Experimental Study — arXiv, дата последнего обращения: мая 5, 2026, https://arxiv.org/html/2507.04857v1
ISO 42001 certification: AI roles and responsibilities you need to know | Vanta, дата последнего обращения: мая 5, 2026, https://www.vanta.com/collection/iso-42001/roles-in-iso-42001
Understanding ISO 42001 and Demonstrating Compliance — ISMS.online, дата последнего обращения: мая 5, 2026, https://www.isms.online/iso-42001/
ISO 42001 — AI Management System — BSI, дата последнего обращения: мая 5, 2026, https://www.bsigroup.com/en-US/products-and-services/standards/iso-42001-ai-management-system/
Understanding ISO 42001: The World’s First AI Management System Standard | A-LIGN, дата последнего обращения: мая 5, 2026, https://www.a-lign.com/articles/understanding-iso-42001
The role of ISO/IEC 42001 in AI governance — Osler, Hoskin & Harcourt LLP, дата последнего обращения: мая 5, 2026, https://www.osler.com/en/insights/updates/the-role-of-iso-iec-42001-in-ai-governance/
New Era of AI in Chemical Process Safety: Foundation Models — ACS Publications, дата последнего обращения: мая 5, 2026, https://pubs.acs.org/doi/10.1021/acs.chas.5c00227
Certified Artificial Intelligence (AI) for Health and Safety Professional Course — United Kingdom — The Knowledge Academy, дата последнего обращения: мая 5, 2026, https://www.theknowledgeacademy.com/courses/health-and-safety-in-the-workplace/certified-artificial-intelligence-ai-for-health-and-safety-professional-course/
Specialist Certification in AI in Occupational Health and Safety, дата последнего обращения: мая 5, 2026, https://www.lsba.org.uk/Home/CourseDetail?courseId=737884
Become an AI Practitioner for Safety-Critical Systems | UL Solutions, дата последнего обращения: мая 5, 2026, https://www.ul.com/sis/training/become-ai-practitioner-safety-critical-systems
Become an AI Practitioner for Safety-Critical Systems — UL Solutions, дата последнего обращения: мая 5, 2026, https://www.ul.com/sis/services/become-an-ai-practitioner


