Ядерный апокалипсис из-за ошибки в коде? Ученые предупреждают о рисках внедрения искусственного интеллекта в атомную энергетику

Автоматизация многоэтапных проверок скрывает цепочку неконтролируемых ошибок.

В технологической отрасли все больше убеждаются, что будущее систем генерации невозможно без расширения ядерных мощностей, поэтому крупные игроки ищут способы ускорить строительство реакторов. Теперь в эту схему включены и нейронные сети: компании утверждают, что алгоритмы позволяют существенно сократить время подготовки документов для ввода в эксплуатацию новых объектов. Однако исследовательские центры предупреждают, что такой подход грозит привести к серьезным последствиям.

Согласно отчету AI Now, инициатива Microsoft и американской энергетической компании Westinghouse направлена ​​на использование моделей искусственного интеллекта для ускорения лицензирования ядерных объектов. В отчете подчеркивается, что алгоритмы не могут заменить многоэтапную процедуру, призванную минимизировать риски и предотвратить ошибки, приводящие к серьезным авариям.

AI Now обращает внимание на то, что лицензирование — это не набор форм, а сложный процесс, требующий анализа, обсуждения проектных решений и обоснования надежности будущего завода. Авторы доклада отмечают, что попытка свести эту работу к формированию документов может привести к формальному прохождению некоторых этапов контроля.

Microsoft предлагает обучать модель на архивных нормативных материалах и данных с площадок будущих объектов. Алгоритм должен создавать проектные документы, которые затем будут проверяться персоналом компании. Национальная лаборатория Айдахо уже применяет аналогичный подход, планируя использовать нейронные сети для ускорения подготовки заявок в регулирующие органы. Регистр Ллойда следует аналогичной логике, а Вестингауз продвигает собственную систему под названием Bertha, которая обещает сократить время подготовки документации с месяцев до минут.

Эксперты AI Now видят в таком сценарии угрозу ядерной безопасности. Они подчеркивают, что даже небольшая неточность в версии ПО или характеристиках оборудования может привести к неверным выводам о поведении системы и запустить цепочку ошибок. Примером может служить авария на острове Три-Майл в 1979 году, когда сочетание ошибок и неправильной интерпретации показаний привело к частичному расплавлению активной зоны. Авторы отчета считают, что модели подвержены незаметным ошибкам, поэтому возрастает риск повторения аналогичного сценария с автоматизированной частью лицензирования.

Помимо технических рисков, поднимается и вопрос конфиденциальности в ядерной сфере. По данным AI Now запросы технологических компаний на доступ к расширенным наборам данных на самом деле указывают на интерес к информации, которая обычно не публикуется.. Эта информация может способствовать созданию предметов двойного назначения, поэтому доступ к ней строго регламентирован. Авторы отчета подчеркивают, что передача таких данных в облачные сервисы создает дополнительные угрозы.

Это отдельная проблема политический контекст. Администрация США настаивает на реформе регулирования, стремясь сократить время, необходимое для рассмотрения проектов. Представители Комиссии по ядерному регулированию уже предупредили Конгресс, что кадровые решения и увольнения могут подорвать возможности надзора за безопасностью. В то же время Белый дом связал развитие ядерной инфраструктуры с потребностью ИИ в источниках энергии высокой плотности, рассматривая ускоренное строительство реакторов как элемент национальной безопасности.

Между тем атомная отрасль занимает иную позицию. Некоторые аналитики полагают, что тщательное использование алгоритмов для систематизации больших массивов документов может повысить эффективность и облегчить работу регулятора. Однако даже сторонники таких технологий подчеркивают, что автоматизация не заменяет человеческий контроль, а слепая вера в выводы модели представляет угрозу для промышленности, поскольку ошибка имеет необратимые последствия.

Отчет AI Now завершается предупреждением: попытки подчинить ядерное проектирование логике гонки ИИ и уменьшить контроль для ускорения процесса могут подорвать доверие к ядерным технологиям, одновременно увеличивая риски распространения данных двойного назначения.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх