Openai повышает секретность, опасаясь утечки авангарда -разработчиков в области искусственного интеллекта

Согласно онлайн -источникам, OpenAI ужесточил меры, направленные на защиту от корпоративного шпионажа. Это произошло после того, как китайский стартап Deepseek выпустил гораздо более дешевую, но конкурентоспособную модель ИИ в начале этого года. Openai обвинила стартап, скопированную ее большую языковую модель, используя методы «дистилляции», т.е. Сжатие большей модели к меньшей.

Улучшения безопасности включают в себя принятие политики защиты данных, которая ограничивает доступ персонала на конфиденциальные данные и новые продукты. Например, во время разработки модели ИИ O1 только проверенным сотрудникам, участвующим в проекте, было разрешено обсуждать рабочие вопросы в офисах компании.

В то же время OpenAI начал изолировать запатентованные технологии в автономных компьютерных системах. Был введен биометрический контроль доступа к офисным помещениям, а также строгие ограничения на соединения с внутренними ИТ -системами компании вне. OpenAI расширила свой персонал кибербезопасности, чтобы сделать меры более эффективными.

Согласно источнику, изменения в политике безопасности Openai отражают опасения по поводу попыток иностранных конкурентов украсть интеллектуальную собственность компании. Учитывая постоянную конкуренцию в области искусственного интеллекта на рынке США, улучшения безопасности также являются попыткой компании ответить на ее внутренние проблемы. Представители OpenaI еще не прокомментировали эту проблему.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх