Руководитель OpenAI признает, что сделка с Пентагоном не была хорошо продумана: компания внесет изменения, чтобы защитить людей от слежки

Вскоре после того, как Пентагон отказался использовать модели искусственного интеллекта Anthropic из-за сопротивления руководства компании предоставить агентству полную свободу их использования, соответствующая сделка была заключена с конкурентом OpenAI. Глава последнего Сэм Альтман признает, что в сложившихся обстоятельствах этот шаг не был хорошо продуман.

Напомним, перед сделкой Альтман выразил солидарность с позицией своего бывшего соратника Дарио Амодеи, который сейчас возглавляет Anthropic. Однако как только Минобороны США отказалось от услуг последней и начало искать альтернативу для внедрения в свою секретную инфраструктуру, сделка с OpenAI была заключена в спешке и на не самых прозрачных условиях. После контракта с Пентагоном Альтман заявил, что интересы правительства стоят выше принципов любой частной компании. В конце прошлой недели Альтман настаивал на том, что первоначальная версия соглашения OpenAI с Пентагоном подразумевала больше ограничений, чем любое предыдущее использование ИИ в секретных системах, включая сделку Anthropic.

В понедельник Альтман заявил, что сделку с Пентагоном не следовало заключать так поспешно и что ее условия будут пересмотрены и внесены изменения.

Он отметил, что в тексте соглашения должно было быть конкретно указано, что «система искусственного интеллекта не будет использоваться намеренно для слежки за гражданами США и жителями территории США». Как подчеркнул Альтман, Министерство обороны понимает, что подобного рода ограничения существуют на использование ИИ, даже если данные граждан получены от третьей стороны. В текст соглашения будут внесены соответствующие правки.

OpenAI также удалось получить заверения военного министерства США в том, что инструменты компании не будут использоваться спецслужбами, такими как Агентство национальной безопасности (АНБ). Он сказал, что компания готова работать с Пентагоном над созданием технических ограничений для обеспечения безопасного использования ИИ. Он объяснил поспешность заключения сделки в пятницу желанием деэскалации и избежать гораздо худшего исхода, но понимал, что со стороны все выглядит «неясно». Уже в пятницу глава OpenAI заявил, что Пентагон согласился на ограничения на использование технологии, предложенной компанией. Общественное недовольство действиями OpenAI уже привело к тому, что люди отказались от ChatGPT в пользу решений Anthropic. Последний подчеркивает безопасное использование ИИ с момента своего основания в 2021 году.

Условия соглашения OpenAI с Пентагоном были пересмотрены, не в последнюю очередь из-за давления общественности. Даже сотрудники компании начали выражать недовольство первоначальным вариантом сделки.

В минувшие выходные акция «Нет массовой слежке!» Меловой знак появился возле штаб-квартиры OpenAI в Сан-Франциско. Альтман добавил, что текст соглашения с Anthropic включал четко сформулированные ограничения, но не содержал ссылок на соответствующее законодательство, а сама OpenAI не видит проблем в предоставлении таких ссылок.

OpenAI подтверждает, что может ограничить использование своей технологии для массовой слежки за гражданами США и для контроля оружия, предназначенного для автоматического выбора и уничтожения целей. Компания разрешила Пентагону применять ИИ к своим моделям только в облачной части инфраструктуры, при этом ее сотрудники сохраняют доступ к ней, но не к конечной военной технике, используемой для управления вооружением.

Все важное из мира технологий прямо на ваш почтовый ящик.

Подписываясь, вы принимаете наши Условия и Политику конфиденциальности. Вы можете отказаться от подписки одним щелчком мыши в любое время.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх