Новое расследование The New Yorker, основанное на сотнях интервью и секретных документах, рисует портрет Сэма Альтмана как лидера, склонного к манипуляциям и пренебрежению этикой. Авторы подробно описывают, как в OpenAI систематически подрывались механизмы безопасности: от ложных сообщений совету директоров до роспуска ключевых групп безопасности. Расследование также выявило связи Альтмана с автократическими режимами и упомянуло его активное лоббирование в Белом доме. В конечном итоге авторы задаются вопросом: приемлемо ли, чтобы мощной технологией управлял человек, чья карьера, по мнению его коллег, была построена на «социопатическом отсутствии заботы о последствиях обмана»?
Кульминацией спора стало краткосрочное увольнение Альтмана в ноябре 2023 года. Инициатором стал главный научный сотрудник и член правления OpenAI Илья Суцкевер, который разослал членам совета секретные меморандумы объемом около 70 страниц. Они утверждают, что Альтман систематически вводил руководство в заблуждение, в том числе по вопросам, связанным с безопасностью модели и внутренним управлением. Совет уволил его, сославшись на «отсутствие откровенности», но восстановил на работе пять дней спустя под давлением инвесторов и сотрудников. Сам Альтман тогда угрожал временному генеральному директору Мире Муратти: его союзники искали компрометирующую информацию, чтобы разрушить ее репутацию. Позже он заявил, что «не помнит» об этом.
Согласно документам и показаниям, Альтман в течение многих лет давал противоречивые обещания различным сторонам и представлял решения как согласованные, хотя они не были согласованными. Он заверил совет директоров, что спорные характеристики GPT-4 прошли одобрение комитета по безопасности, что оказалось ложью. Он «забыл» сообщить, что Microsoft запустила ChatGPT в Индии без обязательной проверки. The New Yorker добавляет, что эти эпизоды носят системный, а не изолированный характер.
Один из членов правления так описал Альтмана:
«Он обладает двумя чертами, которые почти никогда не встречаются в одном человеке. Первая — это сильное желание угодить людям. Вторая — почти социопатическое отсутствие заботы о последствиях обмана».
Аналогичные оценки дают бывшие сотрудники. Один из ключевых исследователей OpenAI Дарио Амодей описал в личных заметках неоднократные ситуации, в которых Альтман отрицал очевидные факты или менял свою позицию в зависимости от аудитории. В 2020 году, после того как Альтман ложно обвинил его и его сестру в «планировании государственного переворота», Амодей покинул OpenAI и основал Anthropic, одного из ключевых конкурентов Альтмана.
В своих записках он откровенно пишет: «Проблема OpenAI сама по себе«.
Печальная участь постигла и команду сверхразума под руководством Суцкевера — его задачей была разработка методов управления поведением сверхразумного ИИ, чтобы он не вышел из-под контроля. Компания обещала направить на эту цель 20% всех вычислительных мощностей, но в 2024 году команду расформировали. Группа готовности AGI, созданная для адаптации общества к общему искусственному интеллекту, также прекратила свое существование. В последней налоговой форме OpenAI вообще не упоминается слово «безопасность» как значимый вид деятельности. Институт будущего жизни, независимая организация, изучающая риски технологий, дает OpenAI рейтинг Ф (то есть «полный провал») по шкале экзистенциальной безопасности. Для сравнения, Anthropic получил Ди Google DeepMind – Д-.
Следствие также изучило предыдущие места работы Альтмана. В 2005 году он основал стартап Loopt — приложение, которое показывает вашим друзьям, где вы находитесь. Бизнес не взлетает. Высокопоставленные чиновники дважды просили совет директоров уволить Альтмана с поста генерального директора, поскольку они не доверяли его руководству, но совет отказался. В 2012 году Loopt была продана — источник утверждает, что сделка была организована главным образом для того, чтобы Альтман мог «сохранить лицо».
Затем Альтман взял на себя руководство Y Combinator. Там коллеги обвиняют его в том, что он лично инвестирует в самые перспективные проекты и не пускает других инвесторов. Пол Грэм, основатель Y Combinator, позже заявил, что Альтман «все время лжет». Сам Альтман отвергает обвинения.
Они в центре расследования Международные связи Альтмана. В 2018 году, через неделю после убийства журналиста Джамаля Хашогги, в котором обвинили наследного принца Саудовской Аравии, Альтман вошел в совет директоров проекта Неома «города будущего», который строил принц. В то время его больше беспокоили возможные санкции, чем этика. Позже он сблизился с шейхом Тахнуном из ОАЭ, главой разведки и управляющим фондами в 1,5 триллиона долларов, называл его «дорогим другом», принимал в качестве подарков гиперкары стоимостью 2 миллиона долларов и посещал его суперяхту стоимостью 250 миллионов долларов. Из-за этих связей администрация Байдена отказала ему в доступе к секретной информации.
Еще раньше, в 2017-2018 годах, OpenAI обсуждала план прямого столкновения ядерных сил: соучредитель Грег Брокман предложил провести аукцион между США, Китаем и Россией за доступ к AGI. Даже с учетом возможности военного столкновения. Альтман не возражает. От этого плана отказались только после угроз массовых увольнений.
Следствие не нашло доказательств по самому серьезному обвинению, о котором говорилось ранее, — сексуальным контактам с несовершеннолетними и участию в убийствах. Финансового мошенничества также обнаружено не было. Но десятки эпизодов системного мошенничества, угрозы сотрудникам, сделки с автократиями и разрушение механизмов внутренней безопасности формируют, по мнению авторов, неприемлемую модель управления для человека, контролирующего самую мощную технологию в истории.
Все важное из мира технологий прямо на ваш почтовый ящик.
Подписываясь, вы принимаете наши Условия и Политику конфиденциальности. Вы можете отказаться от подписки одним щелчком мыши в любое время.

