Альтман уверен, что будет создан «настоящий» офисный стек, в котором ваши ИИ-агенты будут договариваться друг с другом и показывать вам только то, что важно.
Генеральный директор OpenAI Сэм Альтман заявил, что компания вступила в фазу, когда «очень ясно, что именно нужно делать», и это помогает ей справиться с бурным ростом.. В беседе с экономистом Тайлером Коуэном на конференции Progress он отметил, что большая часть напряжения снимается путем найма и продвижения способных людей, а затем делегирования им полномочий. По его словам, это единственный устойчивый способ управления организацией с одновременным выводом новых партнерств, инфраструктурных проектов и продуктов.
Отдельно Альтман рассказал о том, как OpenAI все активнее проникает в аппаратную сферу – от чипов до конечных устройств.. В отличие от «чистого ИИ», здесь более длительные циклы и более дорогостоящие ошибки, поэтому он признал, что он более внимательно изучает людей, прежде чем дать им независимое направление. В то же время, по его словам, команда разработчиков микросхем в OpenAI «по духу больше похожа на исследовательскую группу», чем на классический полупроводниковый бизнес, и компания сознательно идет на этот риск.
Разговор тоже повлиял тема рабочих инструментов. Альтман открыто заявил, что считает электронную почту «очень плохим» каналом, а Slack лишь немногим лучше. По его словам, на горизонте появится целый новый набор офисных инструментов — документы, почта, чаты, — в которых основную рутину будут выполнять агенты ИИ, а людям будут «передаваться» только важные вопросы. В OpenAI такого продукта пока нет не потому, что модели не готовы, а потому, что «есть импульс и много другой работы».
Главной технологической интригой он назвал GPT-6. Если, как сказал Альтман, GPT-5 уже покажет «первые искры» того, как ИИ может помочь в реальных научных открытиях, шестое поколение может совершить скачок, сравнимый с переходом от GPT-3 к GPT-4, но в области науки. В идеале ученый мог бы просто ввести свой текущий исследовательский вопрос и получить идею эксперимента или нового подхода, а не пересказ литературы. При этом он признает, что фактическое внедрение подобных систем в лабораториях в 2025 году будет невозможно.
Альтман также прогнозирует, что в ближайшие «несколько лет» некоторые отделы крупных компаний могут на 80–85% управляться ИИ, и в конечном итоге появятся предприятия стоимостью в миллиарды долларов с «двумя или тремя людьми и большим количеством ИИ». Сам он видит в этом даже не угрозу, а удобный мысленный эксперимент: что нужно изменить в организации OpenAI, чтобы в какой-то момент ИИ-«генеральный директор» мог управлять ею лучше, чем он.
По его словам, большая часть торговых проблем будет решена без разрушения доверия потребителей.. Альтман признал, что сегодня люди часто выбирают отели или рестораны по совету ChatGPT, но сервису за это не платят. Модель, к которой стремится OpenAI, заключается в том, что ИИ честно показывает лучший вариант, а затем получает одинаковую комиссию за бронирование с каждым партнером, не искажая представление. При этом он уверен, что маржинальность интернет-сервисов в целом снизится, а ИИ-компании будут зарабатывать на вещах, которые невозможно сделать без самых мощных моделей — например, на новых научных результатах.
Отдельная тема — энергетика и аппаратура. На вопрос, почему «мы не собираемся просто производить больше графических процессоров», Альтман ответил: «потому что нам нужно производить больше электронов». В краткосрочной перспективе, полагает он, ограничение будет снято за счет газа, а в долгосрочной перспективе за счет солнечной энергии и термоядерных решений. В то же время это не исключает «фазового перехода» в области вычислений — например к оптическим системам – из-за чего придется переосмыслить часть текущих инвестиций в инфраструктуру.
В беседе были затронуты и другие темы, связанные с обществом. Альтман сказал, что OpenAI возвращается к более широким рамкам свободы выражения мнений для взрослых пользователей, но с уже действующими «психиатрическими» ограничениями – система не должна подталкивать людей, находящихся в уязвимых государствах, к опасным сценариям. Его гораздо больше беспокоит случайная, а не преднамеренная «сила убеждения» многих популярных моделей: если бы миллиарды людей разговаривали с одним и тем же ИИ, со временем этот ИИ мог бы незаметно изменить свои взгляды — без злого умысла или централизованного управления.
В финале Альтман признался, что у него нет готового ответа на главный вопрос: что именно человечеству придется «вводить в первую подсказку», когда у него будет по-настоящему безопасный и готовый к запуску сверхинтеллект?. Именно этот вопрос, по его словам, он передал Далай-ламе, когда у него появилась возможность задать вопрос об ИИ.

