Недавно зарубежные СМИ подняли вопросы о темпах и эффективности разработки следующей модели искусственного интеллекта OpenAI, известной как GPT-5. Ожидания от этой модели очень высоки, но несколько ключевых аспектов указывают на то, что процесс ее разработки оказался более сложным и ресурсоемким, чем ожидалось.
Что еще известно о GPT-5
OpenAI провела как минимум два крупных обучающих запуска для улучшения моделей путем обучения на больших объемах данных. Однако первый тренировочный прогон оказался медленнее, чем ожидалось, а это указывает на то, что более крупные прогоны будут трудоемкими и дорогостоящими. Несмотря на сообщения о том, что GPT-5 работает лучше, чем его предшественник GPT-4, этого улучшения недостаточно, чтобы оправдать затраты на обслуживание модели.
Разработка моделей такого масштаба, как GPT-5, требует значительных вычислительных ресурсов и огромных объемов данных. OpenAI не ограничивается доступными данными и лицензионными соглашениями. Компания также нанимает специалистов для создания новых данных путем написания нового кода или решения математических задач. Кроме того, OpenAI использует синтетические данные, сгенерированные другой своей моделью. Эти усилия демонстрируют масштаб и сложность задачи, стоящей перед разработчиками.
Генеральный директор OpenAI Сэм Альтман ранее признавал, что по мере роста сложности моделей ИИ управлять несколькими проектами одновременно становится все труднее, особенно когда дело касается распределения вычислительных ресурсов. Альтман также отметил, что текущая версия GPT-4, несмотря на ее успех, является просто «мусором» по сравнению с тем, что обещает предложить GPT-5. Это свидетельствует о больших ожиданиях и в то же время о признании существующих ограничений.
Несмотря на предположения о возможном выпуске GPT-5 в конце 2024 или начале 2025 года, OpenAI еще не подтвердила конкретные сроки. Некоторые источники предполагают, что промежуточное обновление, такое как GPT-4.5, может быть выпущено раньше, чтобы сохранить лидерство ИИ. Однако основное внимание по-прежнему уделяется обеспечению значительного скачка в параметрах и характеристиках машинного обучения, которые оправдают инвестиции.