Илья Суцкевер, соучредитель и бывший главный научный сотрудник OpenAI, предсказал конец эпохи традиционного предварительного обучения моделей ИИ и сказал, что будущее за системами с «реальным действием» и способностью рассуждать. На конференции NeurIPS в Ванкувере он отметил, что мир достиг предела доступных обучающих данных и необходимы новые подходы. Суцкевер сравнил развитие ИИ с эволюцией мозга человекообразных, предполагая, что ИИ найдет новые способы масштабирования и станет менее предсказуемым, но более эффективным.
«Предварительная подготовка в том виде, в котором мы ее знаем, несомненно, закончится», — сказал Суцкевер на сцене.
Это первый этап разработки модели ИИ, на котором большая языковая модель изучает шаблоны на основе огромных объемов неразмеченных данных — обычно текста из Интернета, книг и других источников.
Во время своей лекции Суцкевер сказал, что, хотя существующие данные все еще могут способствовать развитию ИИ, отрасль нуждается в новых источниках обучающей информации. Он считает, что эта тенденция неизбежно приведет к переосмыслению привычных подходов к обучению ИИ. Он сравнил ситуацию с ископаемым топливом: так же, как нефть является ограниченным ресурсом, Интернет содержит ограниченное количество контента, созданного руками человека.
«Мы достигли пиковых данных, и больше их не будет», — сказал исследователь.
Суцкевер предсказывает, что модели следующего поколения будут иметь «настоящую свободу действий». Этот термин стал популярным в области искусственного интеллекта. Суцкевер не дал этому четкого определения, но под агентами обычно понимают автономные системы искусственного интеллекта, которые могут самостоятельно выполнять задачи, принимать решения и взаимодействовать с программами. Кроме того, исследователь подчеркивает, что будущие системы будут наделены способностью рассуждать.
В отличие от нынешнего ИИ, который опирается на сопоставление шаблонов с ранее увиденными данными, будущие алгоритмы смогут решать задачи шаг за шагом, что будет больше напоминать мыслительный процесс.
Чем больше ИИ думает, тем менее предсказуемым становится его поведение«, — думает Суцкевер. Ученый сравнивает непредсказуемость «истинно рассуждающих систем» с тем, что продвинутый ИИ, играющий в шахматы, непредсказуем даже для самых сильных гроссмейстеров. «Они поймут вещи на основе ограниченных данных и не запутаются.— сказал он.
Сравнивая развитие систем искусственного интеллекта с эволюцией живых организмов, Суцкевер отметил интересную параллель. Исследования показывают, что соотношение массы мозга и тела у большинства млекопитающих подчиняется определенным закономерностям. Однако гоминиды, предки человека, демонстрируют существенное отклонение от этой общей тенденции.
Исследователь предполагает, что так же, как эволюция нашла новый способ развития мозга человекообразных, так и развитие ИИ может выйти за рамки существующих моделей и найти новые, более эффективные способы масштабирования.
После лекции один из слушателей спросил, как создать механизмы, которые дадут ИИ «человеческие свободы». Суцкевер отметил, что это важный вопрос, но для его решения необходима «твердая государственная структура». Когда слушатели предложили использовать криптовалюту, он ответил: «Я не эксперт, но не исключаю». По его словам, если ИИ хочет сосуществовать с людьми и иметь права, это может быть жизнеспособным вариантом, хотя будущее остается непредсказуемым. Покинув OpenAI, Суцкевер основал собственную лабораторию искусственного интеллекта под названием Safe Superintelligence. Стартап уже привлек финансирование в размере 1 миллиарда долларов. доллар.