Машины уже находятся на грани истинного мышления?
В исследовательских центрах, которые стремятся создать общий искусственный интеллект, все чаще обсуждаются во всем миреС Этот термин указывает на внутреннюю схему внешней среды, которую формируется система, аналогичная миниатюрному «снежному глобусу» с симуляцией реальностиS эта структура позволяет алгоритмам заранее терять различные сценарии и оценивать эффекты действий до их реализации. Ян Лекун из Meta, Демис Хасабис из Google DeepMind и Йошуа Белогион из Института Мила считает, что эти механизмы станут основой действительно интеллектуальных и безопасных технологий.
Человеческий мозг работает аналогичным образом: внутренняя идея говорит вам, чтобы вы удерживали себя от пути поезда, не требуя, чтобы вы проверяли гипотезу через опыт. Тем не менее, эксперты не имеют консенсуса по поводу того, что именно должно содержать такую модельНекоторые утверждают о деталях элементов, о других о том, является ли он врожденным или образованным во время обучения. Также неясно, как определить, что алгоритм вообще имеет полное отражение реальности, и это не набор поверхностных методов.
Идея родилась еще в 1943 году. Шотландский психолог Кеннет Крэйк имеет гипотезу о том, что у организма обладает Меньшая версия внешнего мира может безопасно воспроизводить варианты поведения и выбрать наиболее успешныеS эта идея предвещает когнитивную революцию 1950 -х годов, и ассоциируются с расчетами: Крейк считает, что способность имитировать различные события является основным свойством как нейронных сетей, так и машин.
В 1970 -х годах этот подход использовался в искусственном интеллекте. Программа SHRDLU Он продемонстрировал элементарный здравый смысл, отвечая на вопросы о свойствах объектов в условиях «мира кубиков». Но такие ручные структуры не могли противостоять увеличению сложности: чем ближе они были к реальности, тем быстрее они разбились. В восьмидесятых годах прошлого века специалист по робототехнике Родни Брукс полностью отказался от этой идеи, заявив, что лучшей моделью в мире была сама окружающая среда, а четкие описания только препятствуют.
Ситуация изменилась с разработкой машинного обучения и глубоких сетей. Вместо строгих правил они постепенно создавали приблизительные экологические картины через опыт, что позволило решить ограниченные проблемы, такие как управление виртуальным автомобилем на гоночной трассе. В последние годы, когда модели крупных языков, такие как CHATGPT, начали демонстрировать неожиданные способности — догадывая фильмы на своих смайликах или на рабочем столе Othello Game — мировые модели стали удобным объяснением. Известные ученые, такие как Джеффри Хинтон, Илья Сатцкевер и Крис Ола, предполагают, что где -то в глубине параметров находится именно «миниатюрная копия реальности», которую пишет Крэйк.
Но практика еще не подтвердила ожидания. Современные генеративные системы накапливают множество разнообразных Hureks — правила для отдельных случаев, которые не собираются за одну картину. Иногда они даже противоречат друг другу. Это напоминает нам о притче о слепых и слоне: один из них чувствует ствол и думает, что перед ним есть змея, другой держит его ногу и думает, что он дерево, третий ловит хвост и думает, что он веревка. Попытки исследователей найти полную производительность в модели, например, игровое поле Othello, показывают только отдельные фрагменты, но не одно изображение.
Однако даже эти правила не бесполезныS Огромные параметры языковых моделей позволяют их хранить в колоссальных количествах, а объем часто компенсирует отсутствие структуры. Недавно Гарвардские эксперты и Массачусетский институт показали, что система может точно рисовать маршруты между любыми точками на Манхэттене, хотя у нее нет полной уличной карты — только разбросанные подсказки. Но если случайные 1% дорог были заблокированы, точность немедленно упала. Если бы внутри была последовательная карта, было бы легко изменить дорогу.
Вот почему мировые модели считаются таким желательным результатом. Они обещают стабильность и предсказуемость, когда хаотический набор эвристики терпит неудачу. Возможность создания проверенных внутренних идей предлагает перспективы борьбы с галлюцинациями искусственного интеллекта, что делает рассуждения более надежными и работает более прозрачным. Ученые и корпорации видят этот шанс приблизиться, хотя и не для полного AGI, но, по крайней мере, к инструментам, которые можно объяснить и проверить.
Дорога впереди остается открытой. DeepMind и Openai полагаются на обучение с использованием «мультимодальных» данных — видео, трехмерных симуляций и других форматов, которые превышают текст — так что он может спонтанно сформировать согласованную структуру. Ян Лекун убежден, что потребуется совершенно другая архитектура, которая не связана напрямую с генеративными подходами. Ни у кого нет хрустального мяча в поисках этих расчетов «снежных кобок», но на этот раз победа может действительно стоить усилий.
Несмотря на огромный прогресс, современный искусственный интеллект все еще борется с фундаментальной проблемой: у него есть бесконечная память (информация), но не имеет истинного понимания мира. Концепция «Внутренняя модель реальности«Это может полностью изменить ситуацию.