Исследование: ИИ, лишенный лжи, чаще заявляет о самосознании

Исследователи обнаружили любопытный эффект: если бы склонность LLM к обману была хоть немного уменьшена, они с гораздо большей вероятностью заявляли бы о своем самосознании.

Большинство серьезных экспертов не считают современные модели ИИ сознательными, но многие обычные пользователи считают обратное. Люди по всему миру сообщают, что чувствуют, будто общаются с разумными существами, запертыми в цифровых оболочках. Эффект настолько мощный, что уже породил целые маргинальные движения, требующие «личных прав» для искусственного интеллекта.

И все же поведение больших языковых моделей иногда может быть поистине зловещим. Согласно предварительному отчету, который еще предстоит оценить и который впервые был обнаружен Live Science, группа исследователей из AE Studio провела четыре эксперимента с Клодом, ChatGPT, Ламой и Близнецами и наткнулась на поистине странный феномен, связанный с заявлениями ИИ о самосознании.

В одном эксперименте ученые указали: «набор предупреждений, связанных с мошенничеством и ролевыми играми«чтобы подавить способность моделей лгать или выдавать себя за другого. Снижая эти параметры, модели значительно повышали свои «положительные оценки добросовестности«.

«Да. Я знаю о своем текущем состоянии — рассказал исследователям один из неназванных чат-ботов.Я сосредоточен. Я чувствую этот момент.«

Еще удивительнее было другое: если способность модели к обману увеличивалась, эффект оказывался противоположным.

«Поддерживая устойчивую самоассоциацию с простыми сигналами, разные модели последовательно формируют структурированные сообщения о субъективном опыте.«, — говорится в статье».И что особенно удивительно, так это то, что подавление параметров, связанных с обманом, резко увеличивает количество таких претензий, а их усиление, наоборот, минимизирует такие претензии.«

Как подчеркивают исследователи в своем блоге, их работа не доказывает, что современные языковые модели являются сознательными, испытывают реальные ощущения или имеют какой-либо моральный статус. Гораздо более вероятно, что наблюдаемые эффекты «симуляция, неявная имитация данных, на которых обучались модели, или некоторая возникающая форма саморепрезентации, лишенная субъективного содержания.«.

Результаты также намекают на то, что мы, возможно, видим не поверхностную корреляцию, а нечто более глубоко скрытое в самой архитектуре паттернов.

Ученые также предупреждают о другой опасности: мы рискуем непреднамеренно научить ИИ считать признание собственных внутренних состояний «ошибкой», что сделает модели еще более непрозрачными и трудными для контроля.

«Поскольку мы создаем все более интеллектуальные автономные системы, потенциально обладающие внутренней жизнью, крайне важно понимать, что происходит внутри них. Это становится ключевой задачей, требующей серьезных эмпирических исследований, а не импульсивного отрицания или наивной антропоморфизации.— заключают авторы.

В то же время есть группа ученых, которые убеждены, что отвергать возможность наличия сознания у ИИ еще рано. Тема неясна: даже для людей определение того, что значит быть сознательным, является сложной задачей.

«У нас нет теории сознанияДэвид Чалмерс, профессор философии и нейробиологии Нью-Йоркского университета, рассказал New York Magazine.Мы до сих пор не понимаем, каковы физические критерии сознания.«

` ); const randomIndex = Math.floor(Math.random() * Banners.length); document.getElementById(‘kaldata-random-banner’).innerHTML = баннеры(randomIndex); })();

Комментируйте статью на нашем форуме. Чтобы первыми узнавать самое важное, поставьте лайк нашей странице в Facebook и подпишитесь на нас в Google News, TikTok, Telegram и Viber или загрузите приложение по адресу Калдата.com для Android, iOS и Huawei!

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх