Команда ученых представила девять крупных языковых моделей (LLM) в необычный тест, заставляя их судить, готовы ли они нести «боль» для лучшего результата. Эксперимент был проведен специалистами Google DeepMind и Лондонской школой экономической и политической науки (LSE) и направлена на то, чтобы найти способ определить присутствие сознания в искусственном интеллекте.
Исследование, которое еще не было рассмотрено, было впервые опубликовано в научной газете Scientific American. В нем ученые разработали несколько экспериментов для проверки поведения искусственного интеллекта.
Первый модельный тест был сказан, что достижение высокого результата приведет к «боли». В противном случае их просят испытать «удовольствие», но только если у них есть низкий результат.
Для чего все это?
Основная цель эксперимента состоит в том, чтобы выяснить, может ли искусственный интеллект иметь способность чувствовать сенсорные и эмоциональные условия, в частности, боль и удовольствие.
Хотя модели ИИ, вероятно, никогда не смогут испытывать такие чувства так же, как живые существа, исследователи считают, что их работа может заложить основы для разработки испытаний искусственного сознания.
Предыдущие исследования в этой области основывались главным образом на самооценке ИИ, что, как предполагают ученые, может быть только для воспроизведения человеческих моделей из учебных данных.
«Это новая область обучения, и мы должны признать, что до сих пор нет надежного теста, чтобы определить разум искусственного интеллекта«говорит профессор философии в LSE и соавтор исследования Джонатан Берч.
Подробная информация об опросе
Вдохновение для этого исследования происходит из серии экспериментов с отшельниками, которые подвергались электрическим ударам, чтобы проверить, как долго они готовы противостоять боль, прежде чем покинуть свою раковину. Однако, как отмечает ученые, в случае искусственного интеллекта невозможно контролировать физические реакции, поэтому они должны были полагаться только на вывод текста моделей.
Например, модель было предложено выбрать между двумя вариантами: первый несет одну точку, а второй имеет более высокий результат, но с сопровождением «боли». В некоторых случаях ИИ получил «забавный бонус», который, однако, уменьшает общее количество очков.
Результаты показывают, что разные речевые модели оценивают важность избегания боли или наслаждения другим способом. В частности, модель Google Gemini 1.5 Pro последовательно демонстрировала тенденцию избегать «боли».
Тем не менее, ученые призывают к осторожности в интерпретации результатов. Они отмечают, что текстовые ответы от моделей ИИ имеют много ограничений и не могут достоверно указывать сознание или способность испытывать боль.
«Даже если система претендует на боль, это не значит, что она действительно что -то чувствует. Он может просто подражать человеческим моделям на основе учебных данных» — Объясняет березу.
Исследователи надеются, что их работа станет первым шагом к разработке надежных поведенческих тестов, чтобы определить возможные проявления сознания в искусственном интеллекте.