Ученые и разработчики искусственного интеллекта все чаще задаются вопросом, когда модели искусственного интеллекта смогут разрабатывать субъективные переживания, сходные с такими живыми существами, и, если они могут, какие права они должны иметь. В Силиконовой долине эта тема называется «скважина II«Недавно генеральный директор Microsoft Artifice Intelligence Mustafa Suleiman публикует статью, в которой говорится, что это»Преждевременно и, честно говоря, мы опасны для изучения благополучия искусственного интеллекта. «
Поддерживая идею, что II может однажды получить сознаниеПо словам Сулеймана, исследователи только углубляют вред людям от психотических расстройств, вызванных технологиями II и нездоровой привязанностью к чат -ботам. Это проблемы, которые мы только начинаем видеть вокруг нас, но они становятся больше.
Более того, глава Департамента искусственного интеллекта Microsoft утверждает, что дебаты о скважине искусственного интеллекта создают новое разделение в обществе с точки зрения прав искусственного интеллекта в мире, который уже полон поляризованных дебатов о идентичности и правах.
Мнение Сулеймана противоречит многим другим представителям отрасли, пишет TechCrunch. На другом конце спектра находится компания Anpropicкоторый нанимает исследователей для изучения скважины ИИ, и недавно запустила специальную исследовательскую программу, посвященную концепции скважины ИИ. На прошлой неделе Anpropic дал некоторые модели компании новую функцию: Claude Chatbot теперь может закончить разговоры с людьми, которые действуют неприятны и оскорбительны.
В дополнение к антропному, Исследование благосостояния ИИ проводится в OpenAIS и Google DeepMind недавно опубликовали рекламу для работы исследователя для изучения, среди прочего, и «авангарда социальных вопросов, связанных с восприятием машины, сознанием и мульти -агентами». Даже если скважина EI не является официальной политикой этих компаний, их лидеры, в отличие от Сулеймана, не осуждают эти принципы.
Идея о том, что ИИ приобрела популярность с появлением чат -ботов. В 2024 году исследовательская группа Eleos, наряду с учеными из университетов в Нью -Йорке, Стэнфорде и Оксфорде, опубликовала статью под названием «Принять благосостояние AI» (серьезное отношение к скважину II). В статье утверждается, что идея о том, что у моделей есть субъективный опыт, больше не является чем -то из научной фантастики, и что пришло время серьезно взглянуть на этот вопрос.
Тем не менее, Сулейман предполагает, что современные модели ИИ не способны к субъективному опыту. И то, что иногда считается проявлением машин в машинах, является не чем иным, как специально построенными алгоритмами, предназначенными для имитации человеческих чувств, чтобы сделать чат -ботов более надежными для потребителей.
Трудно ответить на вопрос гипотетического присутствия сознания в машинах, если мы не можем понять, что такое сознание. Недавно журнал Nature публикует результаты «конкурентного сотрудничества» Консорциума Cogote Consortium, в котором сегодня сравниваются две популярные теории о природе сознания — теории глобального рабочего пространства и теории интегрированной информации. Оказалось, что ни один из них не прошел беспристрастный тест.