Развитие искусственного интеллекта (ИИ) поднимает вопросы об этике и возможности появления в нем сознания, заставляя ученых и специалистов готовиться к потенциальным вызовам этого сценария.
Футуристы и философы, особенно Анил Сет из Университета Сассекса, подчеркивают необходимость учитывать «ИИ благосостояния» в будущих разработках. Как он отмечает: «Проблема монстра Франкенштейна не в том, что он ожил, а в том, что он оказался разумным и способным чувствовать.Хотя вероятность появления сознательного ИИ остается низкой, его потенциальные последствия настолько значительны, что человечеству необходимо заранее разработать протоколы оценки и управления.
Одним из шагов в этом направлении является создание критериев определения интеллекта ИИ. Авторы соответствующего отчета подчеркивают, что ошибки в оценках могут иметь последствия как для людей, так и для самой технологии. Чрезмерное выделение ресурсов гипотетическому разумному ИИ может отвлечь внимание от других важных вопросов, таких как безопасность и контроль воздействия технологий на общество.
Однако общественный интерес к этой теме растет. Anthropic, разработчик больших языковых моделей, первым создал должность специалиста по благосостоянию в области искусственного интеллекта. В то же время международная политика, в частности документы ООН, до сих пор не обращают внимания на эту проблему, несмотря на призывы ученых.
Противники идеи ИИ-сознания, такие как Марк Уитмен, считают это невозможным из-за различий между организмами и машинами. В живых существах структура и функции неразрывно связаны и динамичны, тогда как в компьютерах аппаратное и программное обеспечение разделены. Однако дискуссии продолжаются, призывая к тому, чтобы будущие возможные сценарии рассматривались со всей серьезностью.