Момент установления контроля над ИИ прошёл, теперь будущее за «закаленным обществом»

В своем эссе профессор Колин Льюис утверждает, что быстро приближается время, когда традиционные представления об управлении искусственным интеллектом перестанут быть эффективными. Вопрос уже не в том, как будет развиваться технология, а в том, сможет ли общество противостоять ее последствиям. Долгое время мы считали искусственный интеллект чем-то захватывающим, но теперь стало ясно: на самом деле это проверка того, насколько хорошо работают наши институты. По мнению Льюиса, единственный путь вперед — перестать полагаться на технические ограничения и начать строить «закаленное общество».

Первый прорыв произошел тихо…»когда дверной замок был просто сломан«. В 2020 году обучение продвинутых моделей стоило миллионы долларов, но за два года эти затраты упали примерно в десять раз. Сегодня, как отмечает Льюис, «небольшая команда с приличным сервером способна убрать фильтры безопасности, которые раньше требовали больших бюджетов корпоративного уровня.Это означает, что старая стратегия контроля путем ограничения доступа больше не работает.

Эта идея подробно описана в исследовании, подготовленном группой ученых под руководством Джейми Бернарди. Авторы отмечают, что «узкое место» в контроле не сокращается, а исчезает. Такие методы, как «мультихакерство», позволяют обойти ограничения даже без доступа к внутренним параметрам моделей. Кроме того, попытки сделать системы «безопасными» посредством запретов создают новые риски. Как объясняет Льюис, речь идет о «компромисс между использованием и злоупотреблением«: если вы не позволяете модели узнать, как работает вирус, чтобы остановить биотеррориста, вы одновременно лишаете следующее поколение врачей инструментов для борьбы с настоящей пандемией. А если вы научите ИИ распознавать компоненты взрывчатых веществ или биологического оружия, чтобы он мог блокировать опасные запросы, вы неизбежно передадите эту информацию тем, кто ищет способы обойти защиту.

По его словам, второе нарушение еще глубже. К 2025 году стало ясно, что ИИ нельзя воспринимать как аналог человеческого интеллекта. Как отмечает профессор Йельского университета Лучано Флориди, это скорее форма «действующей субъективности» — инструмент, способный выполнять задачи, но не имеющий ни намерений, ни ответственности.

Опасность усиливается тем, что само общество приспособилось к этой логике.

«Мы не спрашиваем, адаптируется ли ИИ к нам», — пишет Льюис. — «Мы сокращаем наши собственные институты, чтобы алгоритмы могли быстрее перемещаться через них. В последние годы экономика, средства массовой информации и правительственные процессы были оцифрованы и стандартизированы — так, чтобы ими могли эффективно управлять машины. В результате «мы тонко обучаем мир быть дружественным к системе, а не к человеку».

Это уже не инженерная проблема, а политическая. Речь идет не о тонкой настройке моделей, а о перестройке общества. Если ИИ будет использоваться для атаки на энергосистему, то потребуется не «более этичный» ИИ, а инфраструктура, способная к автономному восстановлению. Если мошенничество портит выборы, то важно не его обнаружение, а готовность общественности повторить все это. Такой подход разрушает иллюзию, что проблему можно решить с помощью технических ограничений: теперь это вопрос политической воли и институциональной зрелости. Другими словами, технологии не исключают политических решений, они просто делают счета за ошибки гораздо более серьезными.

Это значит, что необходимо строить «закаленное» общество. Требуется системная адаптация – от подтверждения личности человека на цифровых платформах до создания систем защиты на базе искусственного интеллекта и резервной инфраструктуры для критически важных областей, таких как энергетика и здравоохранение. Это не светлое технологическое будущее, а скучная, но нужная работа: постоянные проверки, резервные системы и готовность к сбоям.

Большой вопрос эпохи ИИ заключается не в том, смогут ли машины думать, как люди, а в том, сохранят ли люди способность управлять собой, когда отказаться от нее станет легче.

Ответ зависит от трех вещей: сохранение права людей на отмену решений алгоритмов, построение устойчивой инфраструктуры в случае сбоя и постоянная «циклическая дисциплина» — постоянное выявление и проработка рисков. Общество оказывается перед выбором: продолжать иметь дело с машинами или укреплять собственные институты..

«Пришло время перестать быть зрителями и начать быть архитекторами», .

автор делает вывод

Все важное из мира технологий прямо на ваш почтовый ящик.

Подписываясь, вы принимаете наши Условия и Политику конфиденциальности. Вы можете отказаться от подписки одним щелчком мыши в любое время.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх