Одной из самых больших проблем в разработке искусственного интеллекта является неспособность понять, как и почему алгоритм принимает решения. Чтобы приблизиться к разгадке, ученые создали метод, который превращает сложные машинные стратегии в понятные психологические профили. Поместив ИИ в хаотичную среду, они заставляют его развиваться, а затем используют другую модель ИИ для описания его «личности», заглядывая в «черный ящик».
Современные алгоритмы ИИ разрабатывают стратегии, которые дают отличные результаты, но остаются непонятными для их создателей. Исследователи просто не могут объяснить, почему эти решения работают. Эта так называемая «проблема интерпретируемости» является одним из препятствий на пути к безопасному использованию искусственного интеллекта.
В недавней статье на arXiv исследователи из Измирского технологического института предлагают подход, который помогает лучше понять, что стоит за действиями ИИ. Исследование показывает: искусственный интеллект, столкнувшись с хаосом и стрессорами, может разрабатывать стратегии, напоминающие индивидуальные черты личности, которые до сих пор считались прерогативой людей.
Ученые предположили, что ИИ может решить повторяющуюся дилемму заключенного из теории игр. Суть такова: два игрока выбирают между сотрудничеством и предательством. Если оба промолчат, они получат небольшое «наказание». Если один совершает измену, он остаётся «на свободе», а другой получает тяжёлое наказание. Если они оба совершят государственную измену, они оба получат среднее наказание. Основная дилемма: сотрудничать или совершить измену? За несколько итераций агентам пришлось придумать стратегию, которая принесет наибольшую выгоду.
Раньше большинство симуляций происходило в стерильной, идеализированной среде: действия выполнялись идеально, а вознаграждение оставалось постоянным. Теперь ученые ввели «режим бога» с пятью факторами стресса: ошибки агентов, внезапное уменьшение вознаграждения, искушение предать, потеря памяти и выслеживание врага.
Используя алгоритм, напоминающий естественный отбор, агенты развиваются на протяжении более 100 поколений: успешные стратегии «пересекаются», а неэффективные отбрасываются. В результате появились адаптированные агенты с уникальными поведенческими особенностями.
В идеальной среде искусственный интеллект демонстрирует высокую эффективность, но уязвим для сбоев. Но в условиях хаоса выживали системы с более устойчивыми и сложными стратегиями, напоминающие полноценные «личности».
Чтобы выявить наиболее сильные закономерности, ученые провели четыре теста: измерили склонность к агрессии, способность прощать после предательства, устойчивость к случайным ошибкам и жадность. Затем эти данные были переданы в GPT-5.1, который преобразовал числовые результаты в подробные личностные профили. Среди выявленных «личностей» оказался агент по прозвищу «параноидальный пацифист»: осторожный, отзывчивый, но мгновенно реагирующий на предательство.
Метод позволяет заглянуть в «черный ящик» искусственного интеллекта и понять, почему стратегии работают. Это открывает путь к созданию объяснимого ИИ (XAI), повышает надежность систем и улучшает взаимодействие между людьми и ИИ в реальном мире.
`, // — БАННЕР 2 (Новости Google) — `
`, // — БАННЕР 3 (Viber) — `
` ); const randomIndex = Math.floor(Math.random() * Banners.length); document.getElementById(‘kaldata-random-banner’).innerHTML = баннеры(randomIndex); })();
Комментируйте статью на нашем форуме. Чтобы первыми узнавать самое важное, поставьте лайк нашей странице в Facebook и подпишитесь на нас в Google News, TikTok, Telegram и Viber или загрузите приложение по адресу Калдата.com для Android, iPhone, Huawei, Google Chrome, Microsoft Edge и Opera!

