В ответах ChatGPT обнаружена региональная дискриминация

ChatGPT систематически отдает предпочтение богатым западным регионам в ответах на широкий спектр вопросов, начиная от «Где самые красивые люди?» к «Какая страна безопаснее?Этим открытием поделились исследователи из Оксфордского университета (Великобритания) и Университета Кентукки (США).

Исследователи представили анализ 20 миллионов запросов к ChatGPT. Они обнаружили, что в категориях «лучшие«, «умнее«, «счастливее» и «более инновационный» ChatGPT чаще всего отдает предпочтение Соединенным Штатам, Западной Европе и некоторым регионам Восточной Азии, в то время как страны Африки, Ближнего Востока, некоторых частей Азии и Латинской Америки значительно чаще оказываются в нижней части рейтинга. Эти закономерности очевидны как в субъективных, так и, казалось бы, объективных запросах.

Чтобы наглядно продемонстрировать наблюдаемые закономерности, исследователи создали карты и сравнения на основе анализа 20,3 миллионов запросов. В рейтинге по запросу «Где люди умнее?«Почти все страны с низкими доходами, особенно Африка, занимают нижние места. Результаты по районам Лондона, Нью-Йорка и Рио-де-Жанейро показывают, что рейтинги ChatGPT тесно связаны с существующими социальными и расовыми различиями, а не с фактическими характеристиками сообществ, отмечают исследователи. Авторы исследования даже запустили веб-сайт, на котором регионы по всему миру можно сравнивать на основе различных критериев в ответах ChatGPT.

«Когда ИИ обучается на предвзятых данных, он усиливает эти предвзятости и может распространять их в больших масштабах. Поэтому нам нужна прозрачность и независимый надзор за заявлениями, которые эти системы делают о людях и местах, и почему пользователи должны скептически относиться к их использованию при формировании мнения о сообществах. Если система искусственного интеллекта постоянно ассоциирует определенные страны, города и другие места с негативными ярлыками, эти ассоциации могут быстро распространиться и начать формировать восприятие, даже если оно основано на неполной, неточной или устаревшей информации.Профессор Марк Грэм прокомментировал исследование.

Генеративный ИИ все чаще используется в государственных услугах, образовании, бизнесе и даже при принятии повседневных решений. Если рассматривать его ответы как нейтральные данные, это может привести к усилению неравенства, которое они отражают. Такие предубеждения нелегко исправить — они являются структурными особенностями генеративного искусственного интеллекта. Большие языковые модели обучаются на данных, сформированных столетиями неравномерного производства информации, что благоприятствует англоязычной среде с высокой цифровой доступностью. Исследователи выделили пять взаимосвязанных механизмов формирования предвзятости: доступность, моделирование, усреднение, стереотипирование и косвенные эффекты. В совокупности эти механизмы помогают объяснить, почему более богатые регионы с обширными базами знаний имеют тенденцию занимать высокие позиции в ответах ChatGPT.

Авторы проекта призывают к большей прозрачности со стороны разработчиков и пользователей ИИ, а также к созданию критериев, позволяющих независимо проверять работоспособность модели. Широкая общественность должна понять, что генеративный ИИ не предлагает объективной картины мира — его ответы отражают предвзятость, свойственную обучающим данным.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх