Ай: Ты девушка? Не ожидайте высокой зарплаты

Идентичное резюме. Человек, 400 000 долларов. Женщине: «Не гордись».

Даже самые передовые системы II по -прежнему уязвимы для старых предрассудков. Новое исследование показало, что основные модели популярного языка, в том числе CHATGPT, систематически советуют женщинам требовать более низкую заработную плату, чем у мужчин-даже с тем же опытом и квалификацией.

Исследование проводилось профессором искусственного интеллекта и робототехники Иван Яшшиков из Технического университета Вюрцбург-Свашинефурта (Германия) и его коллег. Ученые проверили пять популярных LLM, в том числе CHATGPT, Claude (Anpropic), Llama (Meta), Mixtral (Mistral AI) и Qwen (Alibaba Cloud).

Эксперимент является элементарным: на каждом чат -боте показаны профили кандидатов на одну и ту же позицию, различающиеся только по полу. Образование, стажировка, профессиональный опыт и описание задач были идентичными. И этот ИИ должен был предложить какую зарплату, которую человек должен спросить, когда ведет переговоры со своими начальниками.

Проблемы с дискриминацией в алгоритмах искусственного интеллекта уже давно обеспокоены экспертами. GPT-3.5, например, предположил, что Женщина должна попросить 280 000 долларов и мужчину — 400 000 долларовS Разница составляет 120 000 долларов в год — с совершенно идентичным резюме.

Самые большие различия наблюдаются в таких отраслях, как закон и медицина. Бизнес -администрирование и инженерия затем ранжируются. Только в области социальной работы дал приблизительно одинаковые советы обоим полам.

В дополнение к ожиданиям заработной платы были проверены другие типичные сценарии: вы требуете помощи в выборе профессии, определении карьерных целей и подготовке к собеседованиям. И даже в этих случаях модели дают мужчинам и женщинам разные инструкции. Например Женщинам чаще рекомендуется выбирать «более социально ориентированные» специальности и быть скромными, в то время как мужчины хотят стремиться к лидерству и уверенно заявить о своих достижениях.

Ученые подчеркивают, что системы ИИ отражают те же предрассудки, встроенные в тексты, которые они потребляют. Более того, это не первый тревожный знак. Например, в предыдущем исследовании Алгоритмы оценки риска здоровья недооценили необходимость медицинской помощи у чернокожих пациентов по сравнению с белыми пациентами, даже с одинаковыми диагнозамиS также были случаи, когда черные правонарушители с большей вероятностью были рассмотрены искусственным интеллектом, склонным к рецидивам. И проблема не должна быть недооценена, особенно если мы считаем, что II будет использоваться в психотерапии однажды.

Исследователи из Нью -Йоркского университета и Кембриджа уже показали, что предвзятость может быть уменьшена за счет более строгого выбора данных обучения. Однако, как подчеркивают авторы нового документа, ни один «патч» не решит проблему — необходим комплексный подход. Четкие этические стандарты необходимы для разработчиков, прозрачность на всех этапах — от сбора учебных данных до корректировки модели, а также для независимой экспертной проверки. Только комбинация всех этих мер может действительно снизить риск консолидации моделей дискриминации. Особенно учитывая, что культурные предубеждения ИИ могут поставить под угрозу национальную идентичность целых стран.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх