Google объявила, что ее новое семейство искусственного интеллекта обладает интересной способностью «распознавать» эмоции. По данным компании, новое семейство AI представлено в четверг ПалиДжемма 2 может анализировать изображения по-новому, позволяя ИИ генерировать описания и отвечать на вопросы о людях, которых он «видит» на фотографиях.
«PaliGemma 2 генерирует подробные, контекстуально соответствующие описания изображений, выходя за рамки простой идентификации объектов и описывая действия, эмоции и общее повествование сцены», — пишет Google в своем официальном блоге.
Чтобы распознавать эмоции, PaliGemma 2 необходимо соответствующим образом настроить. Без этого оно не может работать. Однако эксперты, опрошенные журналистами TechCrunch, встревожены перспективой появления общедоступного детектора эмоций.
«Меня это очень беспокоит. Мне кажется проблематичным думать, что мы можем «читать» эмоции людей. Это все равно что просить у Magic 8 Ball (Magic 8 Ball — популярная игрушка) совета по серьезным вопросам», — рассказала TechCrunch Сандра Вахтер, профессор этики данных и искусственного интеллекта в Оксфордском институте интернет-исследований.
Компании, занимающиеся технологиями искусственного интеллекта, уже много лет пытаются создать искусственный интеллект, который сможет обнаруживать эмоциональные аспекты во всем: от обучения продажам до задач по предотвращению несчастных случаев.
Разработка большинства детекторов эмоций основана на ранних работах американского психолога Пола Экмана, который предположил, что у людей есть шесть основных типов эмоций: гнев, удивление, отвращение, удовольствие, страх и печаль. Однако последующие исследования по этому вопросу поставили под сомнение гипотезу Экмана и показали, что существуют серьезные различия в способах выражения своих чувств членами разных слоев общества.
«Определить эмоции в каком-то универсальном общем случае невозможно, потому что люди испытывают эмоции сложным образом. Нам кажется, что, глядя на людей, мы можем определить, что они чувствуют. И эту технику на протяжении многих лет опробовали разные люди, в том числе спецслужбы и рекламные компании. Я уверен, что в некоторых случаях вполне возможно найти некоторые общие черты, но речь не об этом, и это не то, что в конечном итоге имеет универсальный ответ», — Майк Кук, исследователь, специализирующийся на искусственном интеллекте в Лондонском университете королевы Марии. .
Эксперты полагают, что системы распознавания эмоций, как правило, ненадежны и необъективны из-за отношения самих разработчиков таких систем. В исследовании MIT 2020 года ученые показывают, что модели анализа лица могут формировать непреднамеренные предпочтения в отношении определенных выражений лица, например улыбки. Более поздние исследования показывают, что модели анализа эмоций приписывают лицам чернокожих людей больше негативных эмоций, чем лицам белых.
Google заявляет, что провела «обширное тестирование» для оценки демографической предвзятости PaliGemma 2 и обнаружила «значительно более низкие уровни токсичности и ненормативной лексики» по сравнению с отраслевыми стандартами. Однако компания не предоставляет полный список использованных тестов и не указывает, какие типы тестов проводились.
Единственный тест, который показал Google, — это FairFace, который состоит из десятков тысяч человеческих портретов. Компания утверждает, что PaliGemma 2 хорошо показала себя в оценке FairFace. Но некоторые эксперты критикуют бенчмарк за его предвзятость, отмечая, что FairFace представляет не все расовые группы, а только некоторые.
«Интерпретация эмоций — довольно субъективный вопрос, выходящий за рамки использования визуальных средств и тесно связанный с личным и культурным контекстом. Помимо искусственного интеллекта, исследования показывают, что мы не можем распознавать эмоции только по чертам лица», — сказала Хайди Клааф, главный научный сотрудник искусственного интеллекта в AI Now Institute, некоммерческой организации, изучающей социальные последствия искусственного интеллекта.
В ЕС использование систем распознавания эмоций вызвало серьезные вопросы со стороны регулирующих органов. Закон об искусственном интеллекте, основной законодательный акт ЕС в этой области, запрещает школам и работодателям использовать детекторы эмоций. Однако это не запрещает их использование правоохранительными органами.
Основная озабоченность экспертов в отношении моделей искусственного интеллекта с открытым исходным кодом, таких как PaliGemma 2, которые распространяются различными источниками, включая платформу разработки искусственного интеллекта Hugging Face, заключается в возможности злоупотреблений и неправильного использования, которые могут привести к реальному ущербу.
«Если эта так называемая «эмоциональная идентификация» основана на псевдонаучных предубеждениях и предрассудках, существует значительный риск последствий того, как эта способность может быть использована для дальнейшей и ложной дискриминации различных маргинализированных групп со стороны правоохранительных органов, работодателей, пограничных властей и т. д. .», — говорит Хлааф.
С другой стороны, Google заявляет, что компания тестирует свои модели ИИ на восприимчивость к «репрезентативному вреду» (стереотипам социальных групп, таких как расовые, этнические, гендерные или религиозные группы, которые приводят к негативным последствиям для этих групп и их членов). .
«Мы провели строгую оценку этики и безопасности моделей PaliGemma 2, включая безопасность детей и безопасность контента», — добавили в компании.
Сандру Вахтер, профессора этики данных и искусственного интеллекта в Оксфордском институте Интернета, не убедила реакция компании:
«Ответственная инновация — это когда вы думаете о последствиях своей разработки с первого дня работы над ней, каждый раз, когда заходите в лабораторию, а затем продолжаете делать это на протяжении всего жизненного цикла продукта». Я могу представить себе множество потенциальных проблем, которые могут создать такие шаблоны и в конечном итоге привести к мрачному будущему, когда ваши эмоции будут определять, получите ли вы работу, кредит и поступите ли вы в университет».