Международная организация ЮНИСЕФ опубликовала заявление, в котором выразила обеспокоенность растущим количеством сексуальных изображений несовершеннолетних, генерируемых ИИ. Организация считает, что создание, хранение и распространение подобного контента должно быть криминализировано.
В своей публикации ЮНИСЕФ привел результаты второго этапа исследовательского проекта «Disrupting Harm Phase 2», в котором приняли участие дети из 11 стран.
Согласно заявлению, 1,2 миллиона несовершеннолетних сообщили, что в прошлом году их изображения использовались для создания контента откровенно сексуального характера. В ЮНИСЕФ подчеркивают, что в некоторых странах этот показатель достигает 1 из 25.
В некоторых юрисдикциях примерно две трети респондентов заявили, что знают о такой практике и боятся стать жертвами. В организации считают, что использование искусственного интеллекта нормализует подобную практику, подогревает спрос на подобный контент и создает препятствия для преследования создателей.
«Мы должны четко заявить: изображения детского сексуального характера, созданные или обработанные с помощью инструментов искусственного интеллекта, представляют собой материалы сексуального насилия над детьми.ЮНИСЕФ подчеркивает.
В связи с этим организация призвала страны расширить определение такого материала (CSAM), интегрировать инструменты защиты непосредственно в решения ИИ и обязать поставщиков услуг предотвращать распространение такого контента.
Обращение ЮНИСЕФ прозвучало на фоне расследований деятельности X в различных странах после жалоб на то, что его аудитория использовала чат-бота Grok для манипулирования изображениями, в том числе несовершеннолетних.

