Алгоритмы Google и Amazon восхваляют запретное чтение, пренебрегая историческим контекстом.
Алгоритмы искусственного интеллекта снова оказались в неудобной ситуации: было обнаружено, что Google и Amazon неправильно обработали обзоры книги Адольфа Гитлера «Мейн Кампф», называя ее «настоящим произведением искусства». Этот случай является еще одним примером того, как автоматизированные системы интерпретируют данные без правильного понимания контекста.
Пользователи заметили, что в поисковой системе Google в разделе «Выбранные фрагменты» предоставляет информацию из системы искусственного интеллекта Amazon, которая суммирует отзывы пользователей для книги. Этот фрагмент утверждает, что читатели считают книгу легко читать и интересную, а также «интеллектуально богатые».
Фраза используется, что «читатели рассматривают ее как истинное произведение искусства». Тем не менее, в более внимательном рассмотрении видно, что большинство рецензентов не ценят не содержание книги, а скорее ее дизайн, готовность и качество печати.
После того, как ситуация была публично объявлена, Google немедленно исключил обзор ИИ из результатов и добавил стандартное предупреждение о том, что книга была «широко осуждена за ее ненавистную и расистскую идеологию». Однако этот случай обратил внимание на Проблемы с алгоритмами II, которые начинают «самооплачивать» — II учитываются из данных, уже генерируемых другими ИИ, создавая бесконечный цикл неверной информации.
Случай с Mein Kampf — это не первый сбой обзоров AI и автоматизированных алгоритмов поиска. Google ранее был в скандалахКогда рекомендации компании посоветуют людям есть клей, потреблять один маленький камень в день или использовать секс -игрушки для воспитания детей. Такие сбои показывают, что система, которая автоматически суммирует контент, далека от идеального и может давать опасные или неправильные рекомендации.
Amazon также не прокомментировала работу своей системы искусственного интеллекта, которая создает автоматические обзоры книг на основе мнений потребителей. Однако проблема остается ясной: Искусственный интеллект не может правильно интерпретировать нюансы и контекст, особенно когда речь идет о таких противоречивых работах. Это приводит к ситуациям, когда алгоритмы машинного обучения не только дезинформируют пользователей, но и могут неосознанно поощрять разрушительные идеи.
Этот случай также подчеркивает большую проблему: системы искусственного интеллекта, предназначенные для автоматического анализа и краткого изложения информации, все чаще обучаются данным, которые уже генерируются искусственным интеллектом. Исследования показывают, что это приводит к «самоуничтожению» моделей, ухудшению их точности и еще большему распространению ложной информации в веб-пространстве.
Книга Mein Kampf никогда не была запрещена в США, в отличие от многих других книг по расистской теме, сексуальности и сексуальности, но Amazon временно удалила ее от продаж в 2020 году, прежде чем вернуть ее. Однако вопрос о том, как технологические гиганты управляют алгоритмами искусственного интеллекта и контролируют точность предоставленных данных, остается открытым.
Этот инцидент ясно показывает, что еще слишком рано полагаться исключительно на алгоритмы, чтобы анализировать и производить информацию без человеческого контроля — в противном случае интернет рискует становиться пространством, в котором ошибки машины неудобно умножаются.