Традиционные сайты теряют аудиторию из -за чат -ботов и агентов с искусственным интеллектом

Компании, специализирующиеся на искусственном интеллекте, пообещали владельцам веб -сайтов, что следующие поисковые системы по генерации предоставят им приток посетителей путем пересылки. Новый отчет о лицензировании контента Tollbit показывает, что это не так.

Ранее OpenAI и недоумение сделали громкие заявления, что их поисковые системы искусственного интеллекта, которые собирают контент из Интернета, предоставили владельцам сайтов посетителей и новых источников дохода. Фактически, поисковые системы II отправляют на 96% меньше перенаправленного трафика на сайты и блоги новостей, чем традиционный поиск в Google, согласно отчету Tollbit, который компания поделилась с Forbes. В то же время объем информации, собранной с ИИ с веб -сайтов, увеличился более чем в два раза за последние месяцы. OpenAI, смущение, мета, мета и другие компании EI отсканировали веб -сайты около 2 миллионов раз в четвертом квартале 2024 года — данные основаны на 160 сайтах, включая национальные и местные новостные ресурсы, сайты потребительских технологий и покупки. Каждая страница в них была отсканирована в среднем 7 раз.

Tollbit предлагает веб -сайты для обнаружения инструментов сканирования искусственного интеллекта — каждый раз, когда это происходит, компания собирает плату от разработчиков платформ искусственного интеллекта в пользу ресурсов, зарегистрированных на его платформе анализа. Это дает Tollbit представление о движении и деятельности механизмов сканирования. OpenAI, мета и недоумение не комментировали данные, представленные в отчете, но недоумение отметило, что их система следует указаниям файлов robots.txt — они указывают, какие разделы сайтов разрешены.

В феврале аналитики Gartner опубликовали прогноз, что к 2026 году трафик от традиционных поисковых систем из -за чат -ботов и агентов искусственного интеллекта уменьшится на 25%.

Процесс уже идет: Chegg, компания, специализирующаяся на образовательных технологиях, недавно решила подать в суд на Google за резюме данных, которые показаны в результатах поиска. Во втором квартале прошлого года, когда они начали появляться в первый раз, трафик Chegg упал на 8%, а в январе этого года он уже упал на 49%. Согласно версии заявителя, результаты поиска с искусственным интеллектом включают материалы с сайта Chegg без указания источника. Падение трафика настолько повлияло на Chegg до такой степени, что компания уже рассматривает возможность стать частной или полностью продавать свои активы. Google назвал Chegg «необоснованным» заявлением и сказал, что разнообразие сайтов в результатах поиска увеличилось.

Ситуация осложняется тем фактом, что при ползании ресурсов и сбора данных разработчики искусственного интеллекта указывают в своих системах значения линии пользователя, которые не соответствуют реальности, и это мешает владельцам сайтов выявлять сканеры и формировать идею о том, как компании искусственного интеллекта используют отправление. Согласно одной теории, Google использует одни и те же боты для разных целей — они одновременно индексируют сайты и собирают данные из них для ИИ. Действия «Снижения», которые утверждают, что директивы robots.txt еще более непредсказуемы: даже когда ресурс блокирует доступ через веб -сервер, сканирование, вероятно, не останавливается, потому что трафик от ссылок продолжает прибывать. Если полагают официальные данные, один из ресурсов был отсканирован 500 раз, после чего он получил 10 000 посетителей от сбытости. Это может быть объяснено только операцией неопознанного сканирующего бота.

В прошлом году было поймано озабоченность, а затем ссылался на почти дословные материалы, в том числе оплачиваемые популярные новостные газеты, в том числе Forbes, CNBC и Bloomberg — не указывая на источник.

Служба компании также часто цитируется в блогах низкого качества, генерируемых искусственным интеллектом и публикациями в социальных сетях, содержащих неточную информацию. New York Post и Dow Jones подали дело против недоумения, обвинив компанию в нарушениях авторских прав. Неконтролируемое сканирование содержания веб -сайтов также приводит к увеличению затрат на ресурсы сервера. OpenAI и недоумение запустили агентов II, которые самостоятельно проводят необходимую информацию на сайтах и ​​подготовят подробные отчеты, которые наверняка углубит проблему.

Одним из очевидных способов разрешения конфликта является прямое лицензирование материала. Associated Press, Axel Springer и Financial Times завершили соответствующие соглашения с OpenAI. Есть также новые компании, которые взимают с владельцев систем искусственного интеллекта каждый раз, когда они копируют материалы с веб -сайтов — это модель, используемая Tollbit, которая подготовила отчет.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх