Современные технологии искусственного интеллекта (ИИ) ставят под сомнение эффективность традиционных инструментов защиты от интернет-ботов. По данным The Conversation, тесты CAPTCHA, призванные отличать людей от машин, больше не работают. Боты с искусственным интеллектом способны решать эти головоломки быстрее и точнее, чем люди.
CAPTCHA, появившаяся в начале 2000-х годов, была изобретением учёных Университета Карнеги-Меллон. Изначально система была создана для защиты сайтов от автоматизированных программ — ботов, которые создают фейковые аккаунты или, например, рассылают спам. Принцип работы был очень прост: человек должен был выполнить задачу, легкую для человека, но сложную для машины.
Первая версия CAPTCHA требовала от пользователей ввода букв и цифр. Позже, в 2007 году, появилась ReCaptcha, где к заданиям добавлялись слова. В 2014 году Google выпустила ReCaptcha v2, которая до сих пор остается самой популярной версией. Вам будет предложено установить флажок «Я не робот» или выбрать допустимые изображения, например велосипеды или светофоры.
Однако системы искусственного интеллекта научились обходить CAPTCHA. Технологии компьютерного зрения и обработки языка позволяют машинам легко «читать» искаженный текст и распознавать объекты на изображениях.
Например, инструменты искусственного интеллекта, такие как Google Vision и OpenAI Clip, решают подобные задачи за доли секунды, тогда как у людей на это уходит гораздо больше времени. Это уже становится проблемой в реальной жизни. Боты используются для покупки билетов на спортивные матчи или для массового бронирования мест, тем самым закрывая обычным пользователям доступ к покупке билетов. В Великобритании автоматизированные программы массово бронируют места для сдачи экзаменов по вождению и перепродают их с огромной наценкой.
Однако разработчики пытаются адаптироваться к новым вызовам. В 2018 году Google представила ReCaptcha v3, которая больше не требует от пользователей решения головоломок. Вместо этого система анализирует поведение веб-сайта — движение курсора, скорость набора текста и другие детали, уникальные для людей.
Однако оказывается, что даже эти методы не идеальны. Прежде всего, они поднимают вопросы конфиденциальности данных, поскольку требуют сбора информации о пользователях. Некоторые веб-сайты уже начали использовать биометрические данные для проверки пользователей, такие как отпечатки пальцев, голосовые команды или распознавание лиц.
С появлением так называемого AI-агенты — программы, которые будут выполнять задачи от имени пользователей, ситуация может еще больше усложниться. В будущем веб-сайтам придется различать «хороших» ботов, которые работают на благо пользователей, и «плохих» ботов, нарушающих правила. Одним из возможных решений могло бы стать введение цифровых сертификатов для аутентификации, но они все еще находятся на стадии разработки.
Другими словами, битва между ботами и системами безопасности продолжается. CAPTCHA, которая когда-то была надежным инструментом, теряет свою эффективность, и разработчикам придется искать новые способы защиты, которые будут одновременно удобны для пользователя и недоступны для злоумышленников.