К 2025 году качество дипфейков, созданных с использованием медиафайлов искусственного интеллекта, значительно улучшится. Лица, голоса и движения тела, созданные искусственным интеллектом для имитации реальных людей, превзошли ожидания многих экспертов; эти материалы все чаще используются для введения людей в заблуждение, предупреждает Gizmodo.
Во многих повседневных ситуациях, будь то видеозвонки в низком разрешении или контент в социальных сетях, качество дипфейков на основе искусственного интеллекта уже достаточно высоко, чтобы обмануть обычных неспециалистов. Рост дипфейков не ограничивается качеством: в 2023 году таких материалов было 500 000, а к концу 2025 года их будет около 8 миллионов, по оценкам DeepStrike, при темпах роста около 900% в год.
Несколько технических прорывов способствовали резкому увеличению производительности. Во-первых, кадры, созданные с помощью ИИ, характеризуются временной согласованностью: люди в кадре двигаются реалистично, легко узнаваемы, а видеоконтент сохраняет смысл в каждом кадре. Модели отделяют информацию, связанную с представлением идентичности человека, от информации, связанной с движением: одно и то же движение может быть связано с разными идентичностями, а одна и та же идентичность — с несколькими типами движений. Изображения лиц не мерцают, не искажаются и не демонстрируют деформаций, которые ранее были явным признаком дипфейка.
Во-вторых, качество клонирования голоса уже превысило общепринятый порог неразличимости. Достаточно нескольких секунд, чтобы создать убедительную имитацию голоса — у клона будут естественные интонация, ритм, акцент, эмоции, паузы и даже звуки дыхания. Это дает широкие возможности для мошенничества в крупных размерах. Субъективные сигналы, которые раньше давали синтетические голоса, в значительной степени исчезли.
В-третьих, технический барьер для использования генераторов контента сведен практически к нулю. С помощью OpenAI Sora 2 и Google Veo 3, а также моделей некоторых стартап-компаний каждый может сформулировать идею, создать подробный сценарий с помощью OpenAI ChatGPT или Google Gemini и сгенерировать качественный контент за считанные минуты. Весь процесс можно автоматизировать с помощью AI-агентов. В результате способность создавать последовательные дипфейки с масштабными повествованиями теперь стала демократизированной.
2
Обнаружение дипфейков, неотличимых от реальных людей, в социальных сетях становится все труднее, особенно потому, что внимание пользователей на этих платформах теперь фрагментировано, а материалы распространяются быстрее, чем их можно проверить. Дипфейки используются для дезинформации, преследования и финансового мошенничества, оставляя людей в неведении о том, что происходит.
Траектория на предстоящий год выглядит ясной: дипфейки движутся в сторону генерации контента в реальном времени. Видео точно имитируют нюансы внешности человека и способны ускользнуть от систем обнаружения. Граница смещается от статического визуального реализма к постоянству во времени и поведении — контент будет появляться в реальном времени, а предварительно отрендеренных клипов уже будет недостаточно. Результат выйдет за рамки простого человеческого распознавания — персонажи видео будут вести себя так же, как их реальные коллеги. Участники видеопереговоров будут синтезироваться в реальном времени — их лица, голоса и манеры будут моментально подстраиваться под запросы, а вместо записанных видеороликов мошенники будут показывать своим жертвам настоящие AI-аватары.
Субъективное восприятие больше не поможет людям защититься от подобных дипфейков; потребуются технические гарантии, такие как криптографические подписи аутентичных материалов и маркировка инструментов редактирования ИИ. Тщательного изучения изображения на уровне пикселей может быть уже недостаточно.
`, // — БАННЕР 2 (Новости Google) — `
`, // — БАННЕР 3 (Viber) — `
` ); const randomIndex = Math.floor(Math.random() * Banners.length); document.getElementById(‘kaldata-random-banner’).innerHTML = баннеры(randomIndex); })();
Комментируйте статью на нашем форуме. Чтобы первыми узнавать самое важное, поставьте лайк нашей странице в Facebook и подпишитесь на нас в Google News, TikTok, Telegram и Viber или загрузите приложение по адресу Калдата.com для Android, iOS и Huawei!

