Генерируемые ИИ материалы теперь отличаются согласованностью по времени: люди в кадре правдоподобно движутся, легко узнаваемы, а содержание видео остаётся осмысленным в каждом кадре. Изображения лиц не мерцают, не искажаются и не имеют деформаций, которые раньше явно указывали на дипфейки. Качество клонирования голоса уже преодолело условный порог неразличимости. Чтобы создать убедительную имитацию голоса, достаточно нескольких секунд — у клона будут естественная интонация, ритм, акцент, эмоции, паузы и даже шум дыхания. Технический барьер для работы с генераторами контента, снизился практически до нуля — с OpenAI Sora 2 и Google Veo 3, а также с моделями некоторых стартапов любой желающий может сформулировать идею, составить подробный сценарий при помощи OpenAI ChatGPT или Google Gemini и в считанные минуты сгенерировать дипфейк.
Выявлять неотличимые от реальных людей дипфейки в социальных сетях становится крайне непросто, тем более, что внимание пользователей платформ уже фрагментировано, и материалы распространяются быстрее, чем их можно проверить. Дипфейки используются для дезинформации, преследования людей и финансовых махинаций, и люди не успевают понять, что происходит. Это касается даже экспертов: так, Грейс Бест-Деверекс, эксперт компании Sedgwick, специализирующейся на урегулировании претензий, сообщила, что проверяет метаданные в цифровых документах на предмет использования ИИ, однако, по её признанию, недавние улучшения качества нейросетей затрудняют выявление мошенничества даже для специалистов.
Траектория на следующий год представляется очевидной: дипфейки движутся в сторону генерации контента в реальном времени. Иными словами, это будут уже не заранее созданные ролики, а, например, возможность включаться в видеозвонок.