За год качество создаваемых ИИ дипфейков радикально улучшилось, а темпы роста их количества составили 900%

 
За 2025 год качество дипфейков — создаваемых при помощи искусственного интеллекта медиафайлов — значительно повысилось. Лица, голоса и движения тела, которые ИИ генерирует, имитируя реальных людей, превзошли ожидания многих экспертов; эти материалы всё чаще используются, чтобы обманывать людей. Качеством всплеск дипфейков не ограничивается: в 2023 году таких материалов было 500 тыс., а в 2025 году их стало около 8 млн, подсчитали в DeepStrike, и темпы роста составляют около 900% в год.

Генерируемые ИИ материалы теперь отличаются согласованностью по времени: люди в кадре правдоподобно движутся, легко узнаваемы, а содержание видео остаётся осмысленным в каждом кадре. Изображения лиц не мерцают, не искажаются и не имеют деформаций, которые раньше явно указывали на дипфейки. Качество клонирования голоса уже преодолело условный порог неразличимости. Чтобы создать убедительную имитацию голоса, достаточно нескольких секунд — у клона будут естественная интонация, ритм, акцент, эмоции, паузы и даже шум дыхания. Технический барьер для работы с генераторами контента, снизился практически до нуля — с OpenAI Sora 2 и Google Veo 3, а также с моделями некоторых стартапов любой желающий может сформулировать идею, составить подробный сценарий при помощи OpenAI ChatGPT или Google Gemini и в считанные минуты сгенерировать дипфейк.


Выявлять неотличимые от реальных людей дипфейки в социальных сетях становится крайне непросто, тем более, что внимание пользователей платформ уже фрагментировано, и материалы распространяются быстрее, чем их можно проверить. Дипфейки используются для дезинформации, преследования людей и финансовых махинаций, и люди не успевают понять, что происходит. Это касается даже экспертов: так, Грейс Бест-Деверекс, эксперт компании Sedgwick, специализирующейся на урегулировании претензий, сообщила, что проверяет метаданные в цифровых документах на предмет использования ИИ, однако, по её признанию, недавние улучшения качества нейросетей затрудняют выявление мошенничества даже для специалистов. 


Траектория на следующий год представляется очевидной: дипфейки движутся в сторону генерации контента в реальном времени. Иными словами, это будут уже не заранее созданные ролики, а, например, возможность включаться в видеозвонок.

 


Материал недели
Главные темы
Рейтинги
  • Самое читаемое
  • Все за сегодня
АПН в соцсетях
  • Вконтакте
  • Telegram