Резонансная тема

Дипфейк: вымысел или реальность

Время на прочтение: 3 минут(ы)

Про искусственный интеллект уже каждый знает, что с его помощью можно генерировать что угодно: от текста до видео. Злоумышленники активно этим пользуются и создают «дипфейки», то есть поддельные видео, фото или аудио, основанные на физических данных другого человека. К чему это может привести?

По данным отчета компании Resemble AI, в первом квартале 2025 года более половины инцидентов с использованием дипфейков приходилось на страны Северной Америки (38 % от общего числа) и Азии (27 %). По данным же руководителя предназначенной для предотвращения мошеннических действий кросс-канальной антифрод-системы BI.Zone AntiFraud Алексея Лужнова, в России количество случаев мошенничества с использованием дипфейков выросло в 2,3 раза с января по июнь 2025 года по сравнению с аналогичным периодом 2024 года. Более того, с апреля по июнь 2025 года телеоператор «Билайн» зафиксировал в мессенджерах более 100 атак по типу fake boss («фальшивый босс»), где злоумышленники генерировали фейковые видео- или аудиосообщения от имени руководства своих жертв. Причем каждая десятая такая атака – дипфейк.

Что это такое

Что вообще такое дипфейк? Этимология слова говорит сама за себя: от английского deep learning – «глубокое обучение» и fake – «подделка». Технология позволяет заменить лицо или голос одного человека на другие, нужные создателю дипфейка. Иначе говоря, это медийный способ показать человека в той ситуации, в которой он на самом деле не находился.

Как создают

Дипфейки создают благодаря алгоритмам машинного обучения, например генеративно-состязательным сетям, когда две нейросети работают в паре. Одна создает фейк, другая пытается определить подделку, улучшая ее качество. Еще один способ – автоэнкодеры, или алгоритмы, которые сжимают изображение до набора ключевых характеристик, а затем восстанавливают его с заданными изменениями. Применяются и технологии синтеза речи – системы, способные имитировать голос человека на основе образцов его речи. Есть и технологии захвата движения – они считывают мимику, в целом движения одного человека, а после переносят на изображение другого.

Где применяют легально

Законное применение дипфейков – обширно. Например, в киноиндустрии можно омолодить актеров или воссоздать образы умерших знаменитостей, изменить фигуру, лицо. В сфере образования – создать интерактивных персонажей, которые подают учебный материал. Можно даже оживить исторические события, провести их видеореконструкцию. Развлекательный контент – почему нет? Ролики с использованием ИИ-технологий применяются и в рекламных целях, в том числе инфлюенсерами. Дипфейки необходимы и для локализации контента, а именно синхронизации речи актеров с движением губ при переводе на другие языки.

Чем опасен

Но обратная сторона этой технологии: из-за дипфейков реальность ставится под угрозу.

Генерируются фальшивые новости, ложные заявления известных личностей и так далее.

Процветает финансовое мошенничество, особенно через имитацию голоса. Думаете, что говорите с коллегой или другом, а это дипфейк. Уже сейчас цифровые фальшивки – инструмент шантажа, дискредитации личной и профессиональной жизни. Поэтому доверять тому, что видишь, слышишь или читаешь, уже нельзя. Тем более если речь идет о близких людях. Первое, что нужно сделать: связаться с тем, кто оказался под дипфейковым прицелом, и узнать лично, как у него дела.

Что думает юрист

Андрей Витальевич Кулаевский, к. ю. н., старший преподаватель кафедры уголовного процесса и криминалистики АлтГУ:

– Дипфейки как технология не регулируются отдельным федеральным законом в Российской Федерации. Однако использование дипфейков может подпадать под действие различных законодательных актов в зависимости от контекста и следствий их применения.

Во-первых, дипфейки могут использоваться для создания ложной информации, порочащей честь, достоинство или деловую репутацию граждан. В таких случаях могут применяться нормы Гражданского кодекса РФ, касающиеся защиты нематериальных благ.

Распространение заведомо ложной информации, в том числе с использованием дипфейков, может повлечь за собой гражданско-правовую, административную или даже уголовную ответственность в зависимости от характера и последствий такого распространения.

Использование изображений или голоса человека в дипфейках без согласия самого этого человека может рассматриваться как нарушение законодательства о персональных данных.

Если дипфейк создан с использованием чужих изображений, видео или аудио без согласия правообладателя, это может нарушать авторские права. Статья 1231 Гражданского кодекса РФ устанавливает, что на территории России действуют исключительные права на результаты интеллектуальной деятельности, предусмотренные международными договорами и ГК РФ.

Создание и использование ИИ-блогеров, основанных на видео реальных блогеров с заменой лица, но сохранением мимики, а также последующий заработок на этом могут быть признаны противозаконными. Это связано с потенциальными нарушениями авторских прав, права на изображение. Использование видео реальных блогеров для создания ИИ-аватара, даже с изменением лица, может рассматриваться как создание производного произведения или переработка оригинального контента. Согласно статье 1257 Гражданского кодекса РФ автором произведения признается гражданин, творческим трудом которого создано произведение. Если ИИ-блогер использует видео реального блогера без его согласия, это может быть нарушением исключительного права автора на произведение.

Если деятельность ИИ-блогера включает рекламу, то к ней применяются требования законодательства, соответственно, о рекламе, та же обязательная маркировка. Согласно статье 18.1 Федерального закона «О рекламе», любая реклама в сети Интернет подлежит маркировке. Несоблюдение этих требований влечет административную ответственность. Если деятельность ИИ-блогера приносит доход и носит систематический характер, она может быть квалифицирована как предпринимательская деятельность без регистрации, что влечет административную ответственность по статье 14.1 Кодекса Российской Федерации об административных правонарушениях.

Эльвира ПЕТРЕНЕВА

Фото Марии Дубовской

22 просмотров