ЮК "Сфера Интересов Плюс" > Закон и Практика > Юридический ликбез > Видеозвонок, который вас разорит: как дипфейки крадут лица и деньги

Видеозвонок, который вас разорит: как дипфейки крадут лица и деньги

Видеозвонок, который вас разорит: как дипфейки крадут лица и деньги в 2026 году
Содержание

Сегодня отличить реальность от цифровой генерации стало сложнее, чем когда-либо. Но если раньше технологии Дипфейк (Deepfake) были развлечением, то сегодня это мощный инструмент как для бизнеса, так и для злоумышленников. Юридическая компания «Сфера Интересов Плюс» (г. Мурманск) разъясняет, что говорит актуальное законодательство об использовании чужого лица и голоса, и как наказать нарушителя.

Цифровой клондайк: новая правовая реальность

Еще несколько лет назад использование чужого лица в видеоролике находилось в «серой зоне». Сегодня российское законодательство четко регламентирует эти вопросы. С развитием генеративных нейросетей государство ужесточило контроль за оборотом биометрических данных и синтетическим контентом.
Главный принцип 2026 года: ваше цифровое «Я» неприкосновенно. Любая генерация вашего образа или синтез голоса без письменного согласия — это прямое нарушение гражданских прав, влекущее за собой ответственность вплоть до уголовной.

Законодательная база: голос под охраной

Фундаментом защиты граждан в этой сфере являются статьи Гражданского кодекса РФ, которые к текущему моменту обросли обширной судебной практикой.

  • Охрана изображения (ст. 152.1 ГК РФ): Обнародование и использование изображения гражданина (в том числе его фотографии, видеозаписи или произведения изобразительного искусства, в которых он изображен) допускаются только с его согласия. Дипфейк юридически приравнивается к изображению, так как он использует узнаваемые черты лица.
  • Охрана голоса (ст. 152.2 ГК РФ): Эта статья, ставшая ключевой в последние годы, закрепила право на голос как нематериальное благо. Использование записи голоса или его синтез (клонирование нейросетью) без разрешения владельца запрещено.

Исключения составляют лишь случаи использования изображений в государственных, общественных интересах или если съемка проводилась в открытом публичном месте (и конкретное лицо не является основным объектом). Однако создание дипфейка для рекламы или пранка под эти исключения не попадает.

Дипфейки в арсенале мошенников: новые схемы и методы защиты

В 2026 году технологии генерации изображений и голоса достигли пугающего реализма. Если раньше дипфейк можно было отличить по низкому качеству картинки, то современные нейросети работают в режиме реального времени, подменяя лицо и голос прямо во время видеозвонка в мессенджере.

Распространенные сценарии атак:

  • «Звонок от силовиков»: Мошенники звонят по видеосвязи через Telegram или WhatsApp, представая в форме сотрудников полиции, ФСБ или следователей. Они демонстрируют в камеру поддельные удостоверения и требуют «содействия в поимке преступников» или срочного перевода средств на «безопасный счет» ЦБ РФ. Визуальный контакт с человеком в форме парализует волю жертвы и вызывает доверие.
  • Фейковые интервью и инвестиции: В соцсетях распространяются видео, где известные люди (политики, бизнесмены, звезды шоу-бизнеса) призывают вкладываться в новые «государственные» инвестиционные платформы. Ссылки ведут на фишинговые сайты, где у граждан крадут персональные данные и данные карт.
  • Шантаж: Злоумышленники берут обычные фотографии жертвы из соцсетей и с помощью ИИ генерируют порнографические материалы или видео, где человек якобы совершает противоправные действия. Затем следует требование выкупа под угрозой рассылки этого контента друзьям, коллегам и родственникам.
  • Схема «Фальшивый начальник 2.0»: Теперь это не просто голосовые сообщения. Аферисты устраивают полноценные видеоконференции, где присутствует фальшивый «начальник» и несколько «коллег» (тоже боты или сообщники), создавая иллюзию рабочего совещания. Бухгалтера убеждают совершить срочный платеж прямо во время звонка.

Как распознать дипфейк во время разговора?

Даже в 2026 году технологии имеют уязвимости. Обращайте внимание на детали:

  1. Мимика и глаза. Нейросети научились моргать, но часто делают это неестественно (слишком редко или слишком часто). Взгляд может быть расфокусированным.
  2. Синхронизация губ. Присмотритесь к движению губ — иногда звук немного отстает или опережает картинку (эффект «плохого дубляжа»).
  3. Артефакты по краям. Резкие движения головой могут вызвать «смазывание» контура лица, особенно в области волос, шеи и ушей. Очки и украшения могут «плавиться» или исчезать при повороте головы.
  4. Эмоциональная бедность. Голос может звучать убедительно, но интонационно он часто монотонен, без характерных для живого человека запинок, вздохов и пауз на раздумья.

Тест на реальность:

Если вы подозреваете, что говорите с цифровым клоном, попросите собеседника сделать действие, сложное для нейросети в реальном времени:

  • Попросите его повернуться к камере профилем (резкий поворот на 90 градусов часто «срывает» маску).
  • Попросите провести рукой перед лицом (перекрытие лица рукой сбивает алгоритм наложения).
  • Задайте неожиданный личный вопрос, на который бот или мошенник не смогут ответить мгновенно.

Как не стать жертвой:

  • Кодовое слово. Договоритесь с близкими родственниками о «пароле безопасности». Если вам звонит «сын» или «муж» с просьбой о деньгах, спросите кодовое слово. Если ответа нет или звучит отговорка «я потом скажу, сейчас срочно» — кладите трубку.
  • Обратный звонок. Если вам звонит начальник или сотрудник банка по видеосвязи в мессенджере — прервите звонок и перезвоните ему по обычной сотовой связи или на рабочий стационарный номер.
  • Не верьте глазам. В эпоху дипфейков видео-подтверждение больше не является гарантией истины. Любые финансовые вопросы решайте только при личной встрече или через официальные банковские приложения, игнорируя инструкции из видеозвонков.

Опасность в медиа: репутация под угрозой

 

Несанкционированное использование личности часто встречается в маркетинге и блоггинге.

Пример: Реклама сомнительных финансовых курсов с лицом известного предпринимателя или блогера, который никогда не давал на это согласия.

Такой контент наносит колоссальный репутационный вред. Зрители верят «картинке» и ассоциируют обман или некачественный продукт с реальным человеком. Даже если видео помечено маркировкой «создано ИИ» (что обязательно по законам о рекламе), использование образа конкретного человека без договора незаконно.

Цифровая гигиена: как защитить себя?

Полностью исключить риск сложно, но можно минимизировать вероятность кражи личности:

  1. Биометрия. Будьте осторожны при сдаче биометрии в непроверенных сервисах.
  2. Закрытые профили. Ограничьте доступ к своим фото и видео, где четко видно лицо и слышен голос (особенно для детей).
  3. Голосовые сообщения. Старайтесь не отправлять голосовые сообщения незнакомым контактам в мессенджерах — они являются идеальным «сырьем» для обучения нейросети вашим голосом.

Суд, доказательства и компенсация

Если вы обнаружили дипфейк со своим участием или клонированный голос, алгоритм действий следующий:

Шаг 1: Фиксация

Необходимо нотариально заверить скриншоты переписок, видеоролики и аудиозаписи. Простой скриншот в суде может быть оспорен как «подделка», поэтому требуется осмотр сайта нотариусом.

Шаг 2: Экспертиза

Потребуется фоноскопическая и портретная экспертиза. Специалисты должны подтвердить, что использованы именно ваши биометрические параметры или их синтетическая копия.

Шаг 3: Претензия и иск

Юристы помогут составить требование к площадке (соцсети/хостингу) об удалении контента и иск к нарушителю.

На что вы имеете право:

  • Удаление контента: Полная блокировка видео/аудио.
  • Компенсация морального вреда (ст. 151 ГК РФ): Суммы компенсаций за последние годы выросли. В зависимости от охвата аудитории и ущерба репутации, суды присуждают от 50 000 до нескольких миллионов рублей.
  • Опровержение: Публичное признание ответчиком факта использования фейка.

Заключение

Технологии опережают нашу осторожность, но закон на вашей стороне. Использование вашего лица и голоса — это кража вашей личности, которая должна быть наказана.

Если вы стали жертвой цифрового мошенничества или увидели рекламу со своим участием, на которую не давали согласия — не ждите. Обращайтесь в ЮК «Сфера Интересов Плюс». Мы знаем, как доказать цифровую подделку и защитить ваши права в суде.

Поделитесь этой публикацией

ВКонтакте
Одноклассники
Телеграм
WhatsApp

Расскажите нам о проблеме

Наш юрист свяжется с вами в кратчайшие сроки для уточнения деталей и обсуждения вариантов решения.

Повчун Антонина Владимировна

Антонина Повчун

Руководитель юридической практики ЮК "Сфера Интересов Плюс"

Заказать звонок юриста

Вы можете проконсультироваться с юристом по телефону или договориться о личной встрече.

Записаться на консультацию

Наш юрист свяжется с вами в кратчайшие сроки для уточнения деталей, согласования времени и способа общения.

Расскажите нам о проблеме

Наш юрист свяжется с вами в кратчайшие сроки для уточнения деталей и обсуждения вариантов решения.