Плодятся как ролики: в соцсетях в разы выросло число фейковых видео катастроф

Как технологии ИИ используют для совершения мошенничеств и манипуляции общественным мнением

В соцсетях зафиксирован массовый всплеск созданных с помощью ИИ фейковых видео природных катастроф — землетрясений, пожаров, наводнений. Их число за последний год выросло в два-шесть раз в зависимости от обыгрываемых в них сценариев, выяснили «Известия». Причина — не только в стремительном развитии ИИ-технологий, но и в алгоритмах соцсетей, которые продвигают такие видео: они вызывают эмоции, собирают просмотры и репосты, считают эксперты. Использование подобных технологий уже вышло за рамки развлечения аудитории и стало инструментом мошенничества и влияния на общественное мнение. Например, известны случаи, когда дипфейки о последствиях землетрясений использовались для фальшивых благотворительных сборов.

Как ИИ имитирует катастрофы

В социальных сетях стремительно растет количество видеороликов с якобы произошедшими стихийными бедствиями — наводнениями, землетрясениями, пожарами. На самом деле это подделки, созданные с помощью генеративного искусственного интеллекта. За последний год число подобных публикаций в России и в мире в целом выросло на 100–500%, то есть в два-шесть раз в зависимости от сценариев, которые обыгрываются в роликах, рассказали «Известиям» в VisionLabs (компания специализируется на разработке технологий распознавания дипфейков).

Причина стремительного роста — не только во всё большей доступности ИИ-технологий, но и в алгоритмах соцсетей, которые охотно продвигают такие видео, — они вызывают сильные эмоции, быстро собирают просмотры и репосты, — отмечают эксперты.

— Мы провели опрос, в ходе которого предлагали россиянам отличить реальные фотографии от дипфейков. Большинство респондентов (от 62 до 80%) принимали изображения, созданные специализированным ИИ, за настоящие, — заявили в компании.

Например, после землетрясения на Камчатке в соцсетях и мессенджерах начала активно распространяться волна фейков о масштабных последствиях стихии. Один из таких вбросов — сообщение о якобы повреждении в результате землетрясения атомной подводной лодки ВМФ России. В Центре управления регионом (ЦУР) со ссылкой на Тихоокеанский флот и правительство края эту информацию оперативно опровергли. Из других примеров — видео, где вертолет якобы сбивает БПЛА в небе над Свердловской областью, или дипфейк, где водители слушают сообщение по радио об опасности атаки на одно из предприятий Ставрополя.

Также на прошлой неделе СМИ сообщили о вирусном видео, стремительно распространившемся в соцсетях. На кадрах — якобы обрушение гигантского аквариума, поток воды смывает нескольких человек. Утверждается, что инцидент произошел в Калифорнии. На самом деле ничего подобного не было.

Сценарии разрушений, которые раньше можно было создать только в студиях Голливуда, теперь генерируются за считаные минуты. Только за последний год число платформ и приложений, которые можно использовать для создания видео с несуществующими катастрофами, выросло с сотни до нескольких тысяч, рассказал «Известиям» ИИ-креатор Сергей Бигулов. По его словам, речь идет о настоящей революции в мире синтетического видеоконтента, таких моделях, как Runway Gen 4, Google Veo 3, Seedance 1.0, — они позволяют генерировать видео в качестве 1080p (Full HD), опираясь всего лишь на текстовое описание. Причем многие из этих сервисов доступны по подписке за символическую плату или вовсе бесплатно.

— То, что раньше требовало студийной техники и недель работы, теперь можно сделать на смартфоне за несколько минут, — сказал эксперт.

Настоящим скачком стала новая модель Runway Aleph (ИИ-инструмент для редактирования видео на основе текстовых запросов), представленная 25 июля 2025 года. В отличие от своих предшественников Aleph способна не только создавать фейковые сцены с нуля, но и манипулировать уже существующими видеозаписями, подчеркнул Сергей Бигулов. Достаточно взять кадры с обычной городской улицы — и за несколько минут она превращается в зону бедствия. Модель также может убрать из кадра элементы, выдающие подделку, — операторов, технику, декорации.

— Мы наблюдаем стремительное развитие технологий, которые размывают границы между реальностью и синтетическим контентом. Наиболее беспокоящий аспект — демократизация этих технологий. То, что раньше требовало профессиональных навыков и дорогого оборудования, теперь доступно любому пользователю смартфона, — заявил эксперт.

Как распознать дипфейки в социальных сетях

Главный способ обезопасить себя — критический подход. Не стоит доверять видео, которые появляются внезапно и без источника: у любого реального происшествия есть след в медиа, комментарии официальных служб или очевидцев, упоминания в локальных СМИ, отметил эксперт по цифровым коммуникациям Ярослав Мешалкин.

— Проверка даты публикации и геометок часто помогает выявить несостыковки. Обратить внимание стоит и на технические детали: ИИ до сих пор ошибается в мелочах — искаженные лица в толпе, нереалистичные движения, «размазывающиеся» предметы на заднем плане, — сказал он.

По словам Ярослава Мешалкина, задача не только в том, чтобы научиться распознавать фейки, но и сформировать новую медиаграмотность. Когда-то студенты учились отличать желтую прессу от качественной журналистики, а теперь все пользователи интернета должны привыкнуть проверять источники и быть настороженными по отношению к видео, вызывающим слишком сильные эмоции. Также помогут изменения в политике крупнейших соцмедиаплатформ, которые сейчас учатся идентифицировать ИИ-видео и далее будут соответствующе его маркировать.

В пресс-службе MWS AI (компания занимается разработкой ИИ-решений) считают, что уже сейчас стране нужны детекторы дипфейков, которые работают не только с изображением, но и со звуком, потому что через год-два россиян ждут более продвинутые видео, в которых будут совмещены разные технологии: наложение катастрофы, изображение реального человека и его голос, крики толпы.

Целью таких видео может быть игра на эмоциях людей, попытка получить охваты в соцсетях за счет вирусного контента. Нашумевший пример такого видео — ролик про якобы обрушившийся стеклянный мост в Китае, рассказал руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов.

— Если мы говорим про онлайн-мошенничество, целью злоумышленников, которые используют дипфейк-видео в своих схемах, могут быть данные и деньги людей. Например, атакующие могут использовать легенды с фальшивыми благотворительными сборами, как было, в частности, в случае с землетрясением в Турции. При этом важно понимать, что в скам-схемах поддельные видео являются одним из элементов социальной инженерии, по сути — приманкой, — объяснил эксперт.

По его словам, для защиты от киберугроз важно придерживаться основных правил цифровой безопасности: перепроверять, действительно ли та или иная организация проводит сбор средств или акцию, не переходить по ссылкам под сомнительными видео и не переводить деньги, не проверив, кому они на самом деле будут перечислены.

Елизавета Крылова. Известия.RU.