Массовый всплеск фейковых видео природных катастроф, созданных с помощью ИИ

В соцсетях зафиксирован массовый всплеск созданных с помощью ИИ фейковых видео природных катастроф — землетрясений, пожаров, наводнений. Их число за последний год выросло в два-шесть раз в зависимости от обыгрываемых в них сценариев, выяснили «Известия».

Причина — не только в стремительном развитии ИИ-технологий, но и в алгоритмах соцсетей, которые продвигают такие видео: они вызывают эмоции, собирают просмотры и репосты, считают эксперты. Использование подобных технологий уже вышло за рамки развлечения аудитории и стало инструментом мошенничества и влияния на общественное мнение.

Например, известны случаи, когда дипфейки о последствиях землетрясений использовались для фальшивых благотворительных сборов.

Как ИИ имитирует катастрофы

В социальных сетях стремительно растёт количество видеороликов с якобы произошедшими стихийными бедствиями — наводнениями, землетрясениями, пожарами. На самом деле это подделки, созданные с помощью генеративного искусственного интеллекта.

За последний год число подобных публикаций в России и в мире в целом выросло на 100–500%, то есть в два-шесть раз в зависимости от сценариев, которые обыгрываются в роликах, рассказали «Известиям» в VisionLabs (компания специализируется на разработке технологий распознавания дипфейков).

Причина стремительного роста — не только во всё большей доступности ИИ-технологий, но и в алгоритмах соцсетей, которые охотно продвигают такие видео, — они вызывают сильные эмоции, быстро собирают просмотры и репосты, — отмечают эксперты.

— Мы провели опрос, в ходе которого предлагали россиянам отличить реальные фотографии от дипфейков. Большинство респондентов (от 62 до 80%) принимали изображения, созданные специализированным ИИ, за настоящие, — заявили в компании.

Например, после землетрясения на Камчатке в соцсетях и мессенджерах начала активно распространяться волна фейков о масштабных последствиях стихии. Один из таких вбросов — сообщение о якобы повреждении в результате землетрясения атомной подводной лодки ВМФ России. В Центре управления регионом (ЦУР) со ссылкой на Тихоокеанский флот и правительство края эту информацию оперативно опровергли.

Из других примеров — видео, где вертолёт якобы сбивает БПЛА в небе над Свердловской областью, или дипфейк, где водители слушают сообщение по радио об опасности атаки на одно из предприятий Ставрополя.

Игры с разумом

Сценарии разрушений, которые раньше можно было создать только в студиях Голливуда, теперь генерируются за считаные минуты. Только за последний год число платформ и приложений, которые можно использовать для создания видео с несуществующими катастрофами, выросло с сотни до нескольких тысяч, рассказал «Известиям» ИИ-креатор Сергей Бигулов.

По его словам, речь идёт о настоящей революции в мире синтетического видеоконтента, таких моделях, как Runway Gen 4, Google Veo 3, Seedance 1.0, — они позволяют генерировать видео в качестве 1080p (Full HD), опираясь всего лишь на текстовое описание. Причём многие из этих сервисов доступны по подписке за символическую плату или вовсе бесплатно.

— То, что раньше требовало студийной техники и недель работы, теперь можно сделать на смартфоне за несколько минут, — сказал эксперт.

Настоящим скачком стала новая модель Runway Aleph (ИИ-инструмент для редактирования видео на основе текстовых запросов), представленная 25 июля 2025 года. В отличие от своих предшественников Aleph способна не только создавать фейковые сцены с нуля, но и манипулировать уже существующими видеозаписями, подчеркнул Сергей Бигулов. Достаточно взять кадры с обычной городской улицы — и за несколько минут она превращается в зону бедствия. Модель также может убрать из кадра элементы, выдающие подделку, — операторов, технику, декорации.

Как распознать дипфейки в социальных сетях

Главный способ обезопасить себя — критический подход. Не стоит доверять видео, которые появляются внезапно и без источника: у любого реального происшествия есть след в медиа, комментарии официальных служб или очевидцев, упоминания в локальных СМИ, отметил эксперт по цифровым коммуникациям Ярослав Мешалкин.

— Проверка даты публикации и геометок часто помогает выявить несостыковки. Обратить внимание стоит и на технические детали: ИИ до сих пор ошибается в мелочах — искажённые лица в толпе, нереалистичные движения, «размазывающиеся» предметы на заднем плане, — сказал он.

По словам Ярослава Мешалкина, задача не только в том, чтобы научиться распознавать фейки, но и сформировать новую медиаграмотность. Когда-то студенты учились отличать жёлтую прессу от качественной журналистики, а теперь все пользователи интернета должны привыкнуть проверять источники и быть настороженными по отношению к видео, вызывающим слишком сильные эмоции. Также помогут изменения в политике крупнейших соцмедиаплатформ, которые сейчас учатся идентифицировать ИИ-видео и далее будут соответствующе его маркировать.

Источник: iz.ru

Авторизация