Интересные новости
Ultimate magazine theme for WordPress.

«Голосовое клонирование — король атак»: эксперт рассказала о страшной угрозе дипфейков

0 0

Как защитить человечество от дипфейков: советы эксперта

Кибермошенники в прошлом году чаще всего звонили россиянам по видео под видом столичного мэра и замминистра МВД. Всего зафиксировано почти 100 дипфейков с участием этих двух узнаваемых персон. При этом мошенничество с использованием ИИ принесло преступникам в 4,5 раза больше прибыли. В 2025 году в России при общем снижении случаев кибермошенничества на 6 миллиардов вырос ущерб, который ими причинен. Об этом заявил на академических слушаниях, прошедших в МГИМО, зам. директора Росфинмониторинга Герман Негляд. 

«Голосовое клонирование — король атак»: эксперт рассказала  о страшной угрозе дипфейков

тестовый баннер под заглавное изображение

Ректор Университета прокуратуры Игорь Мацкевич заявил, что человеческие глаз и ухо уже не способны распознавать новые дипфейки. Представители других ведомств с ним единодушно согласились и предложили внести изменения в УК РФ, квалифицируя использование ИИ в преступных целях как отягчающее обстоятельство. Но вряд ли это напугает злоумышленников… Мы живем в новом мире, где велик риск запутаться: что реальность, а что иллюзия. 

Обо всем этом — беседа обозревателя «МК», члена СПЧ с главой «Белого Интернета», профессором МГИМО МИД России Элиной СИДОРЕНКО. 

Как украсть 25 миллионов$

— Элина Леонидовна, на академических слушаниях, что вы проводили, несколько раз звучала история с миллионами долларов, перечисленными после фейковой видеоконференции. Как это произошло?

— Случай с компанией Arup в Гонконге в начале 2024 года — это не просто финансовое преступление. Это эпизод, который переписывает наше понимание того, что значит «быть свидетелем». Напомню фабулу. Сотрудник компании получил приглашение на видеоконференцию, присоединился к ней и встретился лицом к лицу (если так можно выразиться) с синтетическими копиями главы финансового отдела и других руководителей. Все было идеально. Не просто похоже, а синхронизировано: жесты, эмоциональные переходы, даже дыхание. Мошенники отдали распоряжение совершить транзакции. На счета в Гонконге ушло $25 млн.

Что меня здесь поражает? Это был чистый социальный инжиниринг, усиленный технологией. Никакого взлома систем. Никакой компрометации серверов. Преступники не атаковали архитектуру корпоративной безопасности — они атаковали человеческую архитектуру доверия. Они понимали, что люди верят глазам больше, чем протоколам, и даже более осторожные сотрудники будут сомневаться, если видят и слышат реального руководителя. Парадокс в том, что система безопасности не была скомпрометирована, ее просто обошли.

— Известно ли вам, как идет расследование этого дела?

— Гонконгская полиция квалифицировала преступление как «получение имущества путем обмана» — категория, которая звучит почти комично в своей архаичности, когда мы говорим о современном коварном ИИ. Информация о ходе следствия в открытых источниках крайне ограничена.

— Есть ли еще подобные истории, или этот был единственным?

— Конечно, есть, и их много. Известен, в частности, случай (март 2025 года), когда финансовый директор чуть не потерял полмиллиона долларов через Zoom, где мошенники выдавали себя за руководство. Были и попытки совершения преступления в норвежском банке DNB — здесь хакеры попытались использовать дипфейк-видео CEO, но банк устоял благодаря дополнительным проверкам. Но факт остается фактом: даже финансовые гиганты с миллиардными оборотами находятся в зоне уязвимости. 

Статистика просто пугающая. В первом квартале 2025 года было зафиксировано 179 инцидентов с дипфейками — это превысило общий годовой показатель 2024-го на 19 процентов. Если говорить о масштабах: количество дипфейк-файлов в мире выросло с 500 тысяч в 2023 году до 8 миллионов в 2025-м. Но, честно говоря, я уверена, что реальные цифры куда выше, потому что значительная часть компаний скрывает факты взлома из страха репутационного ущерба. Мы видим только вершину айсберга.

Кто ворует с помощью дипфейков

— Какие тренды в криминальном применении дипфейков вы бы отметили?

— Здесь я вижу несколько ясных эволюционных линий.

Первое — это демократизация (доступность) преступного инструмента. Появилась целая услуга под названием Дипфейк — по сути «облачный» сервис для преступников. Раньше для создания убедительного синтетического видео требовалась серьезная техническая экспертиза. А теперь пара тысяч рублей, Интернет — и вы готовы к преступлению. Это как когда-то было с компьютерными вирусами: сначала требовались специалисты, потом появились конструкторы вирусов и преступность массово масштабировалась. 

Второе — голосовое клонирование становится королём атак. Почему? Потому что это дешевле, быстрее, убедительнее. Мошенник звонит вам голосом вашего босса с просьбой выполнить срочный перевод. Человек находится в состоянии когнитивного диссонанса — логика говорит «это странно», но страх шепчет «это мой начальник».

Третье — это синтетические личности, целые фальшивые жизни. Преступники комбинируют публичные данные с ИИ-контентом, создавая полностью поддельные, но убедительные профили в соцсетях. Это не просто маска на видео — это целая экосистема фальшивой реальности: фотографии, истории, сообщения. Человек может месяцы взаимодействовать с этой сконструированной личностью и ни о чем не догадываться.

И, наконец, четвертый тренд: около 30% высокомощных корпоративных атак теперь используют дипфейки. Это стало оружием для преступников, нацеленных на крупные компании.

— Страшно подумать, что нас ждет в будущем. Ученые наверняка составляли прогнозы.

— Если говорить о перспективе на 3–5 лет, есть несколько возможных версий развертывания событий. 

В оптимистическом сценарии (вероятность примерно 25%) глобальное сообщество разработает надежные стандарты аутентификации, биометрия станет обязательной для финансовых операций и системы начнут успешно детектировать синтетический контент на уровне платформ. В России закон о маркировке ИИ-контента вступит в силу, и платформы начнут автоматически блокировать подозрительные видео.

Более вероятный сценарий (60%) — это адаптация преступности. Мошенники станут избирательнее, целясь на менее защищенные группы: пожилых людей, владельцев малого и среднего бизнеса, которые просто не имеют ресурсов для многоуровневой защиты. Глобальные потери от дипфейк-мошенничества достигнут примерно $40 млрд к 2027 году.

И пессимистический сценарий (15%) — технология будет развиваться заметно быстрее защиты. Появятся синтетические видео в режиме реального времени во время видеовызова. Это означает, что даже встреча лицом к лицу через Интернет перестанет быть верификацией. Люди вернутся к требованиям личных встреч или будут использовать кодовые фразы для верификации.

Мой личный прогноз таков: к 2029 году дипфейки для финансового мира станут тем же, чем вирусы для здравоохранения, — постоянной угрозой, с которой нужно научиться жить, а полностью ее не устранить.

Чем еще опасен ИИ

— Какие реальные угрозы несет ИИ сегодня, кроме дипфейков?

— Видите ли, дипфейки — это лишь вершина айсберга. Если мы говорим о реальных угрозах ИИ, картина куда шире. Есть автоматизированные фишинговые атаки, когда ИИ генерирует персонализированные сообщения, копируя не просто общий стиль, а стиль конкретно вашего коллеги или друга. Это уже не спам, это таргетированный, индивидуализированный обман.

Затем есть агентные ИИ — пожалуй, самые беспокоящие угрозы. Эксперты прогнозируют, что синтетических агентов ИИ будет в 100 раз больше, чем людей. Каждый из них может принимать решения автономно, получать доступ к системам. Если эти агенты скомпрометированы, это как армия невидимых солдат, оккупировавшая вашу сетевую архитектуру.

Утечки данных через неправильное использование ИИ — люди доверяют чатботам как друзьям, делятся конфиденциальной информацией. Компании используют неутвержденные ИИ-сервисы, где данные уплывают в незащищенные «облака» и напрямую к конкурентам.

Есть также манипулирование уязвимостями. Минцифры определяет это как «использование возрастных, психологических и иных особенностей человека для целенаправленного воздействия на его решения». Это означает, что ИИ может быть запрограммирован на манипуляцию детьми, пожилыми людьми, людьми с психическими расстройствами.

И, наконец, тиражирование дезинформации в массовом масштабе. Во время выборов или международного кризиса одно дипфейк-видео политика может разжечь конфликт прежде, чем люди проверят источник. Информационное пространство становится полем боя.

— Законопроекты Минцифры об ИИ, которые недавно нам всем представили, учитывают все риски?

— Законопроекты Минцифры об ИИ и дипфейках — это честная попытка поставить перегородку перед наступлением технологии. Давайте разберемся трезво.

Сначала о достоинствах законопроектов: обязательная маркировка дипфейков — это краеугольный камень правовой архитектуры. Весь контент, сгенерированный ИИ (видео, аудио, изображения), должен иметь явное предупреждение, понятное человеку и считываемое поисковыми алгоритмами. Это снижает эффективность мошеннических видео, хотя и не исключает их полностью.

Определены обязанности разработчиков — впервые в российском праве четко прописано, что создатели ИИ-систем должны исключать дискриминационные алгоритмы и блокировать создание противоправного контента. Это повышает ответственность.

Защита авторских прав получила легитимный статус — обучение ИИ на авторских материалах признано законным, если разработчик получил доступ правомерно. Это создает ясные правила игры.

Но нельзя не сказать и о проблемах: увы, маркировка легко обходится.

Платформы должны автоматически выявлять и помечать нелегальный контент. Но как машина узнает, что видео — дипфейк, если дипфейк по определению неотличим от оригинала? Это замкнутый круг логики.

Есть и репрессивный потенциал. Определения расплывчаты. Это открывает дверь для злоупотреблений.

И, наконец, технологическое отставание: закон вступает в силу 1 сентября 2027 года. За полтора года архитектура технологии эволюционирует радикально, и нынешние правила будут архаичны.

— Какой отзыв дал СПЧ по этому законопроекту?

— На этот момент важно быть точным: официальный отзыв Совета по правам человека находится в стадии подготовки. По итогам V академических слушаний, после обобщения экспертных мнений, будет сформирован проект. Текущих официальных позиций в открытых источниках еще нет. 

Однако, анализируя экспертный консенсус, я вижу несколько вероятных критических вопросов, которые СПЧ поднимет: как законом отделяются дипфейки для политической сатиры от дипфейков для преступления? кто судья? Реестр «доверенных» ИИ-моделей может стать инструментом цензуры. К тому же система автоматического выявления дипфейков потребует анализа миллионов видео — это скрытый надзор без парламентских гарантий.

Вероятно, отзыв СПЧ будет сбалансированно критическим: поддержит идею защиты от преступлений с дипфейками, но потребует гарантий прав граждан и транспарентности алгоритмов.

Важно подчеркнуть, что именно сейчас мы находимся в точке бифуркации. Преступная тактика эволюционирует быстрее, чем законодательство и оборонительные технологии. Но это не капитуляция, это перезагрузка нашего понимания того, что значит знать и верить.

В мире, где каждое видео может быть подделано, человеческое доверие становится предметом критической инфраструктуры. Нам нужны одновременно законы, технология, образование и культура обоснованного скептицизма. Иначе мы рискуем войти в эру, когда люди перестанут верить друг другу вообще.

Источник: www.mk.ru

Оставьте ответ

Ваш электронный адрес не будет опубликован.