Технологии — двигатель дипфейков
Тема дипфейков сегодня действительно горячая, и речь идет не только о том, когда в видеоконтенте лицо одного человека «натягивают» на другого, что делать довольно убедительно позволяют технологии машинного обучения, подчеркнул Co founder ReFace Technology, вице—президент Ассоциации коммуникационных агентств России, сопредседатель комитета по искусственному интеллекту (ИИ) Алексей Парфун. В числе дипфейков эксперт также назвал клонирование голоса или войсклон, аудиодипфейк — создание синтетической копии голоса и цифровой образ или цифровую копию — создание полноценного цифрового аватара человека, которого можно использовать в разных сценариях. В последнем виде может потребоваться более сложная работа, съемка человека с разных ракурсов.
«Причиной распространения дипфейков является комплекс факторов. Прежде всего, сам технологический прогресс. Искусственный интеллект (ИИ) развивается семимильными шагами и то, что вчера казалось фантастикой, сегодня становится вполне рабочим инструментом. Технологии ИИ стали доступнее. Раньше производство таких видео и аудио требовало огромных ресурсов, а сейчас появляется все больше инструментов, платформ, которые позволяют создавать дипфейки с меньшими затратами. Клонирование голоса при наличии достаточного количества аудиозаписей и вовсе можно сделать буквально за 15 минут», — отметил Алексей Парфун.
Рост дипфейков — результат стремительного развития технологий искусственного интеллекта, в частности, генеративных нейросетей и их общедоступность, что привело к демократизации производства фейкового контента: при наличии обычного смартфона и доступа к ряду бесплатных или недорогих приложений теперь любой может «клонировать» лицо или голос, согласилась руководитель практики разрешения споров юридической компании «ССП-Консалт» Дарья Титкова. По ее словам, в нашей стране ситуация осложняется недостаточной цифровой грамотностью населения, из—за чего дипфейки часто принимаются за подлинную информацию.
Помимо легкого доступа к мощным инструментам искусственного интеллекта, в распространении дипфейков играет значимую роль и обилие общедоступных данных, добавила юрист практики интеллектуальной собственности K&P.Group Кристина Тимофеева.
«Социальные медиа—платформы, на которых информация распространяется быстро и широко, играют ключевую роль в увеличении числа дипфейков. Это проявляется в том, что люди часто склонны верить тому, что видят, независимо от подлинности, в результате чего с легкостью распространяют такие дипфейки», — пояснила Кристина Тимофеева.
Есть множество open-source решений, с помощью которых даже непрофессионал может создать дипфейк, подчеркнул директор продуктового направления компании «КомьюнитиТех» (Community tech) Игорь Горячев.
Контент на позитиве и с чувством юмора
Спектр потенциальных применений дипфейков в позитивном ключе огромен, уточнил Алексей Парфун. Это индустрия развлечений, в которой появляется возможность вернуть на экран ушедших актеров или сделать концерт с цифровыми аватарами звезд, как это было с ABBA. Это и реклама, маркетинг, где можно использовать образы знаменитостей, не отвлекая их от основного графика, создавать персонализированные кампании. В образовании — внедрение ИИ—спикеров для обучающих видео. Восстановление исторических образов — уникальная опция для образовательного контента. А вот где все это применяется на самом деле — еще интереснее, подчеркнул эксперт.
«Реклама и маркетинг в числе первых подхватили тренд. Создание роликов со знаменитостями без их физического присутствия — удобно и часто выгодно. Такие проекты делают со спортсменами, артистами. Видеоконтент в персонализации рекламы, эмоциональном маркетинге — очень сильный инструмент.
Кино и сериалы — это и вовсе клондайк. Здесь и замена лиц дублеров в опасных сценах или в кадрах с обнажением, омоложение актеров, когда они играют себя 30 лет назад, создание образов ушедших звезд или исторических личностей. Даже для перевода фильмов на другие языки можно заменить только движение губ, оставив оригинальный голос или наложив дипфейк голоса актера на нужном языке. Возможности колоссальные», — подчеркнул Алексей Парфун.
Дипфейки также чаще всего используются в журналистике, рекламе и геймдеве, добавила Кристина Тимофеева.
Они применяются в сфере развлечений, особенно в социальных сетях, для оживления исторических фотографий, подмены лиц для контента и создания юмористического контента, так называемый, дипфейк—юмор, однако наиболее опасным направлением остается использование дипфейков в мошеннических схемах и психологических манипуляциях, добавил Игорь Горячев.
Правдоподобен, чем и опасен
Сегодня наиболее распространены фейковые видео и фото с участием известных людей для дискредитации, шантажа или распространения дезинформации, финансовые мошенничества, когда дипфейковая речь используется для убеждения сотрудников перевести деньги (deep voice fraud), подделка доказательств в судебных или корпоративных конфликтах, предупредила Дарья Титкова. Все перечисленное — прямая угроза не только частной жизни, но и стабильности институций, подчеркнула эксперт.
Злоумышленники стали активно использовать дипфейки для завлечения людей в мошеннические схемы и использования голосовых фейков для целенаправленных атак, причем данная ситуация не имеет отношения к специфике той или иной страны: распространение дипфейков обусловлено тем, что пользователи склонны больше доверять знакомым лицам, привыкли к видео и голосовому контенту в соцсетях, отметил руководитель направления исследования данных в «Лаборатории Касперского» Дмитрий Аникин.
«Злоумышленники используют нейросети для подделки видео, чтобы создавать ролики, где устами известных людей предлагают пользователям перейти по ссылке, поучаствовать в розыгрыше или принять участие в раздаче криптовалюты. Далее эти ролики размещаются в соцсетях. Также они используют аудиомонтаж или более сложные алгоритмы, чтобы на основе образцов голоса, например, из голосовых сообщений во взломанном аккаунте мессенджера, создавать новые голосовые сообщения, например, с просьбой поучаствовать в голосовании или перевести деньги на номер телефона или банковский счет», — пояснил Дмитрий Аникин.
Дипфейки становятся инструментом мошенничества, особенно в финансовых и киберпреступных сферах, например, в последнем случае их используют для обмана клиентов и кражи личных данных, а также для манипуляции и шантажа, согласилась Кристина Тимофеева.
Мошенничество и киберпреступность — темная сторона дипфейков, подтвердил Алексей Парфун.
«Мошенники используют схему "fake boss", когда от имени руководителя рассылаются фейковые аудио или видео с просьбой перевести деньги, дипфейки для устройства на работу, особенно в отрасль информационных технологий, чтобы получить доступ к данным. Фейковые видео со знаменитостями, зазывающими в финансовые пирамиды. Телефонное мошенничество с клонами голосов родных — "мама, я попал в беду, срочно переведи деньги". И это реальная угроза», — резюмировал Алексей Парфун.
Как распознать обман?
Несмотря на возможности генеративных нейросетей в создании видео активно прогрессируют, созданный ими видеоконтент все еще имеет недостатки, которые и выдают подделку, отметил Дмитрий Аникин.
«Стоит обращать внимание на нехарактерную плавность человека во время движения. Также должны вызвать настороженность слишком ровный тон и чрезмерная гладкость кожи, «скачущие» очертания овала лица, отсутствие блеска и отражений в глазах. Ещё одна характерная черта дипфейков — низкое качество изображения, поскольку так можно скрыть недочеты работы нейросетей. В голосовых подделках стоит оценивать качество речи — паузы в нехарактерных местах, неестественную интонацию, и в некоторых случаях также общее плохое качество аудио», — посоветовал Дмитрий Аникин.
Сегодня распознать дипфейки не так уж сложно, потому что они пока еще низкого качества, но главная проблема в том, что они массово заполонили социальные сети, и пользователи начинают к ним привыкать, что приводит к тому, что изначальная настороженность и критичность заменяется привычностью и нормой: люди перестают отличать дипфейки от реальности не потому, что они визуально неотличимы, а потому, что становятся привычным контентом, предупредил Игорь Горячев.
«Ключевыми инструментами для распознавания дипфейков остаются критическое мышление и проверка фактов. Также важно обращать внимание на визуальные искажения и неестественность на фото и видео или, напротив, на слишком идеальный вид. Продвинутые пользователи могут использовать сервисы типа Deepware Scanner для более точного распознавания дипфейков. Технологии распознавания уже существуют, но необходимо их массовое внедрение. Я глубоко убежден, что социальные сети должны взять на себя обязательство помечать сгенерированный контент. И тогда многие удивятся, сколько дипфейков оказывается в лентах, которые мы просматриваем каждый день. По моим субъективным оценкам, в западных социальных сетях не менее трети контента — дипфейки. В российских пока их меньше», — уточнил Игорь Горячев.
Распознавать дипфейки обывателю становится все сложнее, но есть маркеры: странные тени и искажения при повороте головы, звук, не совпадающий с артикуляцией, однако такие признаки становятся все менее заметны — нейросети учатся, отметила Дарья Титкова.
Схемы мошенников остаются теми же, что и раньше, поэтому, чтобы защититься от них, достаточно следовать простым правилам: например, не стоит верить очень щедрым обещаниям или тому, что вы выиграли в розыгрыш, в котором не участвовали, порекомендовал Дмитрий Аникин.
«Если вас просят совершить подозрительное действие: проголосовать в опросе, перейти по ссылке, одолжить денег, то достаточно связаться с человеком по другому каналу связи, например, в соцсети, если изначальное сообщение было получено в мессенджере, и уточнить. Наконец, чтобы жертвой злоумышленников не стали ваши друзья и родственники, важно обезопасить свои собственные аккаунты: установить сложный пароль, воспользоваться подтверждением входа в учетную запись по телефону или другим методом подтверждения и установить оптимальные настройки приватности», — посоветовал Дмитрий Аникин.
Технологии совершенствуются, и качественные дипфейки распознать все труднее, но все же стоит обратить внимание невооруженным глазом на некоторые детали, отметил Алексей Парфун.
«Визуальный анализ: ищите артефакты — размытые края лица, неестественное освещение, странную мимику, несинхронные движения губ, моргание. Хотя хорошие дипфейки почти лишены этого. Анализ голоса: роботизированный тембр, странные интонации, неестественные паузы. Но опять же, отличить качественный клон голоса от настоящего порой сложно даже специалисту. Говорят, люди с хорошим музыкальным слухом могут уловить фальшь, а вот те, у кого слуха нет — вряд ли. Есть научные подходы — анализ звуков, физиологически невозможных для человека, но это уже для экспертов. Прислушайтесь к интуиции: иногда просто возникает чувство, что что—то не так. Критическое мышление — главное! Подвергайте сомнению любую неожиданную информацию, особенно если она связана с деньгами, личными данными, пришла в виде аудио или видео. Заведите с близкими кодовые слова для экстренных ситуаций. Мошеннические дипфейки часто распространяются через сомнительные каналы, личные сообщения, и их цель — побудить вас к немедленному действию, играя на эмоциях. Корпоративные дипфейки обычно рекламируют товар или услугу, они более открыты», — предупредил Алексей Парфун.
Эксперт уточнил, что есть платформы для анализа фото и видео в реальном времени, но их надежность пока не стопроцентная. Программное обеспечение для анализа поведения пользователей может выявить аномалии, указывающие на взлом. Разрабатываются усиленные протоколы для видеоконференций, которые будут проверять подлинность участников, чтобы дипфейки не могли просочиться в эти форматы. АНО «Диалог Регионы» запустила систему мониторинга на основе ИИ для выявления дипфейков в медиапространстве.
Поскольку технологии стремительно развиваются и в будущем невозможно будет отличить дипфейк от оригинала, многие страны в мире разрабатывают правила использования искусственного интеллекта, уточнила Кристина Тимофеева. Например, в прошлом году Европейский парламент принял Регламент об искусственном интеллекте, содержащий обязательные к исполнению правила контроля различных ИИ—систем, напомнила эксперт.
Предупредить и обезвредить!
«На рынке доступны различные технологии для распознавания и предотвращения дипфейков, включая системы на основе сверточных нейронных сетей (CNN) и генеративно—состязательных сетей (GAN), существуют специализированные инструменты, такие как aIDeepFake и решения от MTS AI, которые анализируют медиа—контент с помощью нейросетей для выявления подделок. Важно использовать комбинацию технологий и методов, чтобы эффективно бороться с этой проблемой и защищать пользователей от дезинформации», — подчеркнула Кристина Тимофеева.
Уже действуют сервисы для проверки дипфейков: Microsoft Video Authenticator, Deepware Scanner, Reality Defender, они используют алгоритмы, обученные на тысячах дипфейков, чтобы выявлять аномалии в изображениях и аудио, добавила Дарья Титкова.
«Сегодня необходимо развивать государственные реестры проверенных источников, системы цифровой подписи для видео (аналог метаданных в фото), обязательную маркировку ИИ—контента, образовательные проекты для граждан. С точки зрения законодательства, важны: обновление уголовного и гражданского кодекса — с учетом новых форм посягательства на честь, достоинство, частную жизнь, внедрение норм о цифровой репутации и праве на "цифровое забвение", усиление ответственности платформ за хостинг дипфейков», — считает Дарья Титкова.
При этом сохранить свободу слова поможет прозрачная система верификации: не запрещать создание контента, а требовать его маркировку. Исключение — явный вред (клевета, мошенничество). Закон должен не подавлять творчество, а защищать личность и общество, резюмировала Дарья Титкова.
Фактор, который подстегивает распространение дипфейков в мошеннических целях, — пока еще незрелость законодательной базы и отсутствие по-настоящему эффективных, массовых инструментов для обнаружения дипфейков, согласился Алексей Парфун.
«Хотя работа в этом направлении идет, и системы мониторинга появляются, но технология создания дипфейков пока обгоняет технологию их распознавания. Так что тренд очевиден: цифрового контента становится все больше, и к 2026—2027 годам, по прогнозам, значительная его часть будет создаваться нейросетями», — отметил эксперт.
В России борьба с дипфейками уже ведется на нескольких уровнях: в рамках программы «Цифровая экономика» в 2021 году была утверждена «дорожная карта» по развитию интернет—технологий, включающая меры по выявлению и предотвращению дипфейков, согласно которой планировалось достичь точности выявления дипфейков до 70 %, напомнила старший менеджер практики «Государственные и социальные инициативы» компании «Рексофт Консалтинг» Оксана Кулакова. По ее словам, активно разрабатываются технологии для автоматического выявления дипфейков, например, создаются системы интеллектуального анализа видеопотока и выявления цепочек распространения инфоповодов.
«Законодатели в других странах тоже обращают внимание на ситуацию с дипфейками. В Калифорнии (США) недавно были приняты три закона, направленные на ограничение использования дипфейков в политической рекламе. Один из законов запрещает распространение “существенно обманчивых аудио- и видеоматериалов о кандидате” за 120 дней до и 60 дней после выборов. Другой закон требует, чтобы реклама, связанная с выборами и использующая контент, созданный с помощью ИИ, содержала предупреждение об этом факте. Третий закон обязывает крупные онлайн—платформы блокировать и удалять “существенно обманчивый контент, связанный с выборами” в течение 72 часов после получения уведомления. Также Big Tech разрабатывают технологии для автоматического выявления дипфейков. Например, Microsoft создала программу Video Authenticator, которая анализирует изображения и определяет вероятность того, что они были изменены с помощью ИИ», — сообщила Оксана Кулакова.
Она добавила, что в Европейском Союзе тоже активно обсуждаются меры по регулированию использования дипфейков. В Германии и Франции уже введены законы, предусматривающие наказание за создание и распространение дипфейков с целью дезинформации или мошенничества. В Китае и Южной Корее также принимаются меры по борьбе с дипфейками. В Китае введены строгие правила, требующие от пользователей указывать, если контент был изменен с помощью искусственного интеллекта. В Южной Корее рассматриваются законопроекты, направленные на предотвращение использования дипфейков в политических и коммерческих целях.
Вопрос дипфейков и информационной безопасности находится в центре внимания и международного сообщества, уточнила эксперт.
«Саммит “ИИ во благо”, прошедший в Женеве под эгидой ООН в июне 2024 году, подчеркнул необходимость разработки стандартов для борьбы с дезинформацией и дипфейками. Обсуждалась острая необходимость создать рамки для развития искусственного интеллекта на основе этических норм, прав человека и верховенства закона. Многие участники дискуссий о плюсах и минусах ИИ согласны, что огромный потенциал этой технологии не должен быть в руках тех, кто стремится использовать его для власти или прибыли, а следовательно, для обеспечения равного доступа к ИИ потребуется регулирование», — отметила Оксана Кулакова.
Подделка с будущим
Дипфейки однозначно не останутся в прошлом, напротив, их будет становиться только больше, они будут качественнее, убежден Алексей Парфун.
«Вопрос не в том, исчезнут ли дипфейки, а в том, как мы научимся с ними жить. Да, идут разговоры о законодательном регулировании. Сейчас прямого закона о дипфейках для частных лиц в России нет, но политики заявляют о подготовке законопроектов. Закон, безусловно, будет меняться, адаптироваться к новой реальности. Но я сомневаюсь, что это приведет к полному запрету — это технически сложно и даже нецелесообразно, учитывая позитивные применения. Скорее, мы идем по пути выработки этических норм и правил игры. В индустрии уже появляются кодексы этики. Ведь сама по себе технология нейтральна. Этичность ее использования зависит от контекста и намерений. Одно дело — создать пародию или оживить историческую личность в образовательных целях, и совсем другое — использовать дипфейк для мошенничества или клеветы», — рассуждает Алексей Парфун.
Время дипфейков станет частью нашей цифровой реальности, к которой нам всем придется адаптироваться — и законодателям, и бизнесу, и каждому человеку, в конечном счете, как и с любым мощным инструментом, все зависит от того, в чьих руках он окажется и с какой целью будет использован, подчеркнул эксперт. Он напомнил, что никакие технологии не заменят главного — обучения и повышения осведомленности. Нужно учить людей критическому мышлению, основам кибербезопасности, начиная чуть ли не с детского сада и обязательно в рамках ОБЖ в школе.