img29 апреля 2023 в 12:00

Слишком реалистичны: эксперты о рисках и перспективах дипфейков

В 1997 году компания Video Rewrite разработала технологию, которая позволяла совмещать на видео артикуляцию человека с синтезированной аудиодорожкой. С тех пор реалистичный синтез изображений стал активно использоваться для бизнес-задач, однако технология несет не только позитивный потенциал, но и серьезную опасность, об этом «Телеспутнику» рассказали эксперты.

В 1997 году компания Video Rewrite разработала технологию, которая позволяла совмещать на видео артикуляцию человека с синтезированной аудиодорожкой. С тех пор реалистичный синтез изображений стал активно использоваться для бизнес-задач, однако технология несет не только позитивный потенциал, но и серьезную опасность, об этом «Телеспутнику» рассказали эксперты.

Где дипфейки используют во благо

Дипфейки находят применение в различных областях, включая развлечения, образование, искусство, исследования и рекламу. Эксперты признают пользу технологии, ведь она позволяет решать разные задачи. Так, в кино дипфейк используют для омоложения, состаривания или оживления актеров. Например, в 2014 году в рекламе шоколада «снялась» юная Одри Хепберн (знаменитая актриса скончалась в 1993-м, — прим. ред.): ее лицо было перенесено на лицо актрисы при помощи специализированного софта. Также дипфейки применяются для локализации видеоряда. К примеру, в разных эпизодах можно «отрисовывать» разных героев, с учетом особенностей региона, в котором будет транслироваться материал.

В основу технологии дипфейк положен реалистичный симбиоз изображений с помощью искусственного интеллекта. Алгоритм анализирует большое количество снимков и учится тому, как может выглядеть и двигаться конкретный человек. Нейросеть скачивает из интернета фотографии человека с разными выражениями лица и создает из них новое изображение или видео. Сам термин “deepfake” демонстрирует смысл технологии через объединение двух понятий: глубокое обучение нейросетей (англ. deep learning) и фальшивка (англ. fake).

«Дипфейки наиболее актуальны в сферах, связанных с развлечениями, одним из актуальных применений дипфейков является создание рекламного контента, видеороликов, фото и музыки», — рассказал ведущий инженер CorpSoft24 Михаил Сергеев.

В Китае запустили новостной канал, который ведет ведущий-дипфейк. Для организации применение технологии оказалось значительно дешевле услуг реального ведущего: нет затрат на студию, свет и оператора, привел другой пример руководитель отдела информационной безопасности «СерчИнформ» Алексей Дрозд. «Еще один полезный вариант применения дипфейков — общение через аватаров. Например, партнеры компании Ernst&Young решили использовать дипфейки сотрудников для общения с клиентами в онлайн-формате», — добавил он.

Директор центра разработки Artezio Дмитрий Паршин говорит, что дипфейки используются для разработки обучающих материалов, где есть виртуальные персонажи, или для моделирования реальных ситуаций в целях тренировки.

 

Опасности дипфейков

В России хотят ввести уголовное наказание за дипфейки при финансовом мошенничестве. Такой законопроект будет внесен в Госдуму в весеннюю сессию, сообщали «Известия». Эксперты считают, что технологию стоит опасаться. Дипфейки могут использоваться для создания фальшивых видео, аудио и изображений, которые могут быть задействованы для обмана людей, так как выглядят очень реалистично и убедительно, предупредил Михаил Сергеев.

«Опасность в том, что дипфейки становятся слишком реалистичными. Люди привыкли верить тому, что видят своими глазами. При этом не все следят за новостями и многие даже не осведомлены о дифпейках. В будущем это может стать неконтролируемым элементом мошенничества», — соглашается Алексей Дрозд.

«Технология дипфейков может быть опасной, так как она, прежде всего, может использоваться для создания поддельных новостей, манипулирования общественным мнением и проведения кибератак. Дипфейки могут стать инструментом мошенничества, шантажа и дискредитации. Они могут нарушать права на интеллектуальную собственность и приватность», — дополнил Дмитрий Паршин.

 

Мошеннические схемы с применением дипфейков

Эксперты рассказали, что мошенники все чаще прибегают к дипфейкам в своих схемах. В частности, они используют их в махинациях с бизнесом: могут создать дипфейки руководителей компаний или других важных лиц, чтобы заполучить доверие крупных партнеров и инвесторов и получить доступ к их средствам. Возможно создать дипфейки финансовых экспертов, которые могут рекомендовать инвестиции или сделки, которые фактически не имеют ценности.

«Мошенники могут использовать дипфейки, чтобы обмануть партнеров в бизнесе, заключить не выгодные для них сделки или собрать конфиденциальную информацию. Кроме того, дипфейки могут быть использованы для создания видео, которые выглядят, как реальные новости, но на самом деле являются поддельными. Это может привести к распространению ложной информации», — предостерегает Михаил Сергеев.

Мошенничество в соцсетях с использованием технологии дипфейка поможет злоумышленникам получить доступ к личной информации пользователей.

Мошенничество в соцсетях с использованием этой технологии поможет злоумышленникам получить доступ к личной информации пользователей.

«Многие люди сегодня активно используют средства биометрической аутентификации по лицу. Возможно так же создание поддельных социальных медиа-профилей с использованием дипфейков для мошенничества, кибершпионажа или киберсталкинга, для создания порнографического контента без согласия участников, что может привести к нарушению приватности и дискредитации жертв», – подчеркивает Дмитрий Паршин.

«Популярность любых мошеннических схем зависит от доступности инструментов для обмана и финансовой выгоды, поэтому в корпоративном секторе дипфейки пока что массово не применяются. Для широких атак на бизнес киберпреступникам пока затратно создавать качественные дипфейки, особенно если не будет выгоды. Но риски точечных атак вероятны», — предполагает Алексей Дрозд. В качестве примера эксперт привел ограбление банка в Гонконге, в результате которого был нанесен внушительный ущерб. Киберпреступники подделали голос директора компании-клиента и убедили управляющего банком, что он должен подписать разрешение на перевод 35 млн долларов на другой счет. Управляющий не заметил подвоха и выполнил указания злоумышленников.

«Дипфейки могут использоваться для попытки пройти голосовую биометрию — чтобы подтвердить личность, обратившись в контактный центр банка или телеком-компании. Подделка голоса с помощью синтеза речи — это технологически сложная задача, для качественного синтеза требуется запись хорошего качества. Важно отметить, что синтез с реалистичным звучанием может быть похож на голос конкретной личности по мнению человека, но быть не похож по оценке биометрии, поскольку голосовая биометрия использует большое количество признаков и значительно лучше распознает человека по голосу», — говорит генеральный директор группы компаний «ЦРТ» Дмитрий Дырмовский.

Перспективы технологии

Несмотря на весь негатив вокруг технологии, эксперты считают, что при правильном регулировании дипфейки могут положительно повлиять на развитие разных отраслей и использование искусственного интеллекта в целом.

«На мой взгляд, в будущем главные вопросы будут касаться регулирования. Допускаю, что может появиться обязательная маркировка контента с дипфейками или площадки будут автоматически присваивать такому контенту водяные знаки. Вариантов регулирования достаточно, вопрос в исполнении», — считает Алексей Дрозд.

Михаил Сергеев говорит, что сегодня разрабатываются новые методы и технологии для обнаружения и борьбы с дипфейками, научные исследования нацелены на создание новых алгоритмов машинного обучения, которые смогут точнее определять, является ли видео подлинным или поддельным. «В целом, перспективы дипфейков зависят от многих факторов, их развитие может привести к полезным или вредоносным последствиям в различных сферах», — отмечает эксперт.

«Дипфейки представляют собой мощный инструмент, который может быть использован как для позитивных, так и для негативных целей. Важно осознавать возможные риски и работать над разработкой стратегий и технологий для противодействия мошенничеству и злоупотреблениям, связанным с дипфейками», — заключил Дмитрий Паршин.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий