img
img05 февраля 2025 в 16:09

Боярский призвал активизировать работу по защите граждан от дипфейков

Депутат Госдумы Сергей Боярский призвал активнее разрабатывать и внедрять инструменты защиты голоса и изображения человека, чтобы защитить граждан от дипфейков. Сегодня никакой ответственности за подобные преступления не предусмотрено. На что может рассчитывать гражданин и бизнес, если против него было совершено преступление с применением дипфейка? Об этом редактор «Телеспутника» узнал у юриста.

Депутат Госдумы Сергей Боярский призвал активнее разрабатывать и внедрять инструменты защиты голоса и изображения человека, чтобы защитить граждан от дипфейков. Сегодня никакой ответственности за подобные преступления не предусмотрено. На что может рассчитывать гражданин и бизнес, если против него было совершено преступление с применением дипфейка? Об этом редактор «Телеспутника» узнал у юриста.

«Боюсь, мы немного опоздали»

О необходимости активнее заниматься разработкой соответствующих ограничительных мер глава комитета Госдумы по информации и связи Боярский заявил в среду на пленарном заседании национального форума по информбезопасности «Инфофорум-2025».

Парламентарий отметил, что в последние годы крупные компании и предприятия успешно справляются с обеспечением своей информационной безопасности, вследствие чего «недопустимых событий не произошло».

«Но, как показывает практика, у каждого человека своя граница недопустимых событий и надо признать, что миллионы людей столкнулись с недопустимыми событиями в их судьбах за последние годы. Я, конечно, говорю о беспрецедентном количестве преступлений, совершённых с помощью цифровых технологий»,пояснил Боярский.

По его словам, сегодня в России активно разрабатываются законы, которые должны защитить граждан от различного вида мошенничества, в том числе телефонного. Однако решения принимаются с опозданием, считает депутат.

«Но боюсь, что мы немного опоздали. Давайте признаем, что мы принимаем это (соответствующие инициативы - прим. ред.) слишком поздно, а впереди нас ждут ещё большие вызовы. Технологии дипфейков вот-вот ворвутся в нашу жизнь и станут, в том числе, инструментом злоумышленников. Считаю необходимым действовать на опережение и уже сейчас разрабатывать инструменты защиты голоса человека, его изображения с тем, чтобы на этот раз мы были лучше подготовлены к вызовам, которые, поверьте, ожидают нас уже в ближайшее время», — заявил Сергей Боярский.

Юрпрактика идёт по пути обобщения

Дипфейк — это синтезированное при помощи нейронных сетей изображение или голос человека. Чаще всего он создаётся для мошенничества, обмана или шантажа жертвы. Инициативы о запрете маркировке и борьбе с подобным явлением в России звучали ещё несколько лет назад.

В январе 2023 года депутат Госдумы Антон Горелкин заявил, что к концу года в стране может появиться маркировка дипфейков. Вновь о необходимости борьбы с синтезированными изображениями заговорили в 2024 году. Тогда другой депутат — Ярослав Нилов — инициировал законопроект, согласно которому использование дипфейка с уголовным умыслом предполагал бы крупный штраф или лишение свободы.

На данный момент использование дипфейков в России не регламентировано. По словам юриста Санкт-Петербургского адвокатского бюро «Гуцу, Жуковский и партнеры» Павла Сёмина, если рассматривать дипфейки как средство совершения преступлений (мошенничества, кражи или шантажа), то сейчас нет конкретных ограничений для уголовной ответственности лиц, которые совершают преступления при помощи данной технологии.

«Это в большей степени технический вопрос — выявление и фиксирование факта использования дипфейка для совершения преступления. Регулирование таких вопросов редко осуществляется на законодательном уровне, как правило, это решается путем обобщения практики», объяснил юрист редактору «Телеспутника».

По словам специалиста, тоже самое можно сказать и о том, если дипфейк используется для дискредитации гражданина, то есть создания впечатлений о совершении какого-то проступка или распространения недостоверной информации. В таком случае дипфейк может быть квалифицирован как та самая недостоверная информация, а значит можно запретить её распространением и потребовать удалить в порядке Гражданского кодекса РФ.

«Здесь тоже всё уходит в техническую сферу – доказать, что имеет место дипфейк, установить кто является его распространителем. Единственным слабо урегулированным моментом может рассматриваться сам факт использования изображения и голоса для создания дипфейка, безотносительно последующего использования в противоправных целях. Например, использование изображения и голоса политического деятеля для создания музыкального клипа», — объясняет Павел Сёмин.

Юрист отметил, что здесь возможны законодательные инициативы о запрете подобного использования изображений и голосов граждан, однако все будет зависеть от формулировок законопроекта.

Напомним, в сентябре 2024 года Сбер сообщил о впечатляющем росте числа дипфейков в России. За девять месяцев количество поддельных генеративных изображений увеличилось в 30 раз. Специалисты обратили внимание, что риски от расширяющегося использования дипфейков выходят далеко за пределы простого мошенничества. Они могут стать настоящей угрозой для бизнес-сектора.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий