img
img24 марта 2026 в 12:25

Законодательные нововведения февраля: «Антифрод 2.0» и регулирование искусственного интеллекта

Правительство анонсировало скорое внесение в Госдуму законопроекта о регулировании искусственного интеллекта, пообещав, что он будет не только рамочным, но и стимулирующим. Госдума приняла в первом чтении законопроект «Антифрод 2.0», который включает много новых механизмов для борьбы с мошенничеством. Подробнее о ключевых законодательных инициативах, которые обсуждали в феврале, – в материале «Телеспутника».

Правительство анонсировало скорое внесение в Госдуму законопроекта о регулировании искусственного интеллекта, пообещав, что он будет не только рамочным, но и стимулирующим. Госдума приняла в первом чтении законопроект «Антифрод 2.0», который включает много новых механизмов для борьбы с мошенничеством. Подробнее о ключевых законодательных инициативах, которые обсуждали в феврале, – в материале «Телеспутника».

О международных звонках и виртуальных АТС

Госдума приняла в первом чтении законопроект «Антифрод 2.0». Председатель Комитета Госдумы по информационной политике, информационным технологиям и связи Сергей Боярский в своем телеграм-канале сообщил, что законопроект содержит множество новых механизмов, направленных на то, чтобы пресечь контакт мошенника с его потенциальной жертвой. В числе основных механизмов он назвал жесткий контроль виртуальных АТС (ВАТС) и сим-боксов: оборудование должно физически находиться в России и использовать только российские IP-адреса. Кроме того, предлагался полный запрет международных звонков с возможностью его инициативно снять. В настоящее время речь идет о самозапрете таких звонков.

«Операторы связи сообщают, что мошеннические вызовы из-за границы составляют 1,6% всех международных звонков, однако в абсолютных цифрах статистика поражает. За январь 2026 года зафиксировано около 60 млн мошеннических вызовов из-за границы, а за прошлый год – почти 500 млн. Поступают разные отзывы с просьбой смягчить такой подход, в частности, от операторов связи. Будем проводить дополнительные консультации», – пояснил в телеграм-канале Сергей Боярский.

Запрет международных звонков по умолчанию может привести к симметричным мерам других стран, предупредил ведущий аналитик Mobile Research Group Эльдар Муртазин.

«Международные договоренности о пропуске трафика не допускают в одностороннем порядке блокировку пропуска трафика с сетей других стран. Понятно, что международные соглашения сейчас в очень плохом состоянии, как и международное право. Тем не менее, институт электросвязи достаточно однозначен в своих оценках того, что можно делать и что нельзя. Поэтому, мы можем столкнуться с зеркальными блокировками», – полагает эксперт. Жесткий контроль виртуальных АТС и сим-боксов он считает правильной мерой, хотя усомнился в том, что нарушители пострадают: они осознают, что действуют вне закона, и в случае претензий знают, что предъявить в ответ. Поэтому данная инициатива по сути станет для них небольшим затруднением, которое просто повышает стоимость этих услуг на нелегальном рынке, и полностью искоренить таким образом эту проблему не получится, заключил он..

Предложенные меры не создадут дополнительных трудностей для добросовестных пользователей, но позволят эффективно противодействовать нелегальным схемам, повысят прозрачность рынка и снизят риски мошенничества, сообщили в пресс-службе «Мегафона».

Закон регулирует порядок взаимодействия участников рынка по теме «Антифрода» через ГИС «Антифрод», направлен на защиту детей как одну из наиболее уязвимых категорий, улучшает обмен информацией об инцидентах мошенничества, напомнили в пресс-службе T2. Документ координирует работу участников рынка, что полезно: решение проблемы возможно только при консолидации операторов, банков, маркетплейсов, соцсетей, регулятора и других сторон, заключили в T2.

Какие рамки и бонусы готовят для ИИ?

В правительстве анонсировали законопроект о регулировании искусственного интеллекта. Глава Минцифры Максут Шадаев не исключил, что документ будет внесен в Госдуму до конца весенней сессии. Он пообещал, что регулирование будет не только рамочным, но и в каком-то смысле стимулирующим. 18 марта Минцифры опубликовало проект документа. В нем определены 14 основных понятий ИИ, включая технологии, модели, системы, сервисов ИИ, наборов данных, разработчиков, владельцев и пользователя ИИ. В частности, документ устанавливает рискориентированный подход к регулированию применения искусственного интеллекта –требования определяются с учетом вероятности рисков причинения вреда (ущерба) и их масштабам. За результат работы с ИИ несут ответственность разработчик модели искусственного интеллекта, оператор системы искусственного интеллекта, владелец сервиса искусственного интеллекта.

Законопроект в нынешней редакции рискует стать барьерным, а не стимулирующим, так как включает реестр доверенных моделей с тройной сертификацией — Федеральная служба по техническому и экспортному контролю — ФСБ — отраслевой регулятор, при этом сроки и критерии пока не ясны, считает управляющий партнер O2Consulting Анна Никитченко.

«Классическая логика рискориентированного подхода есть в Регламенте об искусственном интеллекте Европейского союза, так как он предполагает асимметрию регуляторной нагрузки: минимальная — где риск мал и жесткая, где ставка — жизнь и права граждан. Данный законопроект декларирует этот принцип, но не операционализирует его через конкретную классификацию рисков. Регулирование дипфейков и синтетического контента должно быть дифференцированным: за политический контент — жесткая ответственность, для коммерческой рекламы — обязательная маркировка, а творческому контенту — облегченный правовой режим при согласии субъекта. Нынешняя редакция смешивает все сценарии в единый режим, что создает избыточную нагрузку на легальное использование», — полагает Анна Никитченко.

Нужны понятные требования к ответственности участников, прозрачности применения ИИ-технологи, качеству данных, безопасности ИИ-моделей и возможности аудита, при этом логика должна быть рискориентированной: чем выше влияние системы на права человека, его безопасность или на доступ к важным услугам, личной информации, тем строже регулирование, согласился руководитель направления GenAI «ДАР» (входит в ГК «КОРУС Консалтинг») Игорь Терехин. Регулировать в первую очередь нужно не сами ИИ-технологии, а сценарии их применения, особенно в тех отраслях, где использование ИИ-инструментов может сопровождаться повышенными рисками для человека: здравоохранении, образовании, госуслуги, финансы, HR, критической инфраструктуре, уточнил эксперт.

Регулировать нужно четыре основные направления: условия создания базовых моделей, правила безопасного внедрения в чувствительных сферах, последствия для рынка труда, механизмы справедливого распределения экономической выгоды от автоматизации, подчеркнул руководитель центра компетенций по GenAI «Рексофт» Юрий Воеводко.

«Важно разделять поддержку и контроль. Там, где речь идет о создании собственных моделей и инфраструктуры, нужны прежде всего меры поддержки. Там, где ИИ влияет на права граждан, безопасность и занятость, нужны правила, обязанности и ответственность. В настоящее время требует регулирования, во-первых, доступ к вычислительной инфраструктуре: субсидии, льготное финансирование, механизмы коллективного доступа к мощностям, специальные программы для обучения отечественных моделей. Во-вторых, предсказуемый правовой режим данных: что можно использовать для обучения, на каких условиях, как соблюдается баланс между интересами правообладателей, государства и разработчиков. В-третьих, налоговые стимулы на исследование и разработку, на внедрение ИИ в корпоративный сектор. В-четвертых, расширение регуляторных “песочниц”, чтобы компании могли быстро тестировать решения в прикладных сценариях без многолетнего юридического цикла. В-пятых, нужен государственный заказ на отечественные ИИ-решения в тех сегментах, где критичны суверенитет, безопасность и локальный контроль над данными. Появление правительственной подкомиссии по развитию и внедрению ИИ как раз показывает, что государство уже смотрит на внедрение как на межотраслевую задачу, а не только как на вопрос одного закона», — считает Юрий Воеводко.

Он назвал три важные стимулирующие меры поддержки. Первая — поддержка «верхнего слоя» рынка, то есть тех, кто создает сами модели и инфраструктуру. Вторая — поддержка «среднего слоя», то есть компаний, которые превращают модели в прикладные продукты для отраслей. Третья — поддержка адаптации рынка труда, потому что без этого массовое внедрение ИИ неизбежно упрется в социальное сопротивление. И если государство хочет, чтобы закон был не только рамочным, но и стимулирующим, ему стоит думать не только о том, как ограничить риски, но и о том, как сделать переход экономики к ИИ управляемым и выгодным для страны в целом, убежден Юрий Воеводко.

Законопроект не затрагивает трудовые отношения и автоматизированные HR-решения, а сейчас много ИИ применяют для автоматического анализа резюме: где тогда права на объяснение при автоматизированном отказе в найме, запрет дискриминационных признаков в моделях скоринга сотрудников, нормы о надзоре человека при управлении производительностью через ИИ, задается вопросами Анна Никитченко. По ее словам, также есть ряд технических моментов, к примеру, принятие закона об ИИ без синхронизации с законодательством о персональных данных создает коллизии. Важно четко определить правовые основания для обработки ПД при обучении моделей, регулировать ситуации, когда модель «запоминает» персональные данные из обучающей выборки, установить требования к «праву на забвение» применительно к обученным моделям, подчеркнула эксперт.

Она напомнила, что статья 20 законопроекта создает режим для суперкомпьютерных центров, однако реальный барьер для стартапов — не строительство ЦОД, а доступ к GPU-кластерам здесь и сейчас. Нужны облачные GPU-кредиты для верифицированных ИИ-стартапов (по аналогии с AWS Activate, Google for Startups), приоритетный доступ к мощностям крупнейших госкомпаний и других госкластеров для компаний на ранних стадиях, сквозной механизм субсидирования вычислений через операционные расходы, а не только капитальные, полагает эксперт. Требуется оптимизация режима экспериментов – сейчас ЭПР слишком медленный и ограниченный по масштабу. Реальная «песочница» должна предполагать автоматическое освобождение от требований, не применимых к стадии MVP, без индивидуальных согласований, гарантию отказа от уголовного преследования для компаний, действующих в рамках согласованного протокола испытаний, ускоренный трек в реестр доверенных моделей для участников «песочницы», прошедших полный цикл валидации, отметила Анна Никитченко.

Для ИИ-компаний сегодня важнее всего три вещи: доступ к вычислительным мощностям, к данным и к рынку, подтвердил Игорь Терехин.

«Полезными были бы субсидии или льготное финансирование ИИ-инфраструктуры, режим управляемого доступа к качественным обезличенным датасетам, регуляторные «песочницы» для пилотирования ИИ-решений и преференции для российских ИИ-разработок в закупках. Хороший закон об ИИ должен не только снижать риски, но и создавать предсказуемые условия для роста российских компаний и их успешной конкуренции с зарубежными игроками», — подчеркнул Игорь Терехин.

В целом в текущих условиях наиболее действенный инструмент – предсказуемый государственный спрос, считает Анна Никитченко. По ее словам, помогла бы публикация многолетних (3–5 лет) дорожных карт внедрения ИИ по ведомствам с бюджетными ориентирами, квоты на российское ПО в закупках с обязательной долей для ИИ-решений малых и средних компаний, публичные наборы задач, по которым оцениваются решения претендентов на госконтракт – это создает конкуренцию по качеству. Столь же критично важны новые виды финансовых инструментов, с помощью которых можно привлекать инвестиции в стартапы, а также внедрять ИИ-решения — этого очень не хватает, заключила эксперт.

Очевидно, что искусственный интеллект будет все больше проникать во все сферы жизни, в связи с чем законодательное регулирование также будет постепенно корректироваться и затронет в том числе сферу трудового права: многие сотрудники уже используют искусственный интеллект и, скорее всего, будут скорректированы их должностные инструкции, напомнила общественный деятель, юрист Валерия Рытвина. Кроме того, встают вопросы авторского права, подчеркнула она.   

«Требует пересмотра ситуация, когда работник обязан выполнять задачи непосредственно своим трудом, но прибегает к помощи искусственного интеллекта. Сегодня в мире идут серьезные споры, кого считать правообладателем при создании контента искусственным интеллектом. Одни полагают, что владельца нейросети, другие – того, кто придумал промт-запрос для нейросети, а третьи и вовсе исключают само возникновение авторского права в этом случае. Ранее мы с депутатом Госдумы предлагали законодательно предусмотреть в Гражданском кодексе смежное право для объектов, сгенерированных искусственным интеллектом при существенной доле участия человека», — уточнила Валерия Рытвина.

В случае принятия законопроект вступит в силу 1 сентября 2027 года.

Ранее сообщалось, что представители ИТ-отрасли высоко оценили представленный Минцифры законопроект о регулировании ИИ, назвав его первой в России попыткой создать целостный кодекс для индустрии. Однако излишне жесткие требования к маркировке контента и подтверждению соответствия моделей могут замедлить развитие рынка и привести к оттоку разработчиков, считают эксперты.


Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий