img
img11 апреля 2025 в 09:41

Маркировка контента и запрет опасных систем: каким может быть российский закон об ИИ

Российские власти всерьез взялись за регулирование искусственного интеллекта (ИИ). Рабочая группа, в которую вошли юристы, представители ИТ-компаний и эксперты, разработала проект закона, призванного установить правила игры на этом быстрорастущем рынке. Документ предполагает введение жестких ограничений на использование систем с «неприемлемым уровнем риска», обязательную маркировку контента, созданного с помощью ИИ, и ответственность разработчиков за ущерб, нанесенный нейросетями.

Российские власти всерьез взялись за регулирование искусственного интеллекта (ИИ). Рабочая группа, в которую вошли юристы, представители ИТ-компаний и эксперты, разработала проект закона, призванного установить правила игры на этом быстрорастущем рынке. Документ предполагает введение жестких ограничений на использование систем с «неприемлемым уровнем риска», обязательную маркировку контента, созданного с помощью ИИ, и ответственность разработчиков за ущерб, нанесенный нейросетями.

Законопроект обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках, сообщают источники РБК, знакомые с инициативой.

По словам заместителя председателя комитета по информационной политике Госдумы Андрея Свинцова, сейчас по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа для комплексной проработки законодательства в области ИИ. Однако, как отмечает депутат, в ближайшее время стоит ожидать не глобального регулирования, а точечных инициатив, направленных на отдельные отрасли. В первую очередь, речь идет о маркировке контента, подчеркнул Свинцов.

Несмотря на активное обсуждение, в правительстве и Минцифры пока не подтвердили получение законопроекта на рассмотрение.

Что предлагает законопроект?

• Определить базовые понятия: «искусственный интеллект», «технологии ИИ», «системы ИИ».

• Ввести обязательную маркировку: Информирование пользователей о том, что контент создан с использованием ИИ.

• Классифицировать системы ИИ по уровню риска: от минимального до «неприемлемого», с соответствующими ограничениями.

• Установить ответственность: Разработчики и операторы систем ИИ будут отвечать за вред, причиненный их использованием.

• Определить авторские права: При создании произведений с помощью ИИ решающим фактором будет творческий вклад человека.

Ранее мы писали о том, что в системах МТС искусственный интеллект уже генерирует 8% строк программного кода. По прогнозам, к 2027 году этот показатель вырастет до 25%, что в три раза больше текущего значения.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий