img
img15 апреля 2026 в 15:23

Марина Ким: «Регулирование не должно сдерживать развитие технологий»

Первый заместитель Председателя Комитета Госдумы по информационной политике, информационным технологиям и связи Марина Ким назвала «серые» зоны и обозначила ряд проблем в регулировании искусственного интеллекта.

Первый заместитель Председателя Комитета Госдумы по информационной политике, информационным технологиям и связи Марина Ким назвала «серые» зоны и обозначила ряд проблем в регулировании искусственного интеллекта.

В ходе выступления на конференции «Медиапространство», организованной изданием «Коммерсантъ», Марина Ким заявила, что в Госдуме озадачены вопросами не столько регулирования, сколько развития искусственного интеллекта и всех технологий, которые с ним связаны.

«Мы понимаем, что регулирование должны быть таким, чтобы не сдерживать это развитие, - отметила она. –  Только что мы отклонили один из законопроектов, который прописывал ответственность всех видов платформ – и соцсетей, новостных, и информационных, которые должны сами вылавливать  контент, понимать, что он обработан искусственным интеллектом и нести за это ответственность. На этом пути появляется миллион вопросов, и пока мы на них не ответим, бессмысленно вводить какое-то жесткое регулирование, это никому не нужно».

Эксперт задалась вопросом: что маркировать, если 99% контента будет обработано с помощью искусственного интеллекта? В этом случае маркировать нужно именно авторский контент, считает она.

«Маркировка ИИ-контента, конечно, нужна, но не надо воспринимать ее как универсальное решение, - также подчеркнула Марина Ким. – Обязательная маркировка нужна там, где пользователь должен понимать, с кем он разговаривает, в частности, это относится к таким группам населения, как дети и пожилые люди. В зоне особого внимания также дипфейки, которые выступают основным инструментом для мошенников. Отдельно мы выделяем общественно значимые сегменты, где цена ошибки высока и к такой информации изначально есть доверие у пользователей: новости, политическая, финансовая, медицинская и юридическая коммуникация и так далее. В этих сферах маркировка нужна не как формальность, а как стандарт добросовестности. Но большой вопрос, на кого возлагать ответственность – на платформы, которые загрузили материал, или на производителя, который выпускает такой материал?»

Депутат также подчеркнула, что в целом маркировка не решит проблему достоверности, не снимет ответственность с тех, кто выпускает ИИ-контент в оборот, и даже если материал частично помечен как обработанный искусственным интеллектом, это не значит, что в нем допустимы логические ошибки, клевета и манипуляции.

Одна из серых зон – это степень  участия ИИ в создании материала, сообщила Марина Ким, потому что он может использоваться как технический помощник для расшифровки, монтажа или сбора материала, а может формировать смысловую часть. Другой чувствительный момент, по словам депутата, авторское право и обучение моделей на чужом контенте.

«Если мы хотим развития любых моделей, мы не можем ограничивать их в использовании данных. Чем больше мы будем ограничивать эти данные и настаивать на авторских правах, тем меньше КПД мы будем получать», - сказала она.

Ранее «Телеспутник» сообщал, что владельцев ИИ-сервисов могут обязать маркировать синтезированный контент и нести ответственность за противоправные результаты. 

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий