В ходе выступления на конференции «Медиапространство», организованной изданием «Коммерсантъ», Марина Ким заявила, что в Госдуме озадачены вопросами не столько регулирования, сколько развития искусственного интеллекта и всех технологий, которые с ним связаны.
«Мы понимаем, что регулирование должны быть таким, чтобы не сдерживать это развитие, - отметила она. – Только что мы отклонили один из законопроектов, который прописывал ответственность всех видов платформ – и соцсетей, новостных, и информационных, которые должны сами вылавливать контент, понимать, что он обработан искусственным интеллектом и нести за это ответственность. На этом пути появляется миллион вопросов, и пока мы на них не ответим, бессмысленно вводить какое-то жесткое регулирование, это никому не нужно».
Эксперт задалась вопросом: что маркировать, если 99% контента будет обработано с помощью искусственного интеллекта? В этом случае маркировать нужно именно авторский контент, считает она.
«Маркировка ИИ-контента, конечно, нужна, но не надо воспринимать ее как универсальное решение, - также подчеркнула Марина Ким. – Обязательная маркировка нужна там, где пользователь должен понимать, с кем он разговаривает, в частности, это относится к таким группам населения, как дети и пожилые люди. В зоне особого внимания также дипфейки, которые выступают основным инструментом для мошенников. Отдельно мы выделяем общественно значимые сегменты, где цена ошибки высока и к такой информации изначально есть доверие у пользователей: новости, политическая, финансовая, медицинская и юридическая коммуникация и так далее. В этих сферах маркировка нужна не как формальность, а как стандарт добросовестности. Но большой вопрос, на кого возлагать ответственность – на платформы, которые загрузили материал, или на производителя, который выпускает такой материал?»
Депутат также подчеркнула, что в целом маркировка не решит проблему достоверности, не снимет ответственность с тех, кто выпускает ИИ-контент в оборот, и даже если материал частично помечен как обработанный искусственным интеллектом, это не значит, что в нем допустимы логические ошибки, клевета и манипуляции.
Одна из серых зон – это степень участия ИИ в создании материала, сообщила Марина Ким, потому что он может использоваться как технический помощник для расшифровки, монтажа или сбора материала, а может формировать смысловую часть. Другой чувствительный момент, по словам депутата, авторское право и обучение моделей на чужом контенте.
«Если мы хотим развития любых моделей, мы не можем ограничивать их в использовании данных. Чем больше мы будем ограничивать эти данные и настаивать на авторских правах, тем меньше КПД мы будем получать», - сказала она.
Ранее «Телеспутник» сообщал, что владельцев ИИ-сервисов могут обязать маркировать синтезированный контент и нести ответственность за противоправные результаты.


