Такой подход, по мнению эксперта, позволяет одновременно продемонстрировать преимущества технологий и снять опасения людей относительно скрытого влияния на их выбор. Семёнов выделил несколько базовых инструментов для построения доверительного диалога.
Это публикация разъясняющих материалов в блогах и пресс-релизах, внедрение системы обратной связи с пользователями, а также размещение официальных политик использования ИИ в открытом доступе. Однако ключевым элементом он назвал маркировку контента, созданного с помощью нейросетей.
«Такая двухуровневая маркировка позволит не только соответствовать будущим законодательным требованиям, но и сохранить доверие аудитории», — подчеркнул эксперт.
В качестве эффективных форматов юрист предлагает использовать как заметные для обычного пользователя обозначения (например, текст «сгенерировано ИИ» или специальный логотип прямо в кадре видео), так и технические машиночитаемые метки. Последние должны содержаться в метаданных и включать подробную информацию: какие именно технологии применялись, дату создания файла и данные о правообладателе.
Семёнов отметил, что подобный подход сейчас обсуждается в рамках законопроекта о маркировке «синтетического контента», и его внедрение поможет бизнесу подготовиться к новым требованиям закона, сохранив прозрачность перед своей аудиторией.
Ранее в разговоре с «Телеспутником» директор по маркетингу компании GreenData Юлия Бусоргина назвала четыре уровня защиты от репутационных рисков при работе с ИИ-контентом.


