Искусственный интеллект развивается рекордными темпами. Если в доковидный период пользователям интернета подобная технология казалось далекой, то сейчас все активно осваивают разного рода GPT. Однако за стремительной скоростью появления и распространения ИИ стоит этический аспект, который активно обсуждается. А именно — пренебрежение интеллектуальной собственностью и авторским правом.
На этот раз пострадали крупнейшие контентные платформы. Стремясь выбиться в лидеры гонки в области ИИ, NVIDIA обучила свою нейросетевую модель на основе контента видеосервисов. Компания открыто признала, что действительно использовала его, однако отметила, что все манипуляции были произведены в соответствии с законом. Под этим подразумевалось, что поскольку человек имеет право узнавать информацию, данные и идеи из другого источника и использовать их для самовыражения, то эта же возможность доступна и нейросети. С этой позицией не согласились платформы, которые несут ответственность перед создателями контента.
Подобные действия NVIDIA вызвали недовольство и у пользователей, которые выступают за правомерное развитие технологий. Однако другая часть юзеров назвала данный прецедент новой реальностью мира ИИ, а также заметила, что благодаря нарушениям любой человек может стать киноделом.
Похожий случай произошел с SORA AI — ИИ для создания видео, про который я писала ранее. В апреле генеральный директор YouTube пригрозил OpenAI тем, что использование материалов с видеохостинга нарушает правила платформы. Руководство SORA AI избегало прямого ответа, однако в мае видеоплатформа подала в суд на разработчиков нейросети за то, что те обучали модель на основе контента с YouTube. Пока неизвестно, что именно «скармливали» SORA AI, но наблюдая за тем, как быстро разработчики смогли добиться столь высокого качества работы ИИ, возникает вопрос: возможно ли этого достичь за короткий срок, обучая модель с использованием только разрешенных роликов?
Если обучение на основе контента видеосервисов выглядит достаточно безобидно (с его помощью ИИ именно учится, а не копирует), то есть и более точечные скандалы. В мае компанию OpenAI обвинили в том, что она без разрешения синтезировала голос актрисы Скарлетт Йоханссон для своего цифрового помощника. Для подобного заявления было несколько оснований: во-первых, голоса действительно оказались очень схожи, во-вторых, гендиректор OpenAI Сэм Альтман рассказал общественности о том, что уговаривал актрису на озвучку, но получил отказ.
Доказательств, что голос был синтезирован не представлено, однако здесь работает и обратное утверждение. Поскольку голос помощника поразительно похож на голос актрисы, прибегали ли создали к его синтезу с нуля или нет — неважно, это может быть использовано и против человека. История с использованием синтезированного голоса голливудской актрисы завершилась удалением помощника, однако это еще раз показывает, что возможности ИИ безграничны, поскольку в их отношении ограничения получаются условные.
Искусственный интеллект уже вовсю заменяет человека — для этого нужно лишь несколько секунд его речи. Именно по этой причине в 2023 году проходили забастовки в Голливуде. Меры контроля нейросетей принимаются. К примеру, Meta* специальным образом помечает речь, созданную искусственным интеллектом. Таким образом, в будущем можно будет избежать злонамеренного использования синтезированных голосов реальных людей.
То, что маркировка необходима, признали и в России. Еще с мая ведется работа над созданием закона, который бы обязывал помечать любой контент, созданный нейросетями. При этом чуть раньше, в апреле, издания, входящие в состав Shkulev Media Holding, решили обезопасить свой контент от ИИ. СМИ указали в файлах параметров индексирования сайта запрет для роботов поисковых систем. То есть компании не смогут использовать контент указанных медиа для того, чтобы обучать нейросетевые модели. «Яндекс» проводил опросы и общался по поводу возможностей «Нейро», следует из комментария холдинга.
Однако из этого можно сделать еще один вывод: нейросети находятся в зависимом положении, поскольку их можно обучить только на базе человеческого творчества. Это доказывает и исследование оксфордских ученых, которые предрекают коллапс моделей в случае, если нейросети будут обучаться на контенте, созданном другими нейросетями. Подобное будущее может настать из-за большого количества ИИ-творчества в Сети, которое беспрерывно туда заливается. Действуя по схеме, нейросеть станет учиться, но на самом деле — ходить по кругу. Развитие прекратится, поскольку заимствованные данные будут все меньше отражать действительность.
По моему мнению, обучение и развитие нейросетей нуждается в жестких ограничениях — это касается и авторского права, и маркировки контента. Однако возможности ИИ безграничны, и невозможно учесть все нюансы, которых становится больше с появлением новых моделей. Государства не успевают реагировать на запросы общества. Так, например, в США лишь недавно появился закон, регулирующий работу дипфейков, хотя прецеденты были и до этого. В России также ведется борьба с технологией, но и она, по мнению депутата Ярослава Нилова, не охватывает весь спектр совершаемых преступлений.
Ситуация осложняется и тем, что законы невозможно продумать наперед по тем же причинам, что указаны выше. Понятно только одно — ограничения должны быть нацелены в первую очередь на защиту граждан, а во вторую — помогать избежать рекурсии нейросети и направлять стремительное развитие ИИ в нужное русло.
* Организация признана экстремистской и ее деятельность запрещена в РФ.