img26 июня 2024 в 14:45

Деградация демократии или деградация медиа?

Опасность дипфейков (deep fake, — прим. ред.) — реалистичных имитаций аудио и видео, созданных общим (генеративным) искусственным интеллектом (ОИИ) — состоит не в том, о чем обычно судачат власти. Ожившие аватары, сгенерированные ОИИ, практически неотличимы от реальных персонажей. Кому в принципе можно верить в таком фальшивом мире?

Опасность дипфейков (deep fake, — прим. ред.) — реалистичных имитаций аудио и видео, созданных общим (генеративным) искусственным интеллектом (ОИИ) — состоит не в том, о чем обычно судачат власти. Ожившие аватары, сгенерированные ОИИ, практически неотличимы от реальных персонажей. Кому в принципе можно верить в таком фальшивом мире?

Одна из самых обсуждаемых (преимущественно на Западе) фобий наших дней — деградация демократии, к которой могут привести ОИИ-подделки. В этом году в 70 странах проходят выборы, в них голосует половина населения планеты. Около 1500 экспертов, опрошенных в конце 2023 года организаторами Всемирного экономического форума, назвали дезинформацию самым серьезным глобальным риском в перспективе ближайших двух лет. Даже экстремальные погодные условия и вооруженные конфликты они посчитали менее опасными. Это, мягко говоря, преувеличение. Уже не в первый раз эксперты Давоса паникуют попусту. Ложь и обман присущи человеческой натуре. Но мир до сих пор не рухнул от этого.

ОИИ-контент может быть правдив и полезен. Вместо ущерба демократии он может ей помогать, в том числе в избирательных кампаниях. В реальности дипфейки пока не наносят такого большого ущерба, как об этом сообщают в демократической прессе. Разработчики ОИИ вообще утверждают, что проблема не в генерации такого контента, а в его бесконтрольном распределении, мол, во всем виноваты глобальные интернет-платформы.

Но и последние не дремлют. На Мюнхенской конференции по безопасности представители крупных технологических компаний, включая Google, Meta (организация признана экстремистской и запрещена в РФ) и TikTok, публично обещали пресекать дипфейки. Мне верится в это слабо, но отсутствие связанных с этим крупных скандалов за последнее время вселяет оптимизм. Американские исследователи создали базу данных политических дипфейков по всему миру. В ней 114 выявленных случаев.

Опасность дипфейков не в том, что избиратели доверятся лжеполитикам, а в том, что они перестанут доверять честным.

Следует больше беспокоиться не о фейковых аватарах, а о реальных политиках, несущих откровенную чушь. Этой весной продвинутая в плане технологий Индия провела крупнейшие в мире (с точки зрения количества голосующих) демократические выборы. Свой выбор сделали 642 млн человек. Инструменты ОИИ широко использовались для поддержки знаменитостей, популярных политиков прошлого (вроде Ганди), поливания грязью. Но в целом эти манипуляции не сорвали и не опорочили результаты голосования. Напротив, ряд кандидатов легально использовали ОИИ-платформу Bhashini, дублировав свои речи на 22 официальных языка, укрепив связь с избирателями.

Эксперты Гарвардской школы Кеннеди, изучавшие применение ОИИ, тоже пришли к выводу, что бизнес в основном использует эту технологию на благо клиентам. Да, поддельная переписка главы Коминтерна Зиновьева оказала большое влияние на выборы в Великобритании в 1924 года. Это было задолго до интернет-эпохи. И в этом существенная разница.

Теперь эксперты опасаются, что ОИИ приведет к индустриализации подобной дезинформации.

Интернет максимально снизил стоимость распространения контента. А нейросети аналогично повлияли на цену создания контента.

Я сомневаюсь в том, что итогом всего этого станет то, что «нас просто затопит дерьмом», как выражался американский политолог Стив Бэннон. Рост и распространение ОИИ-инструментов повышает иммунитет людей к дипфейкам — как к вирусам.

Больше всего общество должны беспокоить манипуляции над персональными данными и использование их в мошеннических схемах. Преступники одними из первых внедряют любую новую технологию. Так, недавно британскую компанию Arup в Гонконге «обнесли» на 25 млн $, использовав цифровой клон гендиректора, который приказал сотрудникам совершить денежный перевод. Еще случай: в июне откровенные дипфейк-изображения девочек из начальной школы в Австралии распространили в интернете. Их фото украли из постов в соцсетях и обработали с помощью ОИИ. Вот где кроется настоящая беда, а не в переоцененных фобиях, тиражируемых демократической прессой, которая опасается потерять рычаги влияния на общество вместе с угрозой проиграть выборы контролирующей их политической партией.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий

Я даю согласие на обработку персональных данных