img14 февраля 2024 в 10:35

Оружие помощнее ядерного

Государства вряд ли научаться управлять искусственным интеллектом (ИИ) до того, как это станет практически невозможным. Тому есть ряд объективных причин. Предотвратить распространение опасных передовых ИИ-систем не позволит противостояние США и КНР, цель которого — добиться экономического и технологического доминирования. Согласия в регулировании нейросетей между государствами будет трудно добиться даже при самом благоприятном сценарии. И это гарантирует неконтролируемую гонку.

Государства вряд ли научаться управлять искусственным интеллектом (ИИ) до того, как это станет практически невозможным. Тому есть ряд объективных причин. Предотвратить распространение опасных передовых ИИ-систем не позволит противостояние США и КНР, цель которого — добиться экономического и технологического доминирования. Согласия в регулировании нейросетей между государствами будет трудно добиться даже при самом благоприятном сценарии. И это гарантирует неконтролируемую гонку.

Генеративный ИИ изменит облик технологической революции, перекроит политику, экономику и общество, полагают эксперты. Или уничтожит их, добавлю я. Увы, большая часть дебатов об управлении нейросетями остается в ловушке ложной дилеммы: использовать ИИ для усиления национальной мощи или подавить его, чтобы избежать рисков. Искусственный интеллект пытаются встраивать в известные формы управления, но ИИ нельзя управлять как любой другой технологией.

Нейросети меняют расхожее представление о власти, суверенитете и доминировании. Прежде всего власть вынуждена будет сесть за стол переговоров с крупнейшими технологическими компаниями, ведущими разработки в области искусственного интеллекта. Именно об этом намекнул Владимир Путин, отвечая на вопрос об Илоне Маске в недавнем интервью Такеру Карлсону: «Нужно с ним как-то договариваться».

Без переговоров с технологическими гигантами просто нет шансов эффективно управлять ИИ. И это только один из примеров переосмысления представлений о государстве и власти.

ИИ устроен иначе и не сравним с иными технологиями по степени своего влияния на власть. Он не просто создает политические проблемы — его природа осложняет решение этих проблем. В этом заключается главный парадокс.

Развитие нейросетей делает смешными прежние темпы прогресса, в частности закон Мура (эмпирическое наблюдение американского инженера Гордона Мура, согласно которому количество транзисторов, размещаемых на кристалле интегральной схемы, удваивается каждые 24 месяца, — прим. ред.). Когда OpenAI запустила первую большую языковую модель GPT-1 в 2018 году, та имела 117 млн параметров. Пять лет спустя модель GPT-4 насчитывает уже более триллиона параметров. Последние 10 лет объем вычислений для обучения крупных языковых моделей каждый год увеличивался десятикратно. Модели с более чем 100 трлн параметров (примерно столько же синапсов насчитывается в человеческом мозге) появятся в течение пяти лет.

К тому же технология стремительно дешевеет. Через три года после того, как OpenAI выпустила GPT-3, небольшие команды разработчиков создали модели с тем же уровнем производительности, но в 60 раз дешевле. Мелкие команды быстро заполняют ниши, на которые корпорации потратили годы и сотни миллионов долларов. Ни одна другая технология не стала доступной так быстро.

ИИ отличается и тем, что имеет двойное назначение — гражданское и военное. К примеру, система вождения автомобиля может управлять и танком.

Однажды выпущенные модели ИИ будут применяться повсюду. Чтобы посеять глобальный хаос потребуется всего один вредонос. Так что лоскутное регулирование в этой области бессмысленно по определению. Одной стране не нужно регулировать ИИ, если он не контролируется в другой.

Возможный ущерб от ИИ не имеет ограничений. От массовой дезинформации и уничтожения миллионов рабочих мест до неконтролируемой военной эскалации. Искусственный интеллект может стать самоуправляемым, самовоспроизводящимся и самосовершенствующимся буквально в 2025 году.

Разумеется, это не первая технология, которая несет такие высокие риски, но первая, что сочетает их все. Системы ИИ не похожи на автомобили или самолеты, которые поддаются поэтапным улучшениям, а сбои в их работе происходят в виде отдельных аварий. Не похожи на химическое или ядерное оружие. Любая традиционная модель регулирования в случае с ИИ безнадежна.

Нейросети — не только технология, но и новый способ проецирования силы. Каждая нация, корпорация и отдельный человек захотят иметь какую-то его версию. ИИ будет распространяться без уважения к границам.

Искусственный интеллект уже становится во главе геополитической конкуренции. Достижение лидерства в его разработке — стратегическая цель правительств, обладающих соответствующими ресурсами. Наименее изобретательные будут вкачивать деньги в доморощенных ИИ-чемпионов, пытаться контролировать суперкомпьютеры и алгоритмы. Наиболее изобретательные — создавать конкурентные преимущества. Об этом опять же говорил президент Путин на конференции AI Journey в ноябре 2023-го: «Нужно стремиться, чтобы РФ стала одной из самых комфортных юрисдикций для развития ИИ-технологий».

Большинство стран не имеют ни денег, ни ноу-хау чтобы конкурировать за лидерство в искусственном интеллекте. Доступ к передовому ИИ определят их отношения с горсткой крупных корпораций и передовых государств. Эта зависимость грозит усугубить нынешний геополитический дисбаланс.

Нейросети — не просто еще один инструмент, который может принести власть или богатство. Они способны обеспечить военное и экономическое преимущество над противниками. Риск получения конкурентом превосходства в ИИ по своему значению выше любого другого риска. Поэтому Пекин и Вашингтон сосредоточились на ускорении развития нейросетей, а не на их замедлении. По мнению руководства обеих стран, пауза в разработке, к которой призывают некоторые лидеры индустрии, равнозначна одностороннему разоружению.

Но эта точка зрения предполагает, что государства имеют хотя бы некоторый контроль над ИИ. Это может иметь место в Китае, который мудро интегрировал свои технологические компании в структуру государства. Однако на Западе искусственный интеллект скорее подрывает власть, чем укрепляет ее.

Сторонники укрощения ИИ, как правило, обращаются к модели контроля над ядерным вооружением. Однако системы искусственного интеллекта гораздо проще разрабатывать, красть и копировать. Но главное — их контролируют частные компании, а не правительства. Большинство идей о том, как управлять ИИ, рассматривают его как традиционную проблему, которая поддается государственной регуляторике — соблюдению правил, выработанных политическими лидерами. Но для искусственного интеллекта это не сработает.

Регулирование ИИ требует оригинального решения. Оно должно быть одновременно трансграничным, всеохватывающим, превентивным, осторожным, гибким, инклюзивным, целевым и неуязвимым для любой случайности. Увы, из-за геополитического противостояния сейчас это практически невозможно.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий

Я даю согласие на обработку персональных данных