img
img12 июня 2025 в 16:59

«Долгое государство ерунды»: ботшит как базовая услуга

Опасность общих (генеративных, языковых) моделей искусственного интеллекта (ОИИ) заключается в их искусности нести чушь. Такой ИИ не заботится о реальности, потому что он о ней просто не имеет ровно никакого понятия. Для вычислительной машины в принципе нет никакого реального физического (или духовного) мира. И если человек по каким-то причинам не прописывает для нее эти миры как алгоритм, проще – не ставит перед ней четких практических задач, ИИ неизбежно превращается в «генератор чуши».

Опасность общих (генеративных, языковых) моделей искусственного интеллекта (ОИИ) заключается в их искусности нести чушь. Такой ИИ не заботится о реальности, потому что он о ней просто не имеет ровно никакого понятия. Для вычислительной машины в принципе нет никакого реального физического (или духовного) мира. И если человек по каким-то причинам не прописывает для нее эти миры как алгоритм, проще – не ставит перед ней четких практических задач, ИИ неизбежно превращается в «генератор чуши».

Владелец и CEO одной прекрасной московской ИИ-компании в области «умного» видеонаблюдения, очень точно сказал: «Если вы не знаете для чего именно разрабатываете ИИ-решение – вы занимаетесь ерундой». Я добавлю – крайне опасной ерундой. Сгенерить студенту-лаботрясу курсовик или бездарю-дизайнеру картинку, а после от скуки пугать домохозяек будущим «восстанием машин» – вовсе не такое безобидное занятие, как кажется. Оно на бирже в Нью-Йорке сотни миллиардов долларов стоит.

Чтобы подвести философскую (отнюдь не научную) основу этой гениальной русской мысли, ниже я скомпилировал тезисы, в т. ч. коллег журналистов и редакторов ведущих деловых западных изданий, в частности – свежего эссе Джона Торнхилла – редактора отдела инноваций The Financial Times (Generative AI models are skilled in the art of bullshit) и старинную (аж февраля 2024 года) колонку модного техно-блогера Альберто Ромеро (Generative AI, Bullshit as a Service) из The Algorithmic Bridge.

Так вот.

Американский философ в области этики и человеческого сознания Гарри Франкфурт уверял, что ложь – не главный враг правды. Чушь (чепуха, пустопорожняя брехня, голимая ерунда, тупая бессмыслица) – во много раз хуже. В своем классическом эссе «О чуши» (On Bullshit, 1986) он объяснил: «Лжец и правдолюбец играют в одну игру, просто – по разные стороны баррикады. Каждый реагирует на факты так, как их понимает, либо принимая, либо отвергая авторитет правды. Чушь же игнорирует ее (в смысле – действительность) полностью. Чушь убеждает независимо от фактов. Она ничего о них не знает и знать не хочет».

Гарри ушел из жизни в 2023 году – через несколько месяцев после выхода ChatGPT. Но его древнее эссе в новую ОИИ-эпоху повествует именно об этой мега-фиче. On Bullshit точно описывает работу больших языковых моделей (LLM) – математической основы ОИИ. LLM не волнует правда-истина. Они работают на основе статистической корреляции, а не эмпирических наблюдений.

«Величайшая сила, но и величайшая опасность LLM – это способность казаться правдоподобными и авторитетными практически по любой теме независимо от точности. Другими словами, их сверхспособность – это их изощренная, нечеловеческая способность нести чушь», – пишут теперь Карл Бергстром и Джевин Уэст – профессоры Вашингтонского университета.

Одна из самых известных и тревожных, иной раз, и забавно-креативных особенностей LLM – «галлюцинирование» фактами, точнее – просто их выдумывание. У специалистов по ботшиту есть все основания утверждать, что вычислительные «ошибки» – неотъемлемая черта всех вероятностных (статистически-стахостических) моделей. Она принципиально не исправляема, присуща им имманентно – по определению. ОИИ-компании тем не менее пытаются решить эту «проблему», улучшая качество данных, настраивая свои LLM, встраивая в них системы проверки и перепроверки фактов.

Принципиально пустое занятие. Способы, которыми разработчики пытаются улучшить LLM – обучение с подкреплением на основе обратной связи от человека – рискуют внести предвзятость, искажение и необоснованные оценочные суждения катастрофического свойства.

Так чат-бот Google на голубом глазу сообщает пользователям: «Gemini может ошибаться, в том числе в отношении людей, поэтому – перепроверяйте». И это не помешало Google на неделе развернуть «режим ОИИ» для всех своих основных сервисов в США.

Американские чат-боты OpenAI, Anthropic, Google, Meta, xAI и самый расхапованный, якобы «недорогой в разработке» бот китайской DeepSeek даже личные качества своих собственных руководителей описывают совершенно по-разному. А бот Grok Илона Маска продолжает продвигать мемы о «геноциде белых» в Южной Африке в ответ на совершенно не связанные с этим запросы. Хотя xAI заявила, что исправила сбой. К слову, разработчик сперва пробовал списать его некую «несанкционированную модификацию».

По мнению ученых Оксфордского института Интернета, ОИИ-модели создают новую, гораздо более худшую и опасную категорию контента – «беспечные высказывания» (англ. careless speech). Эта галимая чушь несет хоть и нематериальный, но долгосрочный, кумулятивный вред. Невидимый, растворенный в воздухе Bullshit, с каждым днем делает человеческое общество глупее. Подтверждая мудрую русскую пословицу «Слово – не воробей: вылетит – не поймаешь». ОИИ-воробья мы не сможем словить даже всем огромным «цивилизованным миром».

Мотивацию хитрого политика или ловкого продавца обычно мы понять можем. Но чат-боты не имеют преднамеренности. Они лишь оптимизированы для правдоподобия и вовлеченности, а не для «правдивости». LLM придумывали и будут придумывать «факты» без всякой цели. И загрязнять базу знаний человечества непостижимыми, невыданными до сих пор темпами и масштабами.

Можно ли разработать ОИИ-модели более высокой правдивости? Будет ли на них спрос? Должны ли разработчики для этого соблюдать более высокие стандарты честности и этики, как это требуют, например, от рекламодателей, юристов и врачей? Вряд ли. Работу журналистов/блогеров упоминать в этом контексте уже перестали даже гипотетически и в шутку. Но разработка «более правдивых моделей» однозначно потребует больше времени, денег и электроэнергии – именно того, что все эти ОИИ-фичи изначально призваны были сэкономить. По крайней мере так полагали ранее.

Теперь даже в виде вопроса, подобное звучит как бред: все равно, что мечтать на людях, что автомобиль станет самолетом. Можно сбросить его со скалы, но вызов гравитации колесный транспорт все равно не бросит. Он для этого не предназначен.

Да, ОИИ-приложения могут быть ценными. Это – несомненно. Они, например, гораздо лучше человека играют в шахматы, считают объем выпитого алкоголя в баре. При правильном использовании генеративный ИИ можно развернут в бесчисленных бизнес-кейсах. Мало того! Чушь может быть практична сама по себе. Множество прибыльных бизнес- и политических карьер построены на чистой ерунде. Но ошибочно и опасно видеть машину «генератором правды и смысла».

Да, ОИИ можно применять потрясающе полезно, но люди в 99% случаев используют его для спама, подделки и обмана.

Отчим ChatGPT Сэм Альтман поначалу распространяться, что его лавка OpenAI и, как следствие, весь ОИИ – призван свести к нулю стоимость интеллекта. На публике он любил помечтать, что любой индивид получит доступ ко всем накопленным за тысячелетия человечеством знаниям. А продукт OpenAI – вовсе не ChatGPT, а «Интеллект с Неба». На самом деле ОИИ не стремится к нулевой стоимости интеллекта, он стремится к чуши. Являя собой революционное изобретение Бот-Шит по модели BaaS.

Смех и горе – в том, что люди используют чудесные ОИИ-инструменты OpenAI, Google или Meta, чтобы создавать то, что никак нельзя назвать «умным»: спам-фермы для заполнения интернет-сайтов фейковой рекламой, соцсети с ложью и мусором, генератор домашних заданий лоботрясам; поддельных «живых» персонажей и ложное видео с настоящими живыми людьми.

Искажение информации для обмана оптом, создание «непереваримой мозгом каши» теперь и правда – страшно дешево. Сдача письменных экзаменов – даже в элитных университетах с GPT-4 – тривиальна. Нападение на чей-то устоявшийся публичный имидж – несколько кликов.

Да, с ОИИ мы учимся новому, обучаем по-новому, создаем новые «умные» инструменты, новые художественные стили и приемы, новые методы повышения производительности труда. Но это все – исключения из ОИИ-мейнстрима. Наиболее распространенные, даже «нормальные» способы использования ОИИ-дара – спам, мошенничество и фейк. Игнорировать это – значит надеть повязку на глаза. Все уже производят ОИИ-дрянь и гадость. Единичные полезные инноваторы и прочие доброхоты – позади и в создании своих продуктов страшно отстали от ОИИ-пелотона.

И это всё – не вина ОИИ-инструментов или их разработчиков. Практическое использование ОИИ – чисто наша собственная ответственность. Виновник – мы и состояние человеческого общества. Мы сами – главное объяснение распространенности негативных вариантов использования ОИИ. Хотя вредоносное ОИИ-ПО это вовсе не оправдывает. Мы горды тем, что – «такие умные» и создали «такие умные» штуки, но нами по-прежнему движут самые примитивные и глупые инстинкты.

В результате ОИИ сводит к нулю не стоимость интеллекта, а стоимость превращения этих инстинктов в чушь. Генеративный ИИ – первая технология, которая когда-либо использовалась в первую очередь для BaaS – «булшит как услуга».

Вроде как ОИИ принес «демократизации творческой свободы», например, каждый теперь может чудесным образом начать прекрасно излагать мысли письменно.

Но прекрасный эпистолярный стиль – дар не машины, а человеческого гения. Он в принципе не может быть даром, а может быть только наградой. Поэтому «демократизация творческой свободы», хоть и красиво звучит, на деле – трагическое заблуждение идеалиста. Мир к такому не готов. Люди просто не созданы для этого! Те, кто на самом деле, искренне хочет творческой свободы, просто идет к ней. Стараясь изо всех сил, не ища никаких оправданий.  А те, кому дарован дар творческой свободы без их собственного горячего желания бороться за ее достижение – будут использовать его для других, вовсе не похвальных целей.

Полная передача усилий и опыта «интеллектуала» чудесному ОИИ – утопия, сводящий с ума оксюморон. Нужно смотреть на мир таким, какой он есть. Даже если бы ОИИ-инструменты были созданы идеально этично, и люди могли бы вводить предложение и получать взамен целый роман, большинство не стали бы использовать эту суперспособность, чтобы написать «книгу своей мечты». Мы тупо – не такие. Большинство использовало бы её, чтобы быстро заработать деньги или минимизировать усилия, необходимые для выполнения своей работы. Так и используем.

Демократизация творческой свободы — благородная цель. Но люди, которые ее уважают, кто заботится о демократии, творчестве и свободе – хотят развивать свои навыки, они готовы за них бороться. Главные бенефициары ОИИ-дара – те, кто его не уважает. Иными словами, ОИИ де факто – дар недостойным – незаслуженный подарок тем, кто не желает признавать гигантов, на чьих плечах стоит.

Технологии и инновации побуждают нас представлять себе тревожные сценарии будущего. Такова наша природа. Нет, мы не боимся ИИ, мы боимся ВСЕГО. Не потому, что всё оно реально опасно. Просто, если мы не в состоянии игнорировать его как невозможное, наши умы полностью захватывает неопределенность.

Вот где рождаются истории о РИСКАХ ОИИ. ИИ – апокалипсис обреченных? Прометеев огонь поджигателей? Нет, он просто – BaaS – отражение трагической истории — проклятия и благословения человечества. Мы считаем себя очень сложными, но на самом деле мы примитивно просты – этакие «обезьяны, понявшие вселенную».

Мы продолжаем тянуть руки в небо, как Маск – к Марсу. Но ноги наши не могут и никогда не оторвутся от Земли. ОИИ прекрасно это показал и доказал всего за три года присутствия на массовом рынке. Человечество по-прежнему не способно побороть самые первобытные, самые низменные побуждения. Это мудро и зримо напоминает нам: «вы можете видеть свет звезд в иных галактиках, равно как и свет магического интеллекта в небе». Увы, мы не созданы, чтобы к нему прикоснуться.

*Мнение автора может отличаться от мнения редакции.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий