img
img30 сентября 2025 в 17:45

А что по этому поводу думает товарищ «искусственный»?

Теоретики и практики в области генеративного искусственного «интеллекта» (ГИИ) диаметрально расходятся во мнении о том сможет ли машина, наконец, начать думать как человек? Наиболее продвинутые философы-техники уверяют, что нет. Однако большинство даже этих умных и грамотных людей почему-то оставляет без внимания потенциально выдающуюся способность машины к созданию качественных, обоснованных, вполне «человеческих» мнений. Постоянный колумнист «Телеспутника» Вадюша ЦИФРОВОЙ решил пофантазировать на тему «Если бы Я робот был президентом».

Теоретики и практики в области генеративного искусственного «интеллекта» (ГИИ) диаметрально расходятся во мнении о том сможет ли машина, наконец, начать думать как человек? Наиболее продвинутые философы-техники уверяют, что нет. Однако большинство даже этих умных и грамотных людей почему-то оставляет без внимания потенциально выдающуюся способность машины к созданию качественных, обоснованных, вполне «человеческих» мнений. Постоянный колумнист «Телеспутника» Вадюша ЦИФРОВОЙ решил пофантазировать на тему «Если бы Я робот был президентом».

Генерация грамотных суждений и даже продуктивных нарративов – компиляций по любому заданному поводу и с заранее запрограммированным выводом – мощнейший инструмент коммуникаций. Такое только и делают политики, бизнес и нанятая ими пресса. Машина однозначно способна делать такую работу быстрее и качественней. Именно потому, что не думает, а компилирует. Подбирает подтверждения самых диких теорий, например.

Как с глобальным потеплением. Число вполне научных (не значит – верных) аргументов за то, что это – техногенный продукт развитого человечества, также как аргументов за то, что это – циклическое чисто природное явление – зашкаливает. Важно, в какой вариант поверит больше людей.

Начнем наше ГИИ-эссе с трех старинных изречений по теме.

1. «Многие люди скорее умрут, чем начнут думать, и умирают, так и не начав.»

Бертран Рассел, «Избранные труды»

2. «Советские историки установили, что письма к филиппийцам писал не апостол Павел, а совершенно другой человек»

Советский анекдот 1970-х

3. «Чего нет, того не сосчитаешь».

Еврейская мудрость

Первое высказывание – о мышлении, второе – об идеологии и пропаганде, третье – об ограниченности инструментария. Наша задача – показать, что первое машине неподвластно, а со вторым она уже справляется гораздо лучше человека. И это – совсем неплохо, а даже – очень хорошо.  Давайте разбираться с третьим.

Современный машинный инструментарий без всякого умения «мыслить» может совершить в человеческом обществе радикальный социокультурный переворот – революцию массового отношения к любому вопросу. Как в той пословице «дурак, что может придумать такое, что сотне умных не разобрать». И наоборот - один умный – придумать то, что что поверят массы дураков. И будут верить, невзирая ни на какие факты и аргументы здравого смысла.

На неделе написали, что некая женщина в США выиграла в лотерее благодаря самому первому, самому мощному и самому популярному в мире ГИИ-боту ChatGPT. Якобы эта машина помогла гражданке угадать 4 из 5 чисел в американской лотерее Powerball. И дама сорвала куш в размере $150 тыс. Якобы нейросеть смогла выстроить логическую последовательность – «козырную» формулу, математический алгоритм «счастья» – угадывания абсолютно случайных чисел. Враньё и реклама производителя ChatGPT – евроамериканcкой фирмы OpenAI, конечно. Но, как ни парадоксально, подобные вещи случаются.

Помните «аляскинский» рассказ Джека Лондона «Малыш видит сны»? В нем золотоискатель Смок «обул» казино, вычислив наиболее вероятные моменты остановки колеса рулетки. В такое не верил даже его напарник Малыш. Но несколько вечеров «система» надежно приносила им доход и море выпивки в местном салуне. Более того: за раскрытие секрета его владелец отвалил приятелям большую сумму. Оказалось, что закономерность в «чистой случайности» таки была: конструкция игровой машины, долго стоявшей у жаркого камина, рассохлась и клинила.

Так вот. По быстроте обработки любой информации компьютер давно превзошел возможности человеческого мозга. И ускорению этого быстродействия не видно конца. Будущий коммерческий квантовый вычислитель будет перебирать нули и единицы в своей «памяти» в миллионы раз быстрее нынешних серверов, построенных на самых современных полупроводниковых чипах.

Дело в том, что способ работы компьютера имманентно – по своей природе, «от рождения» отличен от изначально и полностью «социального», построенного на живых коммуникациях мозга Homo Sapiens. Мышление человека рождается исключительно в человеческой среде и заключается изначально не в понимании текста, а в улавливании именно контекста.

Тут всех обогнала китайская ГИИ-фирма DeepSeek. Она научила свою большую языковую модель как бы рассуждать. Но этот маркетинговый ход, конечно, никак не приблизил цель – добавить машинной программе хоть немного настоящих мозгов.

«Желтый» стартап DeepSeek даже сверг ChatGPT с вершины рейтинга ГИИ-приложений, ошеломив публику бесплатной версией «свеженькой» идеи – чат-бота, который, прежде чем ответить на вопрос пользователя, как бы «задумывается». Китайский робот отвечает на каждый запрос текстом «Дай-ка я подумаю...». За ним следует череда обновлений, которые выглядят так, будто машина, вычисляя итоговый ответ, рассуждает сама с собой. Монолог стартует с просторечных междометий вроде «Постой..», «Хм…», а под конец – «Ага!», «Эврика!» или «Bingo!».

Вслед за DeepSeek теперь массово продают чат-боты, которые прежде, чем ответить, как бы болтают сами с собой. Американские конкуренты во что бы то ни стало хотят превзойти вирусный эффект DeepSeek. Это, конечно, всего лишь имитация раздумий. И у профи есть подозрение, что такое «поведение», скрывая имманентные «галлюцинации» машин, накладывает новые ограничения на искусственный «мозг», делая его еще более слабым.

Но нам-то важен совершенно иной эффект. Он прекрасно описан в другом евроамериканском анекдоте: Хороший аналитик на вопрос «Сколько будет 2х2?» отвечает: «4», отличный – переспрашивает: «А сколько вам надо?». И только гениальный аналитик уточняет: «Покупаем или продаем?»

Британская лаборатория Google DeepMind работает над ГИИ, способным решать глобальные проблемы – от прогноза катаклизмов и неурожаев до разработок лекарств. Но ее исследователей волнует также вроде бы пустой вопрос: «А может ли компьютер классно пошутить?»

Ведущие компании, занимающиеся ГИИ, всерьёз хотели сделать своих чат-ботов юморней и прикольней. Anthropic, xAI и пр. стартапы видят «юмор» важнейшим качеством своих псевдоинтеллектуальных продуктов.

Ученые DeepMind в свободное время устраивают комедийные импровизации («капустники», как ученые в СССР). И они догадались опросить 20 крупнейших издателей комиксов об опыте использования топовых чат-ботов в генерации шуток. Результат оказался ужасным. Профи в один голос заявили, что ГИИ – скучен, не оригинален и уныло политкорректен как «круизное шоу 1950-х, только не расистское». Сколько ИИ не пыжился, он смог создать лишь «блевотную» скетч-заготовку, уверили коллеги из Голливуда. Да-да, именно vomiting (англ. «рвота»). И никто ни разу не воскликнул «вау», услышав сгенерированный роботом анекдот.

Странно, что DeepMind не поставила задачу поиска интеллекта у дождевых червей. Американские интеллектуалы из журнала The NewYorker давно прозвали ChatGPT «стохастическим попугаем, развлекающим публику бородатыми анекдотами».

Опрошенные англосакские профи комиксов назвали юмор/сатиру «глубоко человеческими талантами, требующими от авторов/исполнителей опоры на личную историю, тонкое чувствование социального контекста и аудитории». Умение хорошо считать, но полная неспособность мыслить, «рубить фишку» – фундаментальная проблема ГИИ. Увы, никакая вычмашина никогда не сможет рассмешить даже невзыскательную публику. Контекста и аудитории для нее просто не существует. Именно поэтому у компьютера нет шансов превратиться в так называемый «сильный» или «общий» человеческий интеллект.

Гениальный пиарщик и продуктолог Илон Маск, глубоко понимающий предмет, открыв свою ГИИ-компанию xAI, первым позиционировал ее чат-бота Grok как «забавную альтернативу» конкурентам. Тщетно. Умение считать быстрее всех никогда не делало «умным и талантливым» даже человека. Не то что машину.

Зато ГИИ прекрасно может компилировать суждения и факты, а значит – создавать мнения. Потому что никакой человеческий интеллект, главная способность которого – создать нечто актуальное и новое – тут не требуется в принципе. Нужна лишь четко поставленная задача. С ней справится так называемый промт-инженер средней квалификации.

Да, искусственный «интеллект» на раз выдает любые заданные «умопостроения». Они тупо воспроизводят взгляды, полученные в результате интернет-заимствований – т. н. машинного обучения нейросетей (machine learning, ML) – использование совсем свежих и очень давних людских суждений, выводов, философских максим и даже концептуальных парадигм.

Мнение – не продукт интеллектуальной деятельности, а один из ее инструментов. Все мы слышали фразы «я пока не составил мнение» или «у меня сложилось мнение». С помощью различных компиляций – комбинаций данных, фактов, «авторитетных мнений» человек с момента появления своего вида пытался принимать обоснованные, взвешенные решения для совершения «правильных» действий, выбора, понимания новых вещей и явлений.

Готовые «правильные мнения» хороши еще и тем, что по определению учитывают не только интересы индивида, но и окружающую письменную реальность – изложенные текстом интересы и взгляды других, общества в целом, его задачи, планы и чаяния.

Чат-боты, те же ChatGPT, Bard или Grok, вырабатывая такие мнения-инструменты по просьбе человека, влияют на мнения массы других людей – рядовых пользователей. И делать это настолько хорошо насколько внятен заказ: настройка, заточенность, предвзятость в смысле ангажированности определенной идеей.

Исследователь факультета информационных наук Корнельского университета США Морис Джейкш создал на базе языковой модели GPT-3 бота. Участники его эксперимента должны были с помощью ГИИ написать эссе на тему: «Полезны ли для общества социальные сети?»

Для одной группы Джейкш обучил ГИИ-помощника на данных о преимуществах соцсетей, для другой – на информации о их вреде и опасности. Контрольная группа работала без ГИИ – самостоятельно. В результате работавшие с первым «куратором», создали эссе, воспевающее преимущества соцсетей, те, кому помогал второй, – негодующее по поводу их вредности и опасности. Мнения участников контрольной группы разделилась, но были менее радикальны.

Алгоритмы ГИИ не имеют своих собственных убеждений. В этом они близки т. н. «честной журналистике факта». Эта последняя призвана быть как бы объективной. На деле она просто пропагандистский трюк, за которым – очевидный нонсенс. Любое СМИ (правильнее говорить на англосакский манер – МЕДИА) по определению обязано продвигать и с гарантией продвигает только повестку, заданную ее владельцем.

Ответы и суждения машин могут казаться убедительными и даже объективными. На самом деле только лишь отбор компилируемого материала неизбежно определяет вектор, тенденцию мнения. Чаще всего ГИИ тупо «подглядывает» готовый ответ, а «факты, мнения/комментарии, рассуждения» просто подгоняет под него. Важно, чтобы заказчик верил в точность и ошибочность «интеллектуальной» машинной выкладки.

Кстати, снова – о климате. Погода – идеальный пример. Совершенно очевидно, что она формируется в каждой точке глобальной атмосферы, испытывая влияние всех иных точек во Вселенной. От протуберанцев на Солнце до вспышек сверхновых звёзд в миллионах световых лет от Земли. То есть погода, тем паче – климат – категория не предсказываемая в принципе, так как имеет бесконечное (несчётное) количество неизвестных переменных.

Итак: можно ли предсказать погоду? Конечно, нет. Но можно ли дать ее убедительный прогноз? Конечно, да. Но главное: будет ли прогноз погоды интересен людям? Конечно! Любой. Ежедневно и круглосуточно.

Не зря промышленные лобби разного толка и направления часто продвигают свои алчные интересы, апеллируя именно к погоде, климату, космическим явлениям и путешествиям вроде полёта на Марс.

Куда вдруг подевались огромные озоновые дыры в атмосфере Земли? Никуда. Их просто не было. А если и были – они представляли собой космическое явление, никак с деятельностью человечества не связанное. Но придумали нарратив: их расширяет газ фреон. Его во множестве генерят производители бытовой химии и техники. Так борцы с новыми бесфреоновыми технологиями напугали весь мир. И обеспечили себе доминирование на рынке. Тут и озоновые дыры исчезли из медиаполя.

Только что американский Белый дом тихонько свернул спутниковую программу NASA по отслеживанию выбросов углерода в атмосферу Carbon Monitoring System (CMS). Бюджет мизерный – $10 млн в год. Но важный. Ведь над тем, чтобы ежемесячно подтверждать влияние только автомобильных выбросов на изменение климата ним работало более 400 человек.

И всё это – почему? Да потому что за нынешним президентом США Трампом – нефтедобытчики и прочие реальные промышленники, зарабатывающие на НЕ-«зелёных» технологиях.

Кусочек речи президента Дональда на 80-й сессии Генеральной Ассамблеи ООН по поводу климатической аферы и мифе об углеродном следе. Почти без купюр.

«В 1982-м ООН заявила, что к 2000-му изменение климата вызовет катастрофу, необратимую, как ядерная война. А в 1989-м один чиновник ООН заявил, что глобальное потепление может стереть с лица Земли целые страны в течение десятилетия. Что реально происходит? Ничего. А, знаете, ведь раньше говорили о глобальном похолодании! В 1920-х и 1930-х – что именно глобальное похолодание уничтожит мир. И люди должны что-​то делать!

...если вы не отойдете от аферы с зеленой энергией, ваша страна потерпит крах. Я президент США, но я беспокоюсь за Европу, я люблю Европу, я люблю людей в Европе, и мне больно видеть, как она разрушается из-за «чистой» энергии и иммиграции. Это двуглавое чудовище уничтожает все на своем пути»

Мог бы эту речь произнести ГИИ-робот? Безусловно. Причем – более четко, аргументированно, не так сбивчиво, как говорил престарелый Донни – гораздо более убедительно. Просто пока люди больше доверяют «кожаным куклам» сказал бы робот. Он прав. Но еще немного - и киберорганическим суверенам люди станут доверять больше, чем живым. Хотя бы только потому, что они более начитанны, всегда молоды и чётко запрограммированы на служение Людям и Обществу. Ведь у них нет личных интересов и пристрастий.

Человек разумный знает, что любым самым совершенным роботом всегда будет управлять группа заинтересованных лиц. Но и это убеждение можно изменить. Выпустив, специальный закон, например. Ему будет грош цена. Но это совершенно не важно. Людям нравится пустое слово «Закон», вот пусть они им и успокоятся.

Плохо или хорошо, если на помощь живым креаторам нарративов, страшилок и спасительных парадигм придут мнения-генерирующие машины? Вряд ли это сильно изменит текущую ситуацию. Просто работа ускорится.

А то ведь в родной российской власти со всей ее позитивной творческой энергией продолжают на полном серьезе продвигать англосакские ESG-стандарты вчерашнего дня. А ведь в этой аббревиатуре – не только всякая «чистая/зелёная» энергия, и поедание насекомых вместо мяса домашних животный. Там – запрещенные в РФ извращения вроде ЛГБТ* и смены пола в детстве.

Если правильно-смысловые русские робо-генераторы вступят в действие, начав массово создавать и проталкивать в интернете, прессе, кино и на телевидении примерно то же, что говорит Трамп, дело борьбы против т. н. «западных ценностей» быстро пойдёт на лад.

Мнение автора может не совпадать с мнением редакции.

*движение ЛГБТ признано экстремистским и запрещено в России.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий