img10 ноября 2023 в 11:29

Бездумный интеллект накрывает российскую среднюю школу

Самое безобразное в разборках российского общества с профильными ведомствами по поводу «внедрения систем ИИ для проверки школьных домашних заданий» то, что технологию вновь прикручивают к ключевому жизненному и социальному процессу государственной значимости. Ради формального выполнения директив «сверху» и KPI по «цифровой зрелости» образования.

Самое безобразное в разборках российского общества с профильными ведомствами по поводу «внедрения систем ИИ для проверки школьных домашних заданий» то, что технологию вновь прикручивают к ключевому жизненному и социальному процессу государственной значимости. Ради формального выполнения директив «сверху» и KPI по «цифровой зрелости» образования.

Точно также с началом СВО решения информбезопасности начали «прикручивать сбоку» всех госинформсистем (ГИС). Только ИИ-эксперименты на российской школе гораздо серьезнее, а в перспективе – много опаснее. Невозможно даже представить, какие чудеса рободискриминации и дисквалификации торит быстрое внедрение ИИ в работу с людьми. Не все еще забыли, что обучение, помощь и контроль в выполнении заданий – ее главные части, в буквальном смысле – соль.

Дикий скандал разгорелся в августе из-за вполне невинной строчки документа Минцифры о «внедрении ИИ-технологий в кадровую работу». Тогда журналист, не разобравшись, создал, а масса ресурсов переопубликовала, фейк о том, что ведомство создает кадровую платформу с ИИ. Якобы она «позволит автоматизировать все HR-процессы»: отбор, профразвитие, мотивацию, оценку – вплоть до создания корпоративной культуры и борьбы с коррупцией.

На самом деле ничего такого в проекте Постановления Правительства не содержалось. Оно лишь оформляло начало разработки платформы «Государственные кадры» на ЕЦП «ГосТех» для реализации единого кадрового цикла госслужбы с использованием цифровых сервисов. Не более. Годовой эксперимент начали 1 сентября 2023-го, на первом этапе подключив Минцифры, Минтруд, Минфин, Минэк и их подведы.

Тут обязательно нужно вспомнить блестящий менеджерский анекдот.

В кабинет HR-директора вбегает в слезах молоденькая кадровичка с кипой бумаг:

– На вакансию начальника отдела за полчаса свалилось более 500 резюме!

Тот спокойно берет сверху пару листков. А остальные отправляет в корзину под столом со словами:

– Лузеры нам не нужны!

Испытать силу ИИ сперва на самой Минцифры благородно! Скорее всего, бот много быстрее кадровички (но не HR-директора, конечно) сможет отсеять резюме. Но любому, кто руководил и/или преподавал, ясно: машина легко найдет, обучит и добьётся толка от любого человека. Если их для начала его заменить роботом.

Именно к формальной и сугубо предварительной оценке документов, без сомнения, ИИ подключат в первую очередь. Но и тут над ним нужен жесточайший контроль. Известен случай, когда британский вуз, доверившись компьютеру, отобрал и зачислил экстремально много совершенно бестолковых абитуриентов.

Скандалы с низким качеством студенческих работ и аналитических отчетов шли в уходящем году один за другим. Хотя, не понятно, чего тут было больше – искренней обеспокоенности профессионалов или беззастенчивого промо ChatGPT. Однако, факт: в ряде корпораций, банков, университетов и НИИ по всему миру использовать ИИ в работе тупо запретили. По крайней мере, без жесткого контроля над процессом его применения. Формально ИИ запрещен пока даже в Пентагоне: никто не хочет отвечать за безумного робота кровью.

Общий (квазичеловеческий, лингвистический, генеративный) ИИ опирается на большие языковые модели (LLM). Для производства внятного контента чат-ботам скармливают массивы данных. Но ИИ-услуги отраслям, в т. ч. образованию, медицине, даже чиновникам и военным предлагают без потрохов в «черном ящике». Потому ИИ-босс Пентагона Крейг Мартелла и назвал LLM «случайно найденной инопланетной технологией».

Американские вояки нашли до 200 потенциально полезных применений ИИ. В армии, медицине, науке масса грамотных талантливых молодых людей. И все они знают, что ИИ нередко лажает. Но когда на кону жизни людей, робогаллюцинации неприемлемы.

И вот в конце октября Правительство РФ утвердило новое стратегическое направление по цифровой трансформации образования. На портале образовательных стандартов сказано, что до 2030-го нужно, в т. ч., дать возможность автоматического поступления в школы и привлечь «экспертные системы ИИ к автоматизации проверки домашних заданий и планированию учебных программ».

Первым удар по «домашкам» принял замглавы Минцифры Олег Качанов. Он сообщил, что ведомство разрабатывает показатели РГИС общего образования (типа яростно критикуемой родителями «Московской электронной школы»). И один из ключевых моментов – автопроверка школьных работ. Он «самый простой и понятный, разгружает учителей, но почему-то его нигде не ставят во главу угла». По словам Качанова, автоматизация проверки домашек должна войти в требования и типовые решения РГИС. В Минцифры, как обычно, лукавят: «окончательное решение будет приниматься только с экспертами, педагогами и родителями». Кем, как и когда – неизвестно.

Первый зампред комитета Госдумы по просвещению Яна Лантратова попросила министра просвещения Сергея Кравцова отказаться от дикой идеи. Но в Минпросвете пока отмалчиваются. Тем временем профи сравнивают робопроверку заданий (возможно, написанных школьником с тем же ИИ) с горбачевской «госприемкой». Неожиданно тот эксперимент установил: обеспечить качество продукта после его изготовления невозможно. Но было уже поздно.

И теперь, увы, планку ИИ-требований (тех самых KPI для чиновников) к региональным образовательным ГИС будут «поднимать» в горизонте 2025-2030 гг. Скорее всего, это означает, что ученические работы, сгенерированные роботами дома, станут проверять роботы-учителя в школе. Но где тут учение (в котором свет), живые ученики и учителя – непонятно.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий