img
img27 февраля 2026 в 12:30

Пентагон шантажирует Anthropic, требуя отдать ИИ армии

Министерство обороны США установило компании Anthropic жёсткий срок — до 17:01 по вашингтонскому времени 27 февраля убрать основные ограничения на применение главной модели Claude в военных задачах. Иначе будут применены принудительные меры, включая активацию закона о производстве для обороны 1950 года и внесение компании в список рисков для цепочек поставок.

Министерство обороны США установило компании Anthropic жёсткий срок — до 17:01 по вашингтонскому времени 27 февраля убрать основные ограничения на применение главной модели Claude в военных задачах. Иначе будут применены принудительные меры, включая активацию закона о производстве для обороны 1950 года и внесение компании в список рисков для цепочек поставок.

Конфликт стал публичным после встречи 24 февраля министра обороны Пита Хегсета с генеральным директором Anthropic Дарио Амодеи. По сведениям источников Axios, Reuters и The Wall Street Journal (WSJ), Хегсет заявил прямо: «либо вы предоставляете нам полный доступ для любых законных военных применений, либо мы будем вынуждены действовать принудительно».

Anthropic, созданная в 2021 году бывшими сотрудниками OpenAI, с самого начала позиционировала себя как компанию, максимально ориентированную на безопасность и ответственность. В 2025 году она заключила с военными контракт на 200 миллионов долларов и стала первой (и пока единственной) компанией, чья модель работает на закрытых военных сетях (в сотрудничестве с Palantir). Однако Anthropic настаивает на строгих запретах: нельзя использовать Claude для полностью автономных систем оружия, массового наблюдения за гражданами США и других действий, нарушающих базовые права человека.

Поводом для обострения послужила январская операция по захвату бывшего президента Венесуэлы Николаса Мадуро. По данным WSJ и Axios, Claude применялась для анализа разведывательной информации и планирования ударов. Anthropic не отрицает факт использования, но утверждает, что модель работала в заранее согласованных рамках (защита от кибератак, противоракетная оборона). Военные же требуют снять все ограничения и перейти к принципу «любое законное применение».

Мнения экспертов разделились. Аналитики Lawfare и Bloomberg отмечают: принудительное изъятие или перестройка модели отбросит развитие военных применений искусственного интеллекта в США на 6–12 месяцев. С другой стороны, генеральный директор NVIDIA Дженсен Хуанг в комментарии CNBC 25 февраля назвал спор «не концом света», подчеркнув, что обе стороны по-своему правы, но национальная безопасность должна быть на первом месте.

Если Anthropic не уступит, возможны варианты:

  • расторжение контракта и поиск другой компании (xAI, OpenAI или варианты на базе Llama от Meta*);
  • принудительная передача технологии по закону о производстве для обороны;
  • официальное объявление компании источником риска для поставок, что сильно ударит по её коммерческим контрактам.

Это противостояние станет проверкой для всей отрасли: насколько далеко смогут зайти компании, ориентированные на этику и безопасность, под давлением геополитических интересов. Результат определит правила использования самых мощных моделей искусственного интеллекта в оборонной сфере на годы вперёд.

Напомним, ранее использование технологий искусственного интеллекта привело к конфликту на рынке медиа. Американская медиакорпорация Disney направила китайскому технологическому гиганту ByteDance (владельцу TikTok) официальное уведомление о нарушении авторских прав. Компанию обвиняют в незаконном использовании образов персонажей из «Звёздных войн», Marvel и других франшиз для обучения и разработки своей новой модели генерации видео Seedance 2.0.

* Организация запрещена в РФ и признана экстремистской.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий