img
img04 августа 2025 в 17:06

Названы критические для бизнеса последствия использования искусственного интеллекта

Эксперты проанализировали три ключевых направления развития искусственного интеллекта (ИИ): агентский, ИИ на периферийных устройствах и квантовый ИИ. Каждое из этих направлений не только создает для бизнеса возможности, но и приводит к возникновению новых киберугроз. Речь идет об утечке данных, фальсификации биометрии, остановке производств, говорится в пресс-релизе Positive Technologies

Эксперты проанализировали три ключевых направления развития искусственного интеллекта (ИИ): агентский, ИИ на периферийных устройствах и квантовый ИИ. Каждое из этих направлений не только создает для бизнеса возможности, но и приводит к возникновению новых киберугроз. Речь идет об утечке данных, фальсификации биометрии, остановке производств, говорится в пресс-релизе Positive Technologies

Так, агентский ИИ и мультиагентные системы, построенные на больших языковых моделях (LLM), способны автономно анализировать данные, принимать решения и взаимодействовать с внешними источниками. По прогнозам аналитического агенства Gartner, к 2028 году с их помощью бизнес сможет автоматизировать до 15% рабочей рутины - от управления логистикой до персонализированного обслуживания клиентов.

Согласно исследованию, для получения доступа к конфиденциальной информации или критически важным системам злоумышленники могут подменить данные в памяти и использовать инструменты агента в своих целях. Ложные входные данные приводят ИИ к цепочке ошибочных действий, а перегруз массой запросов вызывает сбои в работе.

Стремительный рост числа устройств интернета вещей стимулировал развитие технологий периферийных вычислений (обработки данных в непосредственной близости от источника их генерации). Сочетание периферийных вычислений с ИИ открывает новые возможности в различных отраслях, например, в медицине или в развитии умных городов.

Между тем, хакеры могут воспользоваться уязвимостями самих умных устройств, например, небезопасными параметрами или устаревшими компонентами. Передача данных по сети предполагает риск классических сетевых атак вроде DDoS, спуфинга. Злоумышленники могут атаковать и сами модели ИИ, к примеру, подменив входные данные. В результате атакующие могут получить доступ к чувствительной информации организации.

Как отмечают эксперты, в ближайшем будущем большинство взаимодействий с квантовым ИИ будет происходить через облачных провайдеров. Используя уязвимости облачных платформ, злоумышленники могут похитить архитектуру модели, обучающие данные. Это может, скажем, привести к тому, что в фармацевтике токсичное вещество будет определяться как безопасное, в финансах могут не распознаваться мошеннические транзакции. Могут возникнуть и критические ошибки - от навигационных сбоев беспилотников до фальсификации биометрии.

По данным Positive Technologies, пока злоумышленникам проще получать доступ к корпоративным системам проверенными методами, чем создавать ИИ-агенты для взлома, проводить атаки на ИИ-модели. Однако в скором времени картина может измениться, и тогда бизнесу придется учитывать риски внедрения ИИ.

Ранее сообщалось, что Китай, где к настоящему времени имеются 1,5 тыс. моделей искусственного интеллекта, продемонстрировал новый большой скачок в развитии ИИ.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий