Так, агентский ИИ и мультиагентные системы, построенные на больших языковых моделях (LLM), способны автономно анализировать данные, принимать решения и взаимодействовать с внешними источниками. По прогнозам аналитического агенства Gartner, к 2028 году с их помощью бизнес сможет автоматизировать до 15% рабочей рутины - от управления логистикой до персонализированного обслуживания клиентов.
Согласно исследованию, для получения доступа к конфиденциальной информации или критически важным системам злоумышленники могут подменить данные в памяти и использовать инструменты агента в своих целях. Ложные входные данные приводят ИИ к цепочке ошибочных действий, а перегруз массой запросов вызывает сбои в работе.
Стремительный рост числа устройств интернета вещей стимулировал развитие технологий периферийных вычислений (обработки данных в непосредственной близости от источника их генерации). Сочетание периферийных вычислений с ИИ открывает новые возможности в различных отраслях, например, в медицине или в развитии умных городов.
Между тем, хакеры могут воспользоваться уязвимостями самих умных устройств, например, небезопасными параметрами или устаревшими компонентами. Передача данных по сети предполагает риск классических сетевых атак вроде DDoS, спуфинга. Злоумышленники могут атаковать и сами модели ИИ, к примеру, подменив входные данные. В результате атакующие могут получить доступ к чувствительной информации организации.
Как отмечают эксперты, в ближайшем будущем большинство взаимодействий с квантовым ИИ будет происходить через облачных провайдеров. Используя уязвимости облачных платформ, злоумышленники могут похитить архитектуру модели, обучающие данные. Это может, скажем, привести к тому, что в фармацевтике токсичное вещество будет определяться как безопасное, в финансах могут не распознаваться мошеннические транзакции. Могут возникнуть и критические ошибки - от навигационных сбоев беспилотников до фальсификации биометрии.
По данным Positive Technologies, пока злоумышленникам проще получать доступ к корпоративным системам проверенными методами, чем создавать ИИ-агенты для взлома, проводить атаки на ИИ-модели. Однако в скором времени картина может измениться, и тогда бизнесу придется учитывать риски внедрения ИИ.
Ранее сообщалось, что Китай, где к настоящему времени имеются 1,5 тыс. моделей искусственного интеллекта, продемонстрировал новый большой скачок в развитии ИИ.