В предстоящем году стоит ожидать дальнейшего роста качества фишинга, социальной инженерии и автоматизированных атак благодаря активному использованию ИИ злоумышленниками, считает эксперт. Он пояснил, что если раньше подготовка массовых атак требовала много времени и страдала по качеству, то теперь ИИ берет на себя создание и тиражирование киберугрозы. В отдельных случаях искусственный интеллект даже способен разговаривать с жертвой.
«Например, раньше подготовка массовых фишинговых атак занимала больше времени злоумышленников и качество подготовки страдало, теперь существенную часть создает и тиражирует ИИ, а в случае успеха берет на себя и диалоги с жертвой», — поясняет Александр Михайлов.
Вместе с тем, ИИ может стать и настоящим напарником для SOC-аналитиков. По мнению эксперта, ранее аналитики воспринимали ИИ как конкурента, однако сейчас с радостью работают с ним в команде. «Большие языковые модели здорово помогают упростить аналитическую работу, написание плэйбуков и визуализацию отчетных материалов», считает он.
Говоря про угрозы, связанные с автономными ИИ-агентами, которые могут быть использованы злоумышленниками в качестве «боевых единиц».
«Большие языковые модели несут в себе ряд угроз - начиная с того, что злоумышленники применяют их мощь в разрушительных целях, и заканчивая тем, что ИИ - это еще одна поверхность для атаки со своими уязвимостями и недостатками. Но я хотел бы остановиться на автономных ИИ-агентах, которых уже начали применять в качестве боевой единицы, действующей исходя из обстановки и имеющегося инструментария на компьютере жертвы», — считает Александр Михайлов.
Напомним, ранее эксперты в сфере информационной безопасности спрогнозировали рост числа атак на операционные системы на базе Linux в России. Специалисты по кибербезопасности также прогнозируют кибератаки на DevOps-среды, в том числе, с компрометацией привилегированных учетных данных, атаки на SaaS.

