img
img04 сентября 2025 в 18:07

Эксперты назвали топ проблем от применения ИИ для учёбы

Нейросети, используемые для учёбы, содержат опасные уязвимости. Эксперты по кибербезопасности составили рейтинг проблем, которые может вызвать некритическое применение искусственного интеллекта (ИИ).

Нейросети, используемые для учёбы, содержат опасные уязвимости. Эксперты по кибербезопасности составили рейтинг проблем, которые может вызвать некритическое применение искусственного интеллекта (ИИ).

Эксперты LLMSecurity исследовали ассистентов на базе ИИ. В результате было выявлено, что существует риск похищения персональных данных или подтасовки фишинговых ссылок. Хакеры могут использовать ИИ для распространения вирусов. По словам специалистов, особенно много вопросов вызывают локальные ИИ-помощники. Об этом пишет Hi-Tech Mail.

«Если посмотреть в интернете предложения по созданию чат-бота или чат-ассистента, их очень много. Пользователь не будет задумываться, проверял ли кто-нибудь чат-бота на безопасность, что лежало в основе обучения нейронки, куда передаются и как хранятся персональные данные. Как при использовании любого другого приложения, он просто начнет с ним взаимодействовать. Не стоит забывать, что вся информация, которую вы «скармливаете» искусственному интеллекту, попадает в глобальную систему обучения. Категорически не рекомендуется указывать боту паспортные данные, реквизиты банковских карт, номера телефонов родных и друзей и другую чувствительную информацию», — рассказала Мария Усачева, руководитель проектов AI Security, AppSec Solutions.

Отдельно специалисты отметили опасность «галлюцинаций» для учёбы. ИИ может придумывать решения математических задач, которых не существует или подтасовывать факты в исторических событиях.

«Важно понимать, что языковая модель объективна не более, чем конкретный учитель или преподаватель, поскольку она обучается на той информации, которую в нее «закладывает» человек. Вероятность галлюцинаций зависит от конкретной языковой модели, однако, по нашим расчетам, различные модели выдают от 10% до 30% неверных ответов. Поэтому главное правило для тех, кто использует их в обучении — сохранять критическое мышление. То, что выдал ассистент, стоит перепроверить в первоисточнике», — рассказала Мария Усачева.

Ранее «Телеспутник» писал, что большинство российских компаний верят, что ИИ уже в ближайшие пять лет станет неотъемлемой частью их ИТ-инфраструктуры и поможет снизить издержки. Но вопреки оптимистичным прогнозам, 41 % организаций все ещё не используют ИИ вовсе.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий