img23 ноября 2023 в 17:28

Академик РАН предупредил об уязвимости ИИ из-за «загрязненных» данных в процессе обучения

Директор Института системного программирования имени В.П. Иванникова РАН Арутюн Аветисян выразил беспокойство по поводу уязвимости искусственного интеллекта (ИИ) из-за ошибок или злонамеренности в данных, используемых для его обучения.

Директор Института системного программирования имени В.П. Иванникова РАН Арутюн Аветисян выразил беспокойство по поводу уязвимости искусственного интеллекта (ИИ) из-за ошибок или злонамеренности в данных, используемых для его обучения.

«Природа ИИ такова, что уязвимости в модель, которую мы эксплуатируем, попадают через данные. Данные могут быть «отравлены», есть такой термин. Они могут попасть через предобученные модели, фреймворки, и, наконец, сама модель может быть дообучена или изменена с целью, чтобы она была уязвима», - сказал Аветисян на международной конференции по искусственному интеллекту AI Journey.

Он подчеркнул необходимость разработки новых научно-технологических оснований для обеспечения безопасности и надежности ИИ. Аветисян отметил, что уязвимости могут возникнуть из-за «загрязненных» данных, и в результате ИИ может быть обманут или использован злоумышленниками. Он также отметил, что в России был принят Кодекс этики в сфере ИИ, направленный на обеспечение безопасности решений на основе ИИ.

Ранее «Телеспутник» писал о том, что Кодекс этики разработан и постоянно совершенствуется на платформе Альянса в области искусственного интеллекта совместно с представителями академической общины. Альянс в области искусственного интеллекта объединяет ведущие технологические компании с целью совместного развития и внедрения искусственного интеллекта в образовании, научных исследованиях, а также в практической деятельности бизнеса. Кодекс этики уже подписали такие крупные компании, как «Сбер»«Яндекс», VK, Росбанк и другие ведущие компании.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий