img
img03 февраля 2025 в 15:00

Регулирование ИИ: какую систему предлагает ЕС

Со второго февраля государства Европейского Союза запретили использование систем искусственного интеллекта, которые представляют «неприемлемый риск» для общества.

Со второго февраля государства Европейского Союза запретили использование систем искусственного интеллекта, которые представляют «неприемлемый риск» для общества.

Регулирующие органы ЕС выделили четыре категории риска в области ИИ. Минимальный риск, например, фильтры спама в электронной почте, не требует надзора. Чат-боты для обслуживания клиентов относятся к ограниченному риску и требуют минимального контроля. Высокий риск, например, ИИ, используемый для медицинских рекомендаций, подлежит серьезному надзору. Наивысшую опасность представляют системы с неприемлемым риском, которые теперь подлежат полному запрету, сообщает TechCruch.

Под неприемлемым риском понимаются такие виды деятельности, как использование ИИ для социальной оценки, подсознательного манипулирования решениями человека, предсказания преступлений по внешности и применения биометрических данных для определения различных характеристик. Это также включает сбор биометрической информации в общественных местах для правоохранительных органов и технологии, определяющие эмоции людей на рабочем месте или в учебных заведениях.

Компании, нарушающие новые требования, могут столкнуться со штрафами в размере до 35 миллионов евро или 7% от их годового дохода, в зависимости от того, какая сумма больше. Однако введение штрафов пройдет не сразу. 

Существуют и исключения из предоставленных запретов. Например, правоохранительным органам разрешается использовать определенные биометрические системы для проведения «целевых поисков», таких как расследование похищений, при условии получения соответствующих разрешений. Также закон допускает системы, определяющие эмоции в рабочей среде и школах, если это оправдано медицинскими или безопасными причинами, например, для терапевтического использования.

Ранее «Телеспутник» проанализировал ситуацию вместе с представителями российского бизнеса. Пять лет назад в России была принята Национальная стратегия развития искусственного интеллекта до 2030 года. А Альянсом в сфере искусственного интеллекта разработан Кодекс этики в сфере ИИ в 2021 году. По словам экспертов, все сферы жизни являются значимыми для общества и государства, поэтому тестирование механизмов регулирования ИИ в экспериментально-правовых режимах представляется оптимальным.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий