Разработку для выявления дипфейков представили специалисты по кибербезопасности Донского технического вуза. Как они отметили, программа может разоблачить дипфейк, созданный с применением алгоритма Generative Adversarial Network.
Дипфейк — это видео, обработанное искусственным интеллектом. Проще говоря, нейросети подменяют лица людей или объекты на роликах. Чем дольше существует эта технология, тем реалистичнее она работает. Чаще всего дипфейки используются для политических манипуляций, мести и кибербуллинга.
Чтобы проверить подлинность видеокадров, их необходимо скачать, а затем запустить диагностику через командную строку. По словам разработчиков, сервис работает «с приемлемой точностью».
Как подчеркнул эксперт в области машинного обучения и Senior Data Scientist Виталий Куделя, алгоритмы нейросетей, создающих фейковые видео, улучшаются, поэтому со временем их все труднее отличить от реальных кадров. Поэтому работа программы для разоблачения дипфейков может быть затруднена.
Кроме того, создатели дипфейков могут скрыть информацию о проделанных манипуляциях с видео, подметила в разговоре с «Известиями» замглавы центра практической информационной безопасности Innostage Ксения Рысаева.
Ранее «Телеспутник» сообщал о том, что в Сети растет популярность услуг по созданию дипфейк-видео, а стоимость одной минуты такого ролика составляет до 20 тысяч долларов.