По мнению аналитиков компании MTS AI, в 2026 году злоумышленники смогут в режиме реального времени имитировать «разговор» жертвы с родственником или другом, который якобы попал в беду и котором срочно необходима финансовая помощь. При этом современные дипфейки становится всё сложнее и сложнее вычислить даже опытному пользователю, сообщают «Известия» со ссылкой на исследование специалистов.
Отмечается, что сегодня наиболее популярной формой для обмана являются голосовые и видеосообщения — «кружки». Всё дело в том, что их легко подделать при помощи технологий дипфейк, а у жертвы отсутствует возможность проверить источник сообщения. Кроме того, нельзя точно определить, создан ли подобный медиафайл внутри мессенджера или загружен вручную, считают аналитики.
Немало важно и то, что сегодня подобная технология становится всё более доступной для злоумышленников. Раньше создание убедительных подделок требовало больших вычислительных ресурсов и серьёзных навыков, то теперь с генерацией поддельного сообщения сможет справиться буквально любой.
Напомним, ранее депутат Госдумы Сергей Боярский призвал активнее разрабатывать и внедрять инструменты защиты голоса и изображения человека, чтобы защитить граждан от дипфейков. Сегодня никакой ответственности за подобные преступления не предусмотрено.