img
img22 января 2026 в 17:18

Эксперты оценили реальные риски флешмобов со старыми фото

Популярный в начале нового года флешмоб с публикацией старых фотографий, хотя и вызвал опасения о возможной «разметке баз для обучения нейросетей», на практике несёт крайне невысокие риски для пользователей. Соответствующее мнение высказали эксперты в сфере ИИ и кибербеза.

Популярный в начале нового года флешмоб с публикацией старых фотографий, хотя и вызвал опасения о возможной «разметке баз для обучения нейросетей», на практике несёт крайне невысокие риски для пользователей. Соответствующее мнение высказали эксперты в сфере ИИ и кибербеза.

Ранее в соцсетях эксперты предупредили пользователей, что участие в подобных ностальгических акциях может стать «методичной разметкой баз для обучения нейросетей» работе с возрастом на фотографиях. Однако представители технологических компаний считают, что опасность преувеличена. Об этом пишет Hi-Tech Mail.

Так генеральный директор NtechLab Алексей Паламарчук отметил, что мошенники и так имеют доступ к огромному массиву открытых данных из социальных сетей и публичных профилей. Что касается потенциального использования таких снимков для создания дипфейков, Паламарчук пояснил, что старые фото могут использоваться для приближения сгенерированного изображения к возрасту, в котором сделано фото в системе авторизации, но для этого мошенники должны знать, когда это фото сделано. Современные системы распознавания ставят важность признака возраста сильно ниже, чем другие, более статичные признаки, но в любом случае — чем меньше знают мошенники, тем лучше.

Руководитель направления исследования данных в «Лаборатории Касперского» Дмитрий Аникин согласился, что теоретические риски существуют, но на практике они «чрезвычайно невысокие», а потому подобные флешмобы не открывают концептуально нового вектора атак.

В компании MWS AI (входит в Erion) добавили, что с технической точки зрения снимки с разницей в 10 лет не улучшат качество дипфейков, хотя и могут служить данными для обучения моделей.

«Мы бы не стали “демонизировать” интернет. Если придерживаться логики, что все может быть использовано против пользователя, то можно вообще ничего не выкладывать. Мы в данном случае призываем придерживаться базовых правил цифровой гигиены, не делиться с ИИ персональными данными и любой информацией, которая может компрометировать сведения», — пояснили в пресс-службе компании.

Эксперты отдельно отметили существующие технологии защиты. Алексей Паламарчук рассказал о подсистеме liveness, предназначенной для выявления сгенерированных изображений. В MWS AI прогнозируют, что рост числа дипфейков будет продолжаться из-за удешевления технологий, и ожидают появления встроенных детекторов в мессенджерах и смартфонах в ближайшие годы.

Как ранее сообщал «Телеспутник», Минцифры РФ создаст межведомственную рабочую группу, которая займется противодействием противоправному использованию технологий типа «дипфейк».

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий