Если вас еще не успели «развести» с изображением бездомного, то сейчас мы вам расскажем о популярном «пранке», который гуляет по Сети.
Так, подростки при помощи ИИ создают реалистичные изображения неопрятного мужчины, который будто бы находится у них дома. После этого картинку рассылают родственникам, сообщая, что они якобы впустили «бездомного» к себе.
В «Вестнике Киберполиции» сообщили, что в этих розыгрышах нет злого умысла. Однако они отражают важный симптом времени.
Ведь создание дипфейков стало проще благодаря современным нейросетям. Они автоматически подстраивают выражение лица и голос под нужный текст, требуя минимальных ресурсов. Итог — реалистичное видео. Это и создает риски: под маской шутки могут скрываться фейковые новости, фальшивые заявления от знаменитостей или обманные призывы к инвестициям.
Как не попасться на уловку? Следует научиться распознавать «подставу». Обращать внимание нужно на следующие пункты:
- Источник. Если видео не имеет четких «корней», лучше остановиться и проверить его подлинность.
- Детали (контуры лица, «дрожащие» тени, странные движения губ и глаз, звук отстает от картинки).
- Контекст. Если человек в видео говорит не так, как обычно, стоит проверить, соответствует ли это действительности.
Кадр или фрагмент можно проверить через Яндекс или Google Images (вдруг такая запись уже где-то есть). Кроме того, есть сервисы, которые анализируют видео и определяют вероятность его синтетического монтажа.
По теме: