На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Аргументы и Факты

49 332 подписчика

Свежие комментарии

  • Ильдус Зубаиров
    Прекрати рыжая тварь помогать хохлам деньгами и оружием, мы через месяц выйдем к польской границе.Трамп выразил уве...
  • Сергей Бунцов
    Они были временно захваченные Украиной. Возвращение подтверждено референдумами. Мы тоже пользуемся их терминологией.В Италии заявили,...
  • Eduard
    Докажите что они наркокортелей,а не просто суда!Хегсет заявил, чт...

МВД рассказало о способах защиты от розыгрышей с применением ИИ

Проверка источника видео, поиск по фото в Сети, а также специальные сервисы помогут не стать жертвой розыгрыша, преступления или информационной операции, сделанных с помощью искусственного интеллекта. Об этом проинформировали в управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России.

«С помощью ИИ-инструментов подростки генерируют реалистичные изображения неопрятного мужчины, будто находящегося у них дома. После этого сообщают родителям, что впустили "бездомного", чтобы тот попил воды или отдохнул. Реакция родителей — испуг, тревога, крики — фиксируется на видео и выкладывается в социальной сети», — рассказали в ведомстве.

В подобных розыгрышах нет злого умысла, но есть ключевой симптом времени – в наше время создание дипфэйков требует минимальных ресурсов.

Чтобы не оказаться жертвой такого розыгрыша, преступления или информационной операции нужно проверять источник. Нужно проверить официальные аккаунты, сайты или Telegram-каналы. Также важно обратить внимание на различные артефакты, такие как неровные контуры лица, «дрожание» теней, необычные движения губ и глаз. Кроме того, бывает так, что иногда звук немного запаздывает. Подобные явления выдают искусственную природу видео.

«Если человек в ролике говорит непривычно для себя — проверить, соответствует ли это реальной ситуации и публичной позиции. Если фото с бездомным приходит от ребенка – крепиться. Обратный поиск. Кадр или фрагмент можно проверить через Яндекс или Google Images — это поможет понять, не взят ли он из другого видео», — советуют в МВД.

Также можно применить специализированные сервисы, анализирующие ролики и показывающие вероятность использования ИИ.

Кроме того, отечественные лаборатории кибербезопасности уже проводят тесты нейросетей-детекторов дипфейков, включая face-swap в видеозвонках. При этом ни одна технология не даёт стопроцентной гарантии, окончательное суждение — за человеком, добавили в МВД.

Ранее в МВД рассказали о схеме аферистов с «доставкой» от маркетплейсов.

 

Ссылка на первоисточник
наверх