На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Аргументы и Факты

49 365 подписчиков

Свежие комментарии

  • Svetlana Kuzmina
    Какой же дурак Клинтон! Он думает, что полное обнародование файлов спасёт его подмоченную репутацию? Это ещё больше е...Билл Клинтон потр...
  • Сергей Иванов
    Конфеты они долго горят, потушить их трудноПод Киевом второй...
  • лина любимцева
    Наркоман? Или психбольной?   Чокнутый какой-то...Напавшим на студе...

МВД рассказало о способах защиты от розыгрышей с применением ИИ

Проверка источника видео, поиск по фото в Сети, а также специальные сервисы помогут не стать жертвой розыгрыша, преступления или информационной операции, сделанных с помощью искусственного интеллекта. Об этом проинформировали в управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России.

«С помощью ИИ-инструментов подростки генерируют реалистичные изображения неопрятного мужчины, будто находящегося у них дома. После этого сообщают родителям, что впустили "бездомного", чтобы тот попил воды или отдохнул. Реакция родителей — испуг, тревога, крики — фиксируется на видео и выкладывается в социальной сети», — рассказали в ведомстве.

В подобных розыгрышах нет злого умысла, но есть ключевой симптом времени – в наше время создание дипфэйков требует минимальных ресурсов.

Чтобы не оказаться жертвой такого розыгрыша, преступления или информационной операции нужно проверять источник. Нужно проверить официальные аккаунты, сайты или Telegram-каналы. Также важно обратить внимание на различные артефакты, такие как неровные контуры лица, «дрожание» теней, необычные движения губ и глаз. Кроме того, бывает так, что иногда звук немного запаздывает. Подобные явления выдают искусственную природу видео.

«Если человек в ролике говорит непривычно для себя — проверить, соответствует ли это реальной ситуации и публичной позиции. Если фото с бездомным приходит от ребенка – крепиться. Обратный поиск. Кадр или фрагмент можно проверить через Яндекс или Google Images — это поможет понять, не взят ли он из другого видео», — советуют в МВД.

Также можно применить специализированные сервисы, анализирующие ролики и показывающие вероятность использования ИИ.

Кроме того, отечественные лаборатории кибербезопасности уже проводят тесты нейросетей-детекторов дипфейков, включая face-swap в видеозвонках. При этом ни одна технология не даёт стопроцентной гарантии, окончательное суждение — за человеком, добавили в МВД.

Ранее в МВД рассказали о схеме аферистов с «доставкой» от маркетплейсов.

 

Ссылка на первоисточник
наверх