Количество поддельных аудио- и видеозаписей, создаваемых мошенниками с помощью нейросетей, будет увеличиваться. Такое мнение в разговоре с «Лентой.ру» высказала эксперт Александра Шмигирилова.
По ее словам, злоумышленники все чаще используют ИИ для создания качественных подделок голоса, мимики и телодвижений.
Одна из популярных схем предполагает взлом популярного канала в мессенджере и размещение дипфейк-видео, где от лица автора мошенники призывают перейти по вредоносным ссылкам.
Эксперт отметила, что уже сейчас некоторые люди не могут отличить подделку, а в будущем такие технологии станут ключевыми в схемах преступников. Искусственный интеллект также используется для автоматизации атак и ведения переписок с жертвами, помогая выбрать правильный тон общения.
Шмигирилова предупредила, что количество фейковых видео, аудиосообщений и звонков продолжит расти, и призвала россиян быть готовыми к этому. Эффективность мошенников, по ее словам, часто зависит от скорости освоения новых инструментов, таких как неизвестные мессенджеры, где пользователи еще не ожидают обмана.
Мошенники также начали использовать новую схему с телефонными звонками о якобы доставленной посылке с маркетплейса, сообщает NEWS.ru. Отмечается, что злоумышленник под этим предлогом просит жертву назвать код из СМС, чтобы получить доступ к ее аккаунту и банковским данным.
Ранее в МВД посоветовали россиянам не указывать в соцсетях полные данные о себе.
Свежие комментарии