С распространением технологий искусственного интеллекта у мошенников появился особенно опасный инструмент — дипфейки. Эти фальсифицированные аудио- и видеозаписи отличаются высокой реалистичностью, из-за чего даже внимательные и осведомлённые люди могут попасться на уловки злоумышленников. Об этом в беседе с RT сообщил заведующий лабораторией доверенного ИИ РТУ МИРЭА Юрий Силаев.
По его словам, особую обеспокоенность вызывают случаи, когда с помощью дипфейков злоумышленники создают фальшивые видеозаписи от имени высокопоставленных политиков или руководителей крупных организаций. В бизнес-среде всё чаще фиксируются случаи, когда преступники имитируют голос руководителя во время телефонного разговора, обращаясь в финансовые службы компаний с просьбами о немедленном переводе крупных сумм на подконтрольные счета.
Силаев отметил, что особенно опасны сценарии с фальшивыми новостными сюжетами. В таких роликах якобы эксперты или аналитики дают рекомендации срочно инвестировать в определённые активы — всё это часть схем по выманиванию денег.
Кроме того, как указал специалист, участились попытки обмана с использованием дипфейков, в которых изображены знакомые или родственники жертвы. В таких видео звучат убедительные просьбы о срочной финансовой помощи, рассчитанные на эмоциональную реакцию.
Для защиты от подобных афер эксперт посоветовал не поддаваться на эмоции, вызванные увиденным или услышанным, и всегда перепроверять информацию, используя альтернативные способы связи. В случае сомнительных просьб о деньгах он рекомендовал напрямую связаться с человеком другим способом — например, позвонить на известный номер или написать в другом мессенджере.
Силаев также предупредил, что доверять исключительно голосу или видеоряду в современных условиях небезопасно — технологии позволяют точно воспроизводить не только речь, но и мимику, жесты и интонации.
«Стоит ограничить количество личной информации в открытом доступе — чем больше фото и видео доступно в сети, тем проще злоумышленникам создать убедительный дипфейк.
Будьте бдительны и помните: современные технологии позволяют мошенникам подделывать не только тексты, но и образы реальных людей», — посоветовал он.Ранее в МВД сообщили, что после знакомства в Сети аферисты втягивают жертв в псевдоинвестиции.
Свежие комментарии