Заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА Юрий Силаев в беседе с RT рассказал, что современные технологии позволяют мошенникам подделывать голоса близких людей, превращая это в серьёзную угрозу.
Он отметил, что голосовое клонирование с помощью искусственного интеллекта уже давно перестало быть футуристической идеей и стало реальным инструментом в арсенале злоумышленников.
Специалист напомнил, что ещё год назад для создания правдоподобной копии требовались большие вычислительные ресурсы и десятки минут чистой аудиозаписи. По его словам, сегодня достаточно нескольких секунд речи, а доступные онлайн-сервисы позволяют быстро сформировать убедительную модель голоса.Силаев пояснил, что последующие действия мошенников строятся на психологическом давлении и рассчитаны на эмоции жертвы, в частности на инстинкт защитить родных в опасной ситуации.
По его словам, источников для сбора голосовых образцов у преступников немало. Чаще всего ими становятся видео в социальных сетях, а также подкасты, прямые эфиры и выступления в СМИ, где речь звучит особенно чисто и непрерывно.
Не менее уязвимыми оказываются и мессенджеры. Эксперт добавил, что даже нескольких голосовых сообщений в семейном или рабочем чате может хватить для создания качественной копии. Особую тревогу вызывает то, что образец голоса злоумышленники способны получить и во время прямого телефонного разговора с жертвой.
Ранее сообщалось, что в РФ создано ПО, способное выявить поддельные голоса мошенников при звонках.
Свежие комментарии