На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Аргументы и Факты

49 313 подписчиков

Свежие комментарии

IT-эксперт Силаев предупредил об опасности клонирования голоса ИИ

Заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА Юрий Силаев в беседе с RT рассказал, что современные технологии позволяют мошенникам подделывать голоса близких людей, превращая это в серьёзную угрозу.

Он отметил, что голосовое клонирование с помощью искусственного интеллекта уже давно перестало быть футуристической идеей и стало реальным инструментом в арсенале злоумышленников.

Специалист напомнил, что ещё год назад для создания правдоподобной копии требовались большие вычислительные ресурсы и десятки минут чистой аудиозаписи. По его словам, сегодня достаточно нескольких секунд речи, а доступные онлайн-сервисы позволяют быстро сформировать убедительную модель голоса.

Силаев пояснил, что последующие действия мошенников строятся на психологическом давлении и рассчитаны на эмоции жертвы, в частности на инстинкт защитить родных в опасной ситуации.

По его словам, источников для сбора голосовых образцов у преступников немало. Чаще всего ими становятся видео в социальных сетях, а также подкасты, прямые эфиры и выступления в СМИ, где речь звучит особенно чисто и непрерывно.

Не менее уязвимыми оказываются и мессенджеры. Эксперт добавил, что даже нескольких голосовых сообщений в семейном или рабочем чате может хватить для создания качественной копии. Особую тревогу вызывает то, что образец голоса злоумышленники способны получить и во время прямого телефонного разговора с жертвой.

Ранее сообщалось, что в РФ создано ПО, способное выявить поддельные голоса мошенников при звонках.

 

Ссылка на первоисточник
наверх