На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Аргументы и Факты

49 244 подписчика

Свежие комментарии

  • Сергей Иванов
    А не надо россиянам болтаться где попало.В Мьянме после зе...
  • Leon Dan
    Медалью-то подкрепил старания и вклад? Там пора уже Героя не меньше.Кадыров назначил ...
  • Eduard
    Покажи завещание!Украинка Романиши...

Аналитик Силаев предрек рост спроса на специалистов по кибербезопасности

Искусственный интеллект (ИИ) уже стал важным элементом цифровой трансформации России, однако, наряду с преимуществами, его развитие несет и новые угрозы. Об этом в беседе с RT рассказал руководитель лаборатории доверенного искусственного интеллекта РТУ МИРЭА Юрий Силаев.

Он пояснил, что если ранее киберпреступники действовали вручную, то теперь используют технологии ИИ для автоматизации атак — от создания дипфейков до поиска уязвимостей в системах.

По его мнению, это требует кардинально новых методов защиты данных и цифровой инфраструктуры.

Специалист подчеркнул, что с одной стороны, нейросети эффективно помогают в борьбе с киберпреступностью — они анализируют сетевой трафик, выявляют аномалии и даже способны предугадывать атаки. Однако, с другой стороны, ИИ становится инструментом злоумышленников. Так, генеративные технологии позволяют создавать крайне реалистичные фишинговые письма или взламывать системы, используя адаптивные алгоритмы. Главной проблемой эксперт назвал опережающее развитие атакующих технологий: пока регуляторы обсуждают этические нормы, преступники уже активно применяют ИИ в своих схемах. По его мнению, необходимо не просто реагировать на угрозы, а закладывать принципы безопасности в искусственный интеллект еще на этапе его разработки.

Силаев также отметил, что спрос на специалистов в сфере кибербезопасности и ИИ будет только расти, но требования к ним изменятся. Он подчеркнул, что теоретических знаний уже недостаточно — важно обладать практическим опытом работы в условиях реальных атак. В связи с этим образовательные учреждения активно внедряют CTF-соревнования, хакатоны и программы взаимодействия с индустрией.

«ИИ берёт на себя рутинные задачи, но критически важные решения — например, стратегическое управление безопасностью или анализ сложных угроз — пока остаются за людьми. Поэтому будущее за гибридными командами, где нейросети обрабатывают данные, а эксперты принимают решения», — заявил эксперт.

Ранее старший преподаватель кафедры проблем управления Института искусственного интеллекта РТУ МИРЭА Александр Морозов спрогнозировал появление мозгоподобных нейросетей в будущем.

 

Ссылка на первоисточник
наверх