На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Аргументы и Факты

49 293 подписчика

Свежие комментарии

  • kllo lokko
    Лучше пленных украинцев обменять на Садового и денацифицировать его в российской тюрьме.Коц ответил мэру ...
  • лина любимцева
    А что это за "экстремистские запросы"?!!Песков призвал об...
  • лина любимцева
    Если бы можно было ДО покупки это все проверить.Доцент Кулач объя...

Аналитик Силаев предрек рост спроса на специалистов по кибербезопасности

Искусственный интеллект (ИИ) уже стал важным элементом цифровой трансформации России, однако, наряду с преимуществами, его развитие несет и новые угрозы. Об этом в беседе с RT рассказал руководитель лаборатории доверенного искусственного интеллекта РТУ МИРЭА Юрий Силаев.

Он пояснил, что если ранее киберпреступники действовали вручную, то теперь используют технологии ИИ для автоматизации атак — от создания дипфейков до поиска уязвимостей в системах.

По его мнению, это требует кардинально новых методов защиты данных и цифровой инфраструктуры.

Специалист подчеркнул, что с одной стороны, нейросети эффективно помогают в борьбе с киберпреступностью — они анализируют сетевой трафик, выявляют аномалии и даже способны предугадывать атаки. Однако, с другой стороны, ИИ становится инструментом злоумышленников. Так, генеративные технологии позволяют создавать крайне реалистичные фишинговые письма или взламывать системы, используя адаптивные алгоритмы. Главной проблемой эксперт назвал опережающее развитие атакующих технологий: пока регуляторы обсуждают этические нормы, преступники уже активно применяют ИИ в своих схемах. По его мнению, необходимо не просто реагировать на угрозы, а закладывать принципы безопасности в искусственный интеллект еще на этапе его разработки.

Силаев также отметил, что спрос на специалистов в сфере кибербезопасности и ИИ будет только расти, но требования к ним изменятся. Он подчеркнул, что теоретических знаний уже недостаточно — важно обладать практическим опытом работы в условиях реальных атак. В связи с этим образовательные учреждения активно внедряют CTF-соревнования, хакатоны и программы взаимодействия с индустрией.

«ИИ берёт на себя рутинные задачи, но критически важные решения — например, стратегическое управление безопасностью или анализ сложных угроз — пока остаются за людьми. Поэтому будущее за гибридными командами, где нейросети обрабатывают данные, а эксперты принимают решения», — заявил эксперт.

Ранее старший преподаватель кафедры проблем управления Института искусственного интеллекта РТУ МИРЭА Александр Морозов спрогнозировал появление мозгоподобных нейросетей в будущем.

 

Ссылка на первоисточник
наверх