Очистка кэша и временных файлов становится критически важной, когда несколько человек в семье пользуются одним устройством с искусственным интеллектом (ИИ). Об этом рассказал старший преподаватель РТУ МИРЭА Андрей Рыбников в беседе с RT.
Научные исследования показали, что ИИ-модели уязвимы для атак, направленных на похищение личной информации пользователей, отметил он.
«Злоумышленники способны получить доступ к информации, которую пользователь вводил в систему. Особенно уязвимы модели, обученные на открытых источниках без строгой фильтрации, а также те, которые продолжают обучение на пользовательских запросах», — подчеркнул Рыбников.
Эксперт объяснил, что при использовании ИИ-сервисов пользователь должен осознавать, где и каким образом обрабатываются его запросы, особенно если речь идет об иностранных ресурсах.
В то же время, одним из наиболее надежных решений является использование локальных ИИ-программ, так как они функционируют независимо и не передают информацию в облачное хранилище. Кроме того, предотвратить утечку данных может ручная обработка вводимой информации. Рыбников посоветовал удалять контактные данные, номера документов и другие конфиденциальные элементы.
Шифрование файловой системы, которое можно активировать с помощью встроенных инструментов Windows, Linux или macOS, также может оказаться полезным для пользователей, заключил эксперт.
Ранее в МВД рассказали об утечке 250 тысяч строк с данными пользователей TikTok.
Свежие комментарии