Искусственный интеллект всё прочнее входит в жизнь людей, помогая в работе, учёбе и даже в повседневных делах. Сегодня ChatGPT и другие нейросети ежедневно обрабатывают миллиарды запросов, при этом данные переписок сохраняются и используются для улучшения алгоритмов. Однако специалисты предупреждают: далеко не всю информацию стоит передавать таким сервисам.
В Пермском политехническом университете пояснили, что при работе с ИИ существуют риски, связанные с конфиденциальностью, пишет RT. По статистике, ChatGPT ежедневно используют около 200 млн человек, и число обращений превышает миллиард. При этом доцент кафедры «Информационные технологии и автоматизированные системы» ПНИПУ, кандидат технических наук Даниил Курушин отметил, что пользователям необходимо соблюдать осторожность при общении с чат-ботами.
Он напомнил, что каждая беседа фиксируется и получает уникальный ID, что позволяет разработчикам собирать контекст диалога и применять его для развития модели. По словам эксперта, компании по-разному заявляют о своей политике в отношении хранения данных, но проверить их обещания зачастую невозможно. Это может быть связано с коммерческой тайной, поэтому доверять подобным заявлениям стоит крайне осторожно.
Курушин подчеркнул, что полагаться на абсолютную безопасность при взаимодействии с ИИ нельзя. Теоретически доступ к данным могут получить как злоумышленники, так и спецслужбы. Несмотря на отсутствие прямых доказательств, специалист советует исходить из принципа наихудшего сценария — учитывать вероятность того, что информация может быть перехвачена и использована против пользователя.
Он также обратил внимание на цифровые ловушки: злоумышленники способны создавать фальшивые чаты, внедрять их в мессенджеры, социальные сети или приложения и собирать личные сведения. Особенно опасно передавать паспортные и банковские данные, номера телефонов, адреса, коммерческую или государственную тайну. Нарушение этих правил грозит не только утечкой, но и серьёзными юридическими последствиями, включая уголовную ответственность.
При этом даже обычные разговоры могут использоваться для сбора информации о предпочтениях и интересах пользователей. Однако такие данные можно получить и другими способами — например, через поисковые системы и соцсети, поэтому риск здесь ниже.
Эксперт добавил, что полная гарантия защиты возможна только тогда, когда сервис развёрнут на оборудовании самого пользователя и правильно выстроена сетевая инфраструктура. Кроме того, Курушин подчеркнул: ответы нейросетей нельзя считать априори достоверными. Использовать их рекомендуется там, где сам человек компетентен и способен критически оценить результат. В остальных случаях надёжнее опираться на энциклопедические источники и мнение специалистов.
Ранее эксперт Вадим Виноградов сообщил, что переписка с ИИ может иметь юридические последствия.
Свежие комментарии