На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Аргументы и Факты

49 359 подписчиков

Свежие комментарии

  • Юрий Зубрин
    Люди ногами голосуют против вашей власти в концлагере Аушвиц -украина !Депутат Рады Наго...
  • Юрий Зубрин
    Сатанисты продолжают своё "чёрное дело ",загоняя страну под власть антихриста!В Черниговской об...
  • Халиуллина Лена
    Когда на Россию не нападали, её ассоциировали с медведем,а слова Дони о бумажном тигре- это мечта англосакцев ,притом...Толпа англичан пы...

Американка едва не умерла после совета, полученного от ChatGPT

Американская блогерша рассказала, как ChatGPT ошибочно идентифицировал ядовитое растение как безвредное, из-за чего с ее подругой едва не произошла трагедия. Об этой истории пишет LADBible.

По словам женщины, подруга отправила в ChatGPT фотографию растения, найденного во дворе, с вопросом о том, что это за вид.

Чат‑бот ошибочно заявил, что это морковная ботва, и привел «подтверждающие» признаки, в частности, «тонко рассечённые, перистые листья».

После этого пользователь напрямую спросил, может ли растение быть болиголовом, а ИИ несколько раз дал отрицательный ответ, несмотря на то что крайне ядовитый болиголов входит в список растений, часто путаемых с морковной листвой. После сомнительных ответов ChatGPT женщина решила проверить информацию через Google, обнаружив, что растение действительно является болиголовом. Кроме того, ядовитый характер растения подтвердила проверка его фотографии через Google Lens.

Как отметила блогерша, ее подруга избежала опасности лишь потому, что перепроверила информацию.

Ранее сообщалось, что чат-бот ChatGPT поставил правильный диагноз четырехлетнему американцу после того, как более 15 врачей не смогли ему помочь.

 

Ссылка на первоисточник
наверх