На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Аргументы и Факты

49 381 подписчик

Свежие комментарии

  • Svetlana Kuzmina
    Очень смешно видеть эту нить на Буданове. Вроде, молодой, прогрессивный человек, а "подсел" на подобные глупости. Пом...Буданов появился ...
  • Евгений Саваровский
    Боритесь ребята за Хаоьков, Одессу, Николаев. Это наши земли.Делегация РФ во г...
  • Eduard
    Молодцы!Подоляка: бойцы Р...

Американка едва не умерла после совета, полученного от ChatGPT

Американская блогерша рассказала, как ChatGPT ошибочно идентифицировал ядовитое растение как безвредное, из-за чего с ее подругой едва не произошла трагедия. Об этой истории пишет LADBible.

По словам женщины, подруга отправила в ChatGPT фотографию растения, найденного во дворе, с вопросом о том, что это за вид.

Чат‑бот ошибочно заявил, что это морковная ботва, и привел «подтверждающие» признаки, в частности, «тонко рассечённые, перистые листья».

После этого пользователь напрямую спросил, может ли растение быть болиголовом, а ИИ несколько раз дал отрицательный ответ, несмотря на то что крайне ядовитый болиголов входит в список растений, часто путаемых с морковной листвой. После сомнительных ответов ChatGPT женщина решила проверить информацию через Google, обнаружив, что растение действительно является болиголовом. Кроме того, ядовитый характер растения подтвердила проверка его фотографии через Google Lens.

Как отметила блогерша, ее подруга избежала опасности лишь потому, что перепроверила информацию.

Ранее сообщалось, что чат-бот ChatGPT поставил правильный диагноз четырехлетнему американцу после того, как более 15 врачей не смогли ему помочь.

 

Ссылка на первоисточник
наверх