На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Аргументы и Факты

49 405 подписчиков

Свежие комментарии

  • Халиуллина Лена
    Вспоминаю высказывание Жириновского( по отцу еврей) о том что Израиля не станет,исчезнет с политической карты мира.Н...В КСИР заявили, ч...
  • Юрий Зубрин
    Сами ничего не делают ,чтобы прекратить это смертоубийство и людям не дают мирно жить и работать !Горняков подняли ...
  • Александр Котов
    Кроме отражения что-то делается?Мощный ответ за а...

Американка едва не умерла после совета, полученного от ChatGPT

Американская блогерша рассказала, как ChatGPT ошибочно идентифицировал ядовитое растение как безвредное, из-за чего с ее подругой едва не произошла трагедия. Об этой истории пишет LADBible.

По словам женщины, подруга отправила в ChatGPT фотографию растения, найденного во дворе, с вопросом о том, что это за вид.

Чат‑бот ошибочно заявил, что это морковная ботва, и привел «подтверждающие» признаки, в частности, «тонко рассечённые, перистые листья».

После этого пользователь напрямую спросил, может ли растение быть болиголовом, а ИИ несколько раз дал отрицательный ответ, несмотря на то что крайне ядовитый болиголов входит в список растений, часто путаемых с морковной листвой. После сомнительных ответов ChatGPT женщина решила проверить информацию через Google, обнаружив, что растение действительно является болиголовом. Кроме того, ядовитый характер растения подтвердила проверка его фотографии через Google Lens.

Как отметила блогерша, ее подруга избежала опасности лишь потому, что перепроверила информацию.

Ранее сообщалось, что чат-бот ChatGPT поставил правильный диагноз четырехлетнему американцу после того, как более 15 врачей не смогли ему помочь.

 

Ссылка на первоисточник
наверх