На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Аргументы и Факты

49 391 подписчик

Свежие комментарии

  • Юрий Гаврилов
    Распад ждёт всех. Рано или поздно. А про распад США я слышу с самого рождения. Мне 73г. Но вот ,заразы , не распадают...Малинен заявил, ч...
  • Алексей Тан
    Активистка Кэндис Оуэнс ЗАЯВИЛА.... ;-Оуэнс заявила, чт...
  • vagas Karlito
    Где то  уже это было! Всё было под прицелом!Лютый ответ за Мо...

Американка едва не умерла после совета, полученного от ChatGPT

Американская блогерша рассказала, как ChatGPT ошибочно идентифицировал ядовитое растение как безвредное, из-за чего с ее подругой едва не произошла трагедия. Об этой истории пишет LADBible.

По словам женщины, подруга отправила в ChatGPT фотографию растения, найденного во дворе, с вопросом о том, что это за вид.

Чат‑бот ошибочно заявил, что это морковная ботва, и привел «подтверждающие» признаки, в частности, «тонко рассечённые, перистые листья».

После этого пользователь напрямую спросил, может ли растение быть болиголовом, а ИИ несколько раз дал отрицательный ответ, несмотря на то что крайне ядовитый болиголов входит в список растений, часто путаемых с морковной листвой. После сомнительных ответов ChatGPT женщина решила проверить информацию через Google, обнаружив, что растение действительно является болиголовом. Кроме того, ядовитый характер растения подтвердила проверка его фотографии через Google Lens.

Как отметила блогерша, ее подруга избежала опасности лишь потому, что перепроверила информацию.

Ранее сообщалось, что чат-бот ChatGPT поставил правильный диагноз четырехлетнему американцу после того, как более 15 врачей не смогли ему помочь.

 

Ссылка на первоисточник
наверх