Американка едва не умерла после совета, полученного от ChatGPT
Американская блогерша рассказала, как ChatGPT ошибочно идентифицировал ядовитое растение как безвредное, из-за чего с ее подругой едва не произошла трагедия. Об этой истории пишет LADBible.
По словам женщины, подруга отправила в ChatGPT фотографию растения, найденного во дворе, с вопросом о том, что это за вид. Чат‑бот ошибочно заявил, что это морковная ботва, и привел «подтверждающие» признаки, в частности, «тонко рассечённые, перистые листья».
После этого пользователь напрямую спросил...