Американка едва не пострадала после неверного ответа ChatGPT о ядовитом растении
Блогерша из США заявила, что советы, полученные от чат-бота ChatGPT, могли привести к опасной ситуации для ее подруги. По словам американки, ИИ ошибочно определил ядовитое растение как безвредное, пишет LADBible.
По словам женщины, подруга отправила в ChatGPT фотографию растения, найденного во дворе, с вопросом о том, что это за вид. В ответ чат-бот сообщил, что растение похоже на морковную ботву, и перечислил признаки, которые якобы подтверждали этот вывод, включая "тонко рассеченные, перистые листья".