Добавить новость

Американка едва не пострадала после неверного ответа ChatGPT о ядовитом растении

Блогерша из США заявила, что советы, полученные от чат-бота ChatGPT, могли привести к опасной ситуации для ее подруги. По словам американки, ИИ ошибочно определил ядовитое растение как безвредное, пишет LADBible.

По словам женщины, подруга отправила в ChatGPT фотографию растения, найденного во дворе, с вопросом о том, что это за вид. В ответ чат-бот сообщил, что растение похоже на морковную ботву, и перечислил признаки, которые якобы подтверждали этот вывод, включая "тонко рассеченные, перистые листья".

Губернаторы России



Заголовки
Заголовки
Moscow.media
Ria.city

Новости России




Rss.plus

Музыкальные новости


Новости тенниса







Новости спорта