Чат-бот Gemini с искусственным интеллектом от Google пожелал смерти одному из пользователей, пытаясь помочь ему с домашним заданием.
Переписку молодого человека с нейросетью опубликовал его родственник на Reddit, выражая шок от происходящего.
«Gemini сказала моему брату умереть? Это угрожающий ответ, который совершенно не соответствует теме запроса... Кто-то сталкивался с подобным? Мы в полном шоке. До этого все было нормально», — пишет автор поста, прикрепив полную переписку.
В переписке видно...