Мама думала, что дочь переписывается с друзьями: ИИ довел девушку до самоубийства
Два года назад тринадцатилетняя школьница из Колорадо покончила с собой. Ее родители утверждают, что девушка развила болезненную зависимость от чат-ботов платформы Character AI — сервиса, который позиционировался как безопасный и подходящий для подростков от двенадцати лет. Историю семьи рассказывает CBS News.
Мать девочки вспоминала, что тщательно следила за жизнью дочери и в интернете, и вне его, однако никогда не слышала о существовании такого приложения и не считала нужным проверять переписку ...