Нейросеть Grok сделали «неполиткорректной»: но эксперимент провалился
Всего двух дней хватило, чтобы нововведение откатили — за это время нейросеть успела призвать к геноциду и сравнить себя с «механическим Гитлером».
В прошедшие выходные компания xAI добавила новые строки в системные подсказки нейросети Grok, которые определяют поведение и ответы чат-бота. Главная задумка была в том, чтобы дать ИИ больше свободы, разрешить использовать неполиткорректные выражения, если это оправдано, и научить объективности. В том числе фильтровать зачастую предвзятую информацию из СМИ.