Anthropic отказалась от жестких самоограничений в сфере безопасности на фоне конфликта с Пентагоном
Компания Anthropic — разработчик ИИ-модели Claude — объявила о пересмотре своей ключевой политики безопасности и отказалась от одного из главных принципов: обязательства приостанавливать обучение более мощных систем, если их возможности начинают опережать механизмы контроля. Об этом компания сообщает в своем блоге.
Ранее действовавшая «Политика ответственного масштабирования» предусматривала, что при появлении моделей, которые компания не способна надежно контролировать, их дальнейшее обучение должно быть поставлено на паузу.