Anthropic запретила использовать свой ИИ для создания ядерного оружия
Anthropic обновила политику использования чат-бота Claude, усилив ограничения. Теперь прямо запрещено применять ИИ для разработки биологического, химического, радиационного или ядерного оружия, а также мощных взрывчатых веществ. Ранее в правилах говорилось лишь о запрете на создание оружия и опасных материалов в целом. Теперь список стал более конкретным
В мае, вместе с запуском модели Claude Opus 4, компания внедрила уровень защиты AI Safety Level 3. Он делает систему сложнее для «взлома»...