Anthropic запретила использовать свой ИИ для создания ядерного оружия
Anthropic обновила политику использования чат-бота Claude, усилив ограничения. Теперь прямо запрещено применять ИИ для разработки биологического, химического, радиационного или ядерного оружия, а также мощных взрывчатых веществ. Ранее в правилах говорилось лишь о запрете на создание оружия и опасных материалов в целом. Теперь список стал более конкретным
В мае, вместе с запуском модели Claude Opus 4, компания внедрила уровень защиты AI Safety Level 3. Он делает систему сложнее для «взлома» и предотвращает её использование при попытках разработки оружия массового поражения.
Anthropic также усилила правила по кибербезопасности. Новый раздел политики прямо запрещает использовать Claude для взлома компьютеров и сетей, поиска уязвимостей, создания вирусов, программ для DDoS-атак и других киберугроз.
Есть и послабления: компания смягчила правила по политическому контенту. Теперь запрет касается только случаев, когда ИИ используется для обмана, вмешательства в выборы или таргетинга избирателей.
https://www.ferra.ru/news/apps/anthropic-zapretila-ispolzovat-svoi-ii-dlya-sozdaniya-yadernogo-oruzhiya-17-08-2025.htm?utm_source=yxnews&utm_medium=desktop&utm_referrer=https%3A%2F%2Fdzen.ru%2Fnews%2Fstory%2F35024983-da6e-5181-bb74-48713424bec4
