AI И НЕЙРОСЕТИ

Anthropic смягчила правила ИИ-безопасности ради новых моделей Claude

Anthropic обновила политику безопасности ИИ, что позволит создавать более мощные модели Claude. Параллельно компания рискует потерять контракт с Пентагоном на $200 млн.

✍️ Редакция iTech News | 10.03.2026 | ⏱ 2 мин | 👁 1
💡

Anthropic пересмотрела свою политику безопасного масштабирования ИИ, сделав её более гибкой — теперь компания может создавать модели, которые выходят за рамки «принятых пределов безопасности». Одновременно разработчик Claude рискует потерять контракт с Пентагоном на $200 млн из-за принципиального отказа поставлять ИИ для военных целей.

Министерство обороны США требует расширенного доступа к Claude, но Anthropic стоит на двух принципах: никакого автономного оружия и никакого массового слежения за американцами. Если компания не изменит позицию до пятницы, многомиллионный контракт уйдёт к конкурентам.

Новые возможности Claude

Пока идут переговоры с военными, Anthropic развивает коммерческие функции. В Claude Cowork появилось планирование задач, а корпоративные пользователи теперь могут создавать собственные плагины и делиться ими внутри организации.

Claude Code получил удалённое управление — сессию, запущенную в терминале, можно продолжить через мобильное приложение или веб-интерфейс. Работа не прерывается на исходной машине.

Anthropic также приобрела стартап Vercept для улучшения компьютерных агентов. Похожую сделку совершил Cursor, купивший Autotab — обе покупки направлены на создание ИИ, которые управляют компьютером как человек.

Гонка компьютерных агентов

Рынок движется от командной строки к визуальному управлению. Perplexity запустила Perplexity Computer — универсального агента для исследований, дизайна и программирования. Google на презентации Samsung Galaxy S26 показал Gemini, который самостоятельно заказывает еду через Android-приложения.

Cursor Agents теперь тестируют свой код на реальном компьютере и возвращают видеодемонстрацию результата. Индустрия переходит от текстовых интерфейсов к полноценному взаимодействию с графической оболочкой.

Что это значит для разработчиков: ИИ-помощники становятся полноценными коллегами, способными не только писать код, но и тестировать его в реальной среде. Следующие 6 месяцев покажут, готовы ли компании интегрировать такие инструменты в production.

Военный контракт Anthropic станет прецедентом — либо этические принципы ИИ-компаний устоят перед большими деньгами, либо индустрия окончательно выберет прагматизм.

Поделиться: Telegram X LinkedIn