OpenAI подписала соглашение с Минобороны США, впервые официально разрешив использование своих моделей в военных целях. Компания установила «красные линии» безопасности и прописала условия работы ИИ-систем в засекреченных проектах.
До сих пор OpenAI избегала военных контрактов — в политике использования прямо запрещалось применение GPT для «разработки или использования оружия». Новое соглашение меняет курс компании и открывает путь к многомиллиардному оборонному рынку ИИ.
По условиям контракта, OpenAI сохраняет контроль над этическими ограничениями. Компания запретила использовать свои модели для создания автономных боевых систем и разработки биологического оружия. Все военные проекты будут проходить дополнительную проверку на безопасность.
Минобороны США получает доступ к специально адаптированным версиям GPT, которые работают в изолированных сетях без подключения к интернету. Модели будут обучаться на засекреченных данных, но OpenAI сохраняет право аудита алгоритмов.
Решение OpenAI вызвало критику среди исследователей ИИ-безопасности, которые опасаются милитаризации технологий. Конкуренты — Anthropic и Google DeepMind — пока избегают военных контрактов, что может дать OpenAI конкурентное преимущество в госсекторе.
Сделка открывает OpenAI доступ к бюджету Пентагона на ИИ — $1,8 млрд в 2024 году, который планируют увеличить до $4,1 млрд к 2025-му.