OpenAI / ChatGPT / Codex のロゴ

OpenAI / ChatGPT / Codex / 公式ブログ / 2025/11/19 / 重要

OpenAI 2025年11月19日の公式発表解説: GPT-5.1-Codex-Max System Card

AI

公式ブログ原文

OpenAI は 2025年11月19日、GPT-5.1-Codex-Max の System Card を公開し、有害タスク、prompt injection、agent sandboxing、network access などの安全対策を説明しました。

要点

  • GPT-5.1-Codex-Max の包括的な安全対策を説明
  • harmful tasks や prompt injections に対するモデルレベル対策を記載
  • agent sandboxing と configurable network access など製品レベル対策も含む
  • AIコーディングエージェントの導入評価に重要

今回のブログ記事で語られていること

この System Card は、GPT-5.1-Codex-Max を安全に使うための評価資料です。OpenAI は、有害タスクや prompt injection に対する専門的な安全訓練などのモデルレベル対策に加え、agent sandboxing、configurable network access といった製品レベルの対策を説明しています。AIコーディングエージェントは、コードを読むだけでなく、ファイルを編集し、コマンドを実行し、場合によってはネットワークへアクセスするため、安全設計が不可欠です。

特に prompt injection は、開発環境でも深刻です。README、issue、依存パッケージ、Webページ、ログ、テストデータに悪意ある指示が含まれていると、AIエージェントが本来の目的を外れて秘密情報を漏らしたり、危険なコマンドを実行したりする可能性があります。System Card が prompt injection と sandboxing を扱うことは、エージェント型開発のリスクが現実的なものとして認識されていることを示します。

導入企業は、この資料を読んで終わりにせず、自社の開発環境でどの権限をAIに与えるかを決める必要があります。ネットワークアクセス、秘密情報、CI権限、本番環境への接続、パッケージインストール、ファイル削除などは慎重に制御すべきです。System Card は、モデル選定だけでなく、Codex運用ポリシーを作るための材料になります。

関係するチーム

  • DevSecOps、AppSec、プラットフォーム、開発管理
  • セキュリティ、リスク管理、監査、法務
  • AIコーディングエージェントを本番導入する開発組織

実務で確認したいこと

  1. Codexエージェントのサンドボックスとネットワークアクセスを制限する
  2. secrets、環境変数、本番認証情報へAIが触れない設計にする
  3. prompt injection を含むコードベース攻撃のテストを行う

結局、今回のブログ記事をどう読むべきか

GPT-5.1-Codex-Max System Card は、AIコーディングエージェント導入時の安全チェック資料です。企業は、モデルの安全対策と自社の権限設計を両方確認する必要があります。