OpenAI / ChatGPT / Codex のロゴ

OpenAI / ChatGPT / Codex / 公式ブログ / 2025/07/17 / 重要

OpenAI 2025年7月17日の公式発表解説: ChatGPT agent System Card

AIセキュリティ

公式ブログ原文

OpenAI は 2025年7月17日、ChatGPT agent System Card を公開しました。調査、ブラウザ自動化、コードツールを統合するエージェント型モデルの安全性資料です。

要点

  • ChatGPT agent は調査、ブラウザ操作、コードツールを統合するエージェント機能
  • System Card は Preparedness Framework に基づく安全性評価とガードレールを説明する資料
  • エージェントは外部操作を伴うため、通常のチャットより権限設計が重要
  • 導入時は操作制限、ログ、人間確認、データ保護を確認したい

今回のブログ記事で語られていること

ChatGPT agent System Card は、OpenAIのエージェント型機能を安全性の観点から説明する資料です。ChatGPT agent は、情報調査、ブラウザ操作、コードツールなどを統合し、ユーザーの依頼に対して複数ステップで作業できることが特徴です。これは通常のチャット応答よりも実務的な価値が高い一方、外部サイトを開く、情報を収集する、コードを実行する、ファイルを扱うといった行為を伴うため、リスクの種類も増えます。

System Card では、Preparedness Framework のもとで安全性評価や制御が説明されます。企業利用者が見るべきポイントは、モデルがどれほど有能かだけではありません。エージェントがどのツールを使えるのか、どの操作でユーザー確認が必要なのか、機密情報をどう扱うのか、外部サイトからの誘導やプロンプトインジェクションをどう防ぐのか、誤った操作をどう検出するのかが重要です。

実務では、エージェントを業務に組み込むほど、権限と責任の設計が必要になります。調査支援、レポート作成、データ分析、Web操作、社内システム操作、コード修正など、用途ごとに許可する操作範囲を分けるべきです。また、出力だけでなく、エージェントが途中で参照した情報、実行した操作、失敗や再試行のログを監査できることが望まれます。今回の発表は、エージェント機能が本格化するほど、System Card を導入判断の重要資料として読む必要があることを示しています。

関係するチーム

  • ChatGPT agent を業務利用する情報システム、AI推進、業務部門
  • セキュリティ、プライバシー、法務、リスク管理
  • エージェント機能を組み込む開発者、プロダクトチーム

実務で確認したいこと

  1. エージェントに許可するツール、サイト、ファイル、操作を限定する
  2. 外部送信、購入、申請、削除などは人間確認を必須にする
  3. 操作ログ、監査、プロンプトインジェクション対策を確認する

結局、今回のブログ記事をどう読むべきか

ChatGPT agent System Card は、エージェント型AIの導入判断に必要な安全性資料です。企業は便利さだけでなく、権限、ログ、人間確認をセットで設計する必要があります。