OpenAI / ChatGPT / Codex / 公式ブログ / 2025/10/27 / 重要
OpenAI 2025年10月27日の公式発表解説: GPT-5 System Card sensitive conversations 追補
公式ブログ原文
OpenAI は 2025年10月27日、GPT-5 System Card の追補として、sensitive conversations における GPT-5 の改善と、emotional reliance、mental health、jailbreak resistance の評価を公開しました。
要点
- GPT-5 System Card に sensitive conversations の追補を追加
- emotional reliance、mental health、jailbreak resistance のベンチマークを記載
- 安全評価を製品発表とは別に確認できる資料
- AIリスク管理、監査、調達、プロダクト安全に関係する
今回のブログ記事で語られていること
この追補は、GPT-5 が敏感な会話にどう対応するかを、より評価資料に近い形で示すものです。発表では、sensitive conversations における GPT-5 の改善を扱い、emotional reliance、mental health、jailbreak resistance に関する新しいベンチマークが含まれると説明されています。製品紹介記事と異なり、System Card はモデルの能力だけでなく、制約、評価、リスク対策を確認するための資料として読むべきものです。
emotional reliance は、ユーザーがAIに過度に感情的依存を深めるリスクに関係します。mental health は、悩みや危機的状況への応答品質、専門家支援への誘導、危険な助言の回避に関係します。jailbreak resistance は、こうした安全対策を回避しようとする入力に対して、モデルがどれだけ耐えられるかを確認する観点です。これらは、一般的な業務効率化の評価とは異なり、ユーザー保護と社会的リスクを直接扱います。
企業が GPT-5 を導入する場合、System Card の追補は調達・監査資料として有用です。ただし、ベンダー評価だけで十分ではありません。自社のユーザー層、利用目的、言語、ドメイン、チャットUI、ログ、エスカレーション設計によってリスクは変わります。特にユーザー向けアプリにAIを組み込む場合は、OpenAIの評価に加えて、自社データと想定会話で安全テストを行う必要があります。
関係するチーム
- AIリスク管理、セキュリティ、法務、監査
- プロダクト安全、UX、カスタマーサポート
- GPT-5 を業務またはユーザー向け機能に使う開発チーム
実務で確認したいこと
- System Card の評価項目を自社AIリスク台帳に反映する
- emotional reliance と mental health のリスクを利用規約やUXに組み込む
- 自社ユースケースで jailbreak や危機的会話のテストを行う
結局、今回のブログ記事をどう読むべきか
GPT-5 System Card の追補は、敏感な会話に関する安全評価を確認する資料です。導入側は、ベンダー評価を起点に、自社の利用文脈で追加検証する必要があります。