OpenAI / ChatGPT / Codex のロゴ

OpenAI / ChatGPT / Codex / 公式ブログ / 2025/10/27 / 重要

OpenAI 2025年10月27日の公式発表解説: GPT-5 System Card sensitive conversations 追補

AI

公式ブログ原文

OpenAI は 2025年10月27日、GPT-5 System Card の追補として、sensitive conversations における GPT-5 の改善と、emotional reliance、mental health、jailbreak resistance の評価を公開しました。

要点

  • GPT-5 System Card に sensitive conversations の追補を追加
  • emotional reliance、mental health、jailbreak resistance のベンチマークを記載
  • 安全評価を製品発表とは別に確認できる資料
  • AIリスク管理、監査、調達、プロダクト安全に関係する

今回のブログ記事で語られていること

この追補は、GPT-5 が敏感な会話にどう対応するかを、より評価資料に近い形で示すものです。発表では、sensitive conversations における GPT-5 の改善を扱い、emotional reliance、mental health、jailbreak resistance に関する新しいベンチマークが含まれると説明されています。製品紹介記事と異なり、System Card はモデルの能力だけでなく、制約、評価、リスク対策を確認するための資料として読むべきものです。

emotional reliance は、ユーザーがAIに過度に感情的依存を深めるリスクに関係します。mental health は、悩みや危機的状況への応答品質、専門家支援への誘導、危険な助言の回避に関係します。jailbreak resistance は、こうした安全対策を回避しようとする入力に対して、モデルがどれだけ耐えられるかを確認する観点です。これらは、一般的な業務効率化の評価とは異なり、ユーザー保護と社会的リスクを直接扱います。

企業が GPT-5 を導入する場合、System Card の追補は調達・監査資料として有用です。ただし、ベンダー評価だけで十分ではありません。自社のユーザー層、利用目的、言語、ドメイン、チャットUI、ログ、エスカレーション設計によってリスクは変わります。特にユーザー向けアプリにAIを組み込む場合は、OpenAIの評価に加えて、自社データと想定会話で安全テストを行う必要があります。

関係するチーム

  • AIリスク管理、セキュリティ、法務、監査
  • プロダクト安全、UX、カスタマーサポート
  • GPT-5 を業務またはユーザー向け機能に使う開発チーム

実務で確認したいこと

  1. System Card の評価項目を自社AIリスク台帳に反映する
  2. emotional reliance と mental health のリスクを利用規約やUXに組み込む
  3. 自社ユースケースで jailbreak や危機的会話のテストを行う

結局、今回のブログ記事をどう読むべきか

GPT-5 System Card の追補は、敏感な会話に関する安全評価を確認する資料です。導入側は、ベンダー評価を起点に、自社の利用文脈で追加検証する必要があります。