OpenAI / ChatGPT / Codex のロゴ

OpenAI / ChatGPT / Codex / 公式ブログ / 2025/10/28 / 重要

OpenAI 2025年10月28日の公式発表解説: Doppel の AI防御システム

AI

公式ブログ原文

OpenAI は 2025年10月28日、Doppel が GPT-5 と reinforcement fine-tuning を使い、ディープフェイクやなりすまし攻撃の検知・対応を高速化している事例を公開しました。

要点

  • Doppel が GPT-5 と reinforcement fine-tuning をAI防御に活用
  • ディープフェイク、なりすまし攻撃を広がる前に止めることが焦点
  • アナリスト業務を80%削減し、対応時間を数時間から数分に短縮したと説明
  • セキュリティ運用、ブランド保護、フィッシング対策に関係する

今回のブログ記事で語られていること

Doppel の事例は、GPT-5 と reinforcement fine-tuning が、生成AIの活用だけでなくAI悪用への防御にも使われていることを示します。発表では、Doppel が GPT-5 と reinforcement fine-tuning を使い、ディープフェイクやなりすまし攻撃を広がる前に止め、アナリストの業務負荷を80%削減し、対応時間を数時間から数分に短縮したと説明されています。ブランド、経営層、従業員、顧客を狙うなりすましが増える中で、AIによる検知と優先順位付けは重要になっています。

セキュリティ運用では、脅威の量が増えるほど人間の確認がボトルネックになります。AIは、怪しいドメイン、SNS投稿、画像、動画、メッセージ、詐欺キャンペーンを分類し、関連性を判断し、対応候補を提示する用途に使えます。reinforcement fine-tuning は、特定業務で望ましい判断や対応をモデルに学習させる方向の技術として読めます。汎用モデルだけではなく、セキュリティ運用のフィードバックを取り込むことが価値になります。

ただし、防御用途のAIにも誤検知・見逃しがあります。正当な投稿を攻撃と判断する、攻撃を見落とす、対応の優先順位を誤る、証拠保全が不十分になるといったリスクがあります。企業が同様の仕組みを導入する場合は、人間アナリストの承認、監査ログ、閾値調整、再学習データの管理、法務・広報との連携が必要です。今回の記事は、AIセキュリティの実務が検知から対応自動化へ広がっていることを示します。

関係するチーム

  • SOC、セキュリティ運用、ブランド保護、フィッシング対策
  • 法務、広報、リスク管理、インシデント対応
  • AIモデルをセキュリティ製品に組み込む開発チーム

実務で確認したいこと

  1. AIによる検知・対応の誤検知と見逃しを測定する
  2. 自動対応前に人間承認、証拠保全、ログを設計する
  3. reinforcement fine-tuning に使うフィードバックデータの品質を管理する

結局、今回のブログ記事をどう読むべきか

Doppel の事例は、GPT-5 がAI悪用への防御にも使われることを示します。セキュリティ導入では、速度向上と同時に、誤検知・責任分界・監査可能性を設計する必要があります。