OpenAI / ChatGPT / Codex のロゴ

OpenAI / ChatGPT / Codex / 公式ブログ / 2025/12/22 / 重要

OpenAI 2025年12月22日の公式発表解説: ChatGPT Atlas の prompt injection 対策強化

AI

公式ブログ原文

OpenAI は 2025年12月22日、ChatGPT Atlas を prompt injection 攻撃から継続的に守るため、reinforcement learning で訓練した automated red teaming を使っていると発表しました。

要点

  • ChatGPT Atlas の prompt injection 対策を継続強化
  • reinforcement learning で訓練した automated red teaming を活用
  • novel exploits を早期に見つける proactive discover-and-patch loop
  • ブラウザエージェント、AIセキュリティ、業務ブラウザ利用に関係する

今回のブログ記事で語られていること

この発表は、ChatGPT Atlas のようなブラウザエージェントが prompt injection 攻撃に継続的にさらされることを前提に、防御を自動化・継続改善する取り組みです。OpenAI は、reinforcement learning で訓練された automated red teaming を使い、未知のexploitを早期に発見し、ブラウザエージェントの防御を強化する proactive discover-and-patch loop を構築していると説明しています。

ブラウザエージェントは、Webページ、フォーム、メール、社内SaaS、外部リンクなど、信頼度の異なる情報を読みながらユーザーの作業を支援します。悪意あるページやコンテンツが、AIに本来の指示を無視させたり、機密情報を抜き出させたり、危険な操作を実行させたりする可能性があります。prompt injection は、AIブラウザにとって中心的なセキュリティ課題です。

OpenAI側が自動red teamingで継続的に防御を強化していても、企業利用では追加の運用設計が必要です。Atlasや類似AIブラウザを業務で使う場合、どの社内SaaSで利用を許可するか、AIに見せてよい情報は何か、外部サイトと社内情報を同じ文脈で扱ってよいか、実行前確認をどう入れるかを決める必要があります。今回の記事は、AIエージェントの安全性が一度きりの対策ではなく、継続的な攻防になることを示します。

関係するチーム

  • セキュリティ、ブラウザ管理、SaaS管理、AIガバナンス
  • AppSec、DevSecOps、インシデント対応
  • ChatGPT Atlas やAIブラウザを利用する業務部門

実務で確認したいこと

  1. AIブラウザが社内SaaSや機密ページを読める範囲を制限する
  2. 外部ページからのprompt injectionを想定した利用ルールとテストを用意する
  3. フォーム送信、ファイル操作、外部共有には人間確認を必須にする

結局、今回のブログ記事をどう読むべきか

Atlas の prompt injection 対策強化は、AIブラウザに継続的な防御が必要であることを示します。企業は、ベンダーの防御に加えて、自社の利用範囲と承認設計を整えるべきです。