OpenAI / ChatGPT / Codex のロゴ

OpenAI / ChatGPT / Codex / 公式ブログ / 2025/01/23 / 重要

OpenAI 2025年1月23日の公式発表解説: Computer-Using Agent は何を可能にするか

AIセキュリティ

公式ブログ原文

OpenAI は 2025年1月23日、Computer-Using Agent に関する研究発表を公開しました。AIが画面を見て、ブラウザやアプリケーションを操作する方向性を示す重要な発表です。

要点

  • Computer-Using Agent は、画面上の情報を理解し、コンピュータ操作を行うAIエージェントの方向性
  • Web操作、フォーム入力、情報収集、手続き支援などに応用できる
  • 通常のテキスト生成よりも、誤操作、権限、セキュリティのリスクが大きい
  • エージェント利用では、人間の承認と操作範囲の制限が重要になる

今回のブログ記事で語られていること

Computer-Using Agent の発表は、AIが会話や文章生成にとどまらず、実際のコンピュータ画面を使って作業する方向へ進んでいることを示します。これまでAIに仕事を頼む場合、利用者は必要な情報をコピーして貼り付けたり、AIの出力を自分で別のツールに入力したりしていました。画面操作型エージェントは、この橋渡し部分をAI自身が担う可能性を持ちます。

実務での価値は大きいです。たとえば、Webサイトから情報を集める、管理画面で定型設定を行う、複数システムをまたいで申請状況を確認する、フォーム入力を支援する、といった作業が考えられます。特に古い業務システムやAPIが整っていないSaaSでは、人間が画面操作で行っている作業が多く残っています。Computer-Using Agent は、そうした作業をAIが補助する入口になります。

一方で、画面を操作できるAIは、文章を生成するAIよりもリスクが高くなります。誤ったクリック、不要な送信、個人情報の露出、ログイン済みセッションの悪用、悪意あるページからの誘導などが起こり得ます。企業で導入する場合は、AIが操作してよいサイト、扱ってよい情報、必ず人間が確認すべき操作、ログの残し方を決める必要があります。Computer-Using Agent は、AIの自律性を高める発表であると同時に、ガバナンス設計を強く求める発表でもあります。

関係するチーム

  • 業務自動化、RPA、BPO、カスタマーサポートを担当するチーム
  • AIエージェントをプロダクトに組み込む開発・UXチーム
  • セキュリティ、法務、監査、情報システム部門

実務で確認したいこと

  1. AIが画面操作してよい環境と禁止する環境を分ける
  2. 送信、購入、削除、権限変更などの操作には人間承認を入れる
  3. テスト用アカウントや低権限アカウントで検証する
  4. 操作ログと失敗時の復旧手順を用意する

結局、今回のブログ記事をどう読むべきか

Computer-Using Agent は、AIが「助言する」段階から「操作する」段階へ進むことを示す発表です。業務利用では、自動化の効果と同じくらい、権限設計と安全確認が重要になります。