OpenAI / ChatGPT / Codex のロゴ

OpenAI / ChatGPT / Codex / 公式ブログ / 2025/10/30 / 重要

OpenAI 2025年10月30日の公式発表解説: Aardvark

AI

公式ブログ原文

OpenAI は 2025年10月30日、ソフトウェア脆弱性を自律的に発見、検証し、修正を支援する AI-powered security researcher、Aardvark を発表しました。

要点

  • Aardvark は agentic security researcher として紹介された
  • 脆弱性の発見、検証、修正支援を大規模に行うことが狙い
  • private beta として早期テスト参加を募集
  • AppSec、DevSecOps、コードレビュー、自動修正に関係する

今回のブログ記事で語られていること

Aardvark は、AIをセキュリティ研究者のように使う方向を示す発表です。OpenAI は、Aardvark を AI-powered security researcher と呼び、ソフトウェア脆弱性を自律的に見つけ、検証し、修正を支援するシステムとして紹介しています。private beta 段階であるため、一般提供機能というより、セキュリティ運用と開発ワークフローにAIエージェントを深く入れる実験的な取り組みと見るべきです。

従来の静的解析や依存関係スキャンは、ルールに基づく検出や既知脆弱性の照合に強みがあります。一方、AIエージェント型のセキュリティ研究者は、コードの意図、データフロー、実行経路、攻撃可能性を推論し、検出した問題が本当に悪用可能かを検証し、修正案まで提示することが期待されます。これが実用化すれば、AppSecチームのボトルネックであるトリアージと修正支援を大きく変える可能性があります。

ただし、セキュリティ領域で自律性を高めるほど、誤検知、見逃し、危険なPoC生成、修正の副作用、秘密情報へのアクセスが問題になります。導入側は、AIにどのリポジトリを読ませるか、実行環境をどう隔離するか、修正PRを誰が承認するか、脆弱性情報をどこに保存するかを設計する必要があります。今回の記事は、AIエージェントがセキュリティ業務を補助する次の段階を示しています。

関係するチーム

  • AppSec、DevSecOps、SOC、セキュリティ研究
  • ソフトウェア開発、プラットフォーム、品質保証
  • 法務、脆弱性管理、リスク管理

実務で確認したいこと

  1. AIセキュリティ研究者に与えるコード・実行環境・権限を限定する
  2. 脆弱性検証と修正PRには人間レビューを必須にする
  3. 既存SAST/DAST/依存関係スキャンとの役割分担を決める

結局、今回のブログ記事をどう読むべきか

Aardvark は、AIが脆弱性発見から修正支援まで進む可能性を示します。本番導入では、自律性を高めるほど権限管理、レビュー、監査が重要になります。