OpenAI / ChatGPT / Codex のロゴ

OpenAI / ChatGPT / Codex / 公式ブログ / 2025/09/12 / 重要

OpenAI 2025年9月12日の公式発表解説: US CAISI / UK AISI と安全なAIシステム構築

AIセキュリティ

公式ブログ原文

OpenAI は 2025年9月12日、US CAISI と UK AISI とのパートナーシップの進捗を共有し、AI安全性とセキュリティを強化する取り組みを説明しました。

要点

  • OpenAI が米国 CAISI、英国 AISI との協力進捗を公開
  • 政府のAI安全機関との連携により、AIシステムの安全性・セキュリティを高める
  • フロンティアモデルでは、外部評価、情報共有、リスク低減が重要
  • AIガバナンス、セキュリティ、公共政策、調達担当が確認したい

今回のブログ記事で語られていること

この発表は、OpenAIが政府系AI安全機関と連携し、より安全でセキュアなAIシステムを構築しようとしていることを示します。US CAISI と UK AISI は、AI安全性やセキュリティ評価に関わる重要な機関であり、OpenAIとの協力はフロンティアモデルのリスク管理において大きな意味を持ちます。AIモデルが高性能になるほど、サイバー、バイオ、誤用、社会的影響、システム安全性の評価が不可欠になります。

政府機関との連携は、企業自身の自己評価だけではなく、外部の専門的な視点を取り入れるために重要です。モデルのリリース前後でリスクを評価し、危険な能力や脆弱性を把握し、必要なセーフガードを検討することで、社会的信頼を高めることができます。特に国境を越えて使われるAIでは、米国と英国の安全機関との協力は国際的な安全基準形成にも関係します。

企業利用者にとっては、ベンダーが政府や外部機関とどのように安全性評価を行っているかが評価材料になります。ただし、外部機関との連携があるからといって、自社用途のリスク評価が不要になるわけではありません。利用企業は、自社データ、自社業務、業界規制に合わせた追加評価、監査、利用ポリシーを持つ必要があります。

関係するチーム

  • AIガバナンス、セキュリティ、リスク管理、公共政策
  • フロンティアモデルを本番利用するAIプラットフォームチーム
  • 調達、法務、コンプライアンス、ベンダー評価担当

実務で確認したいこと

  1. OpenAIの外部安全性評価・政府連携の公開資料を確認する
  2. 自社用途で追加のセキュリティ評価とレッドチームを行う
  3. モデル更新時のリスク情報を調達・ガバナンスに反映する

結局、今回のブログ記事をどう読むべきか

US CAISI / UK AISI との協力は、OpenAIがフロンティアAIの安全性を外部機関と評価していることを示します。利用企業はこれを参考にしつつ、自社リスク評価も続ける必要があります。