Databricks のロゴ

Databricks / リリースノート / 2026/04/21 / 通常

Databricks 2026年4月21日(火)のリリースノート解説: H100 AI Runtime と Model Serving workload types

AIPublic Preview

公式リリースノート

4月21日の Databricks 更新は、AI Runtime と Model Serving の compute profile が主題です。モデルそのものではなく、どんな計算資源でどう載せるか に寄った日です。

要点

  • AI Runtime で 1xH100 accelerator が Beta になった
  • Model Serving で CPU_MEDIUM / CPU_LARGE workload types が Beta になった
  • GPU を使うか、CPU メモリを厚くするかの選択肢が増えた

今回の更新で変わること

AI 基盤では、モデル性能の議論ばかりが前に出ますが、実運用ではワークロード特性に合った compute profile を選べることが重要です。4月21日の更新は、その選択肢を具体的に広げています。

対象になりそうなユーザー・チーム

  • model serving の性能 / コストチューニングを行う人
  • GPU 前提でなくてもメモリ集約型ワークロードを扱う AI team
  • inferencing 基盤を設計する platform team

押さえておきたいポイント

AI Runtime 1xH100 accelerator (Beta)

H100 を使える選択肢が増えるのは単純に強いですが、全ユースケースに必要なわけではありません。高性能 GPU を本当に必要とするワークロードを見極めることが重要です。

CPU_MEDIUM / CPU_LARGE for Model Serving (Beta)

こちらのほうが実務的に効くケースも多いです。GPU が不要でも、標準 CPU profile ではメモリ不足になるモデルや前処理があります。CPU worker あたりのメモリを厚くできると、より細かなコスト最適化が可能になります。

読んだあとにまずやること

  1. 現在の serving workload が GPU 必須か見直す
  2. CPU memory-bound な endpoint 候補を洗い出す
  3. Beta 前提でベンチマーク計画を立てる

今すぐ対応が必要か

直ちに対応が必要かどうかは、すでに対象機能や連携を本番利用しているかで変わります。実務では次のように分けて考えると判断しやすいです。

  1. すでに該当機能や周辺連携を本番利用しているなら、早めに影響確認と運用見直しを進めたい
  2. これから導入や検証を行う段階なら、次回の設計・検証項目として押さえておきたい
  3. 現時点で利用範囲が重ならないなら、まずは情報把握にとどめても問題ない

結局、この日の更新をどう見るべきか

4月21日は、Databricks の AI 基盤が モデルを選ぶ だけでなく 載せ方を選ぶ 段階へ進んでいることが見える更新日でした。