Databricks / リリースノート / 2026/04/21 / 通常
Databricks 2026年4月21日(火)のリリースノート解説: H100 AI Runtime と Model Serving workload types
公式リリースノート
4月21日の Databricks 更新は、AI Runtime と Model Serving の compute profile が主題です。モデルそのものではなく、どんな計算資源でどう載せるか に寄った日です。
要点
- AI Runtime で
1xH100accelerator が Beta になった - Model Serving で
CPU_MEDIUM/CPU_LARGEworkload types が Beta になった - GPU を使うか、CPU メモリを厚くするかの選択肢が増えた
今回の更新で変わること
AI 基盤では、モデル性能の議論ばかりが前に出ますが、実運用ではワークロード特性に合った compute profile を選べることが重要です。4月21日の更新は、その選択肢を具体的に広げています。
対象になりそうなユーザー・チーム
- model serving の性能 / コストチューニングを行う人
- GPU 前提でなくてもメモリ集約型ワークロードを扱う AI team
- inferencing 基盤を設計する platform team
押さえておきたいポイント
AI Runtime 1xH100 accelerator (Beta)
H100 を使える選択肢が増えるのは単純に強いですが、全ユースケースに必要なわけではありません。高性能 GPU を本当に必要とするワークロードを見極めることが重要です。
CPU_MEDIUM / CPU_LARGE for Model Serving (Beta)
こちらのほうが実務的に効くケースも多いです。GPU が不要でも、標準 CPU profile ではメモリ不足になるモデルや前処理があります。CPU worker あたりのメモリを厚くできると、より細かなコスト最適化が可能になります。
読んだあとにまずやること
- 現在の serving workload が GPU 必須か見直す
- CPU memory-bound な endpoint 候補を洗い出す
- Beta 前提でベンチマーク計画を立てる
今すぐ対応が必要か
直ちに対応が必要かどうかは、すでに対象機能や連携を本番利用しているかで変わります。実務では次のように分けて考えると判断しやすいです。
- すでに該当機能や周辺連携を本番利用しているなら、早めに影響確認と運用見直しを進めたい
- これから導入や検証を行う段階なら、次回の設計・検証項目として押さえておきたい
- 現時点で利用範囲が重ならないなら、まずは情報把握にとどめても問題ない
結局、この日の更新をどう見るべきか
4月21日は、Databricks の AI 基盤が モデルを選ぶ だけでなく 載せ方を選ぶ 段階へ進んでいることが見える更新日でした。