Google Gemma のロゴ

Google Gemma / リリースノート / 2025/12/18 / 通常

Google Gemma 2025年12月18日リリースノート解説: FunctionGemma と T5Gemma v2

AImodel

公式リリースノート

2025年12月18日 の Google AI for Developers は「FunctionGemma and T5Gemma v2 releases」を公開しました。この記事では、Google Gemma の open model family を追う読者向けに、この更新をどう読むべきかを整理します。

要点

  • FunctionGemma and T5Gemma v2 releases が Gemma docs のリリース履歴に追加された
  • Gemma family の用途別展開を追ううえで重要な更新です
  • 採用判断ではモデルサイズ、実行場所、評価方法、安全策を分けて確認したい内容です

今回のリリースノートで語られていること

この日の更新は、Gemma family が年末に二方向へ広がったことを示します。FunctionGemma は 270M の軽量モデルで function calling に特化し、端末上のエージェントや API 操作に向きます。T5Gemma v2 は encoder-decoder 系を更新し、入力理解を重視するタスクの選択肢を増やします。どちらも「小さく、用途に合わせて鍛える」方向の Gemma 戦略を象徴しています。

Gemma の更新は、単に新しいモデル名が増える話ではありません。Gemini のような managed API と違い、Gemma はモデルをどこで動かすか、どのサイズを選ぶか、どのデータで調整するか、どの安全策を重ねるかを利用側が設計しやすい領域です。その自由度は強みである一方、評価、ライセンス、デプロイ先、推論コスト、ログ、データ境界、社内利用ルールを利用チーム自身が決める必要があります。

実務で読むなら、公式発表の性能説明だけでなく、自社のユースケースが「大きな汎用モデルを呼ぶべき仕事」なのか、「小さく特化したモデルをローカルや管理基盤上で動かすべき仕事」なのかを切り分ける材料として見るのが有効です。オンデバイス、医療・研究、埋め込み、画像理解、関数呼び出し、エージェント用途では、それぞれ確認すべき評価データと失敗時のリスクが変わります。

関係しそうなチーム

  • Gemma 系モデルを評価している開発者・ML 基盤チーム
  • オンデバイス、RAG、画像理解、医療・研究用途を検討するプロダクトチーム
  • open model の社内利用ルール、モデル配布、評価基準を整えるガバナンス担当

実務で確認したいポイント

  1. 対象モデルのサイズ、入力モダリティ、対応ツール、提供場所を確認する
  2. 既存の評価セットで品質、レイテンシ、メモリ、コストを比較する
  3. ライセンス、商用利用、データ境界、安全評価、社内レビューの要否を確認する
  4. Vertex AI、Hugging Face、Kaggle、Ollama、LiteRT など利用予定の実行経路を決める

結局、この発表をどう読むべきか

FunctionGemma and T5Gemma v2 releases は、Gemma を単一モデルではなく用途別の open model portfolio として見るための更新です。まず検証対象に入れるかを判断し、入れる場合は小さな評価セットと運用条件を先に決めるのがよさそうです。