Gemma 4 正式発表——スマートフォンがオフライン動作する時代へ

Gemma 4 正式発表——スマートフォンがオフライン動作する時代へ

Google DeepMindは2026年4月2日、オープンモデルファミリー「Gemma 4」を発表した。Gemini 3と同一の研究技術を基盤に開発され、E2B、E4B、26B MoE、31B Denseの4サイズで構成される。

31BモデルはArena AIテキストリーダーボードでオープンモデル世界3位、26B MoEは6位にランクされる。Gemmaシリーズはこれまでに4億回以上ダウンロードされ、10万種類以上のバリアントが存在する。140以上の言語でトレーニングされており、エッジモデルは128K、大型モデルは最大256Kのコンテキストウィンドウを持つ。

Apache 2.0ライセンスのもとで公開され、Hugging Face、KaggleおよびOllamaからモデルウェイトを入手できる。

From: 文献リンクGemma 4: Byte for byte, the most capable open models

【編集部解説】

今回のGemma 4発表において、最も見逃せない点はモデルの性能そのものよりも、ライセンスの変更にあります。これまでのGemmaシリーズはGoogleが独自に定めた「Gemma Open」ライセンスで提供されており、商用利用には一定の制約がありました。今回初めてApache 2.0に切り替えたことで、企業や開発者はモデルの改変・再配布・商用組み込みを従来よりもはるかに明確な条件のもとで進めやすくなりました。

この決断の背景には、オープンモデル市場での競争激化があります。MetaのLlama 4は独自のコミュニティライセンスに月間アクティブユーザー7億人という上限を設けており、EU域内ではマルチモーダル機能の利用が制限されています。一方、AlibabaのQwen 3.5やMistral Small 4はすでにApache 2.0を採用済みです。Googleは今回、ライセンス面での「不利」をようやく解消したことになります。

性能面では、特に数学・推論・コーディングの向上が突出しています。競合メディアの検証によれば、数学ベンチマーク「AIME 2026」でGemma 3の20.8%からGemma 4は89.2%へと急伸し、コーディング評価「LiveCodeBench v6」では80.0%(Gemma 3: 29.1%)を記録しています。こうした改善の背景には「思考モード(Thinking Mode)」の導入等が寄与している可能性があり、モデルが中間推論を活用する設計により、複雑な問題を段階的に処理しやすくなっています。

アーキテクチャの観点でも注目すべき設計があります。26B MoEモデルは総パラメーター数こそ260億ですが、推論時に起動するのは38億パラメーターのみです。これにより、計算効率を抑えつつ高い性能を狙う設計になっています。MoE(Mixture of Experts)はMistralやDeepSeekが先行して採用してきた手法ですが、Googleがこの構造をオープンモデルに本格採用したことで、業界全体の設計思想に影響を与えそうです。

エッジ展開の現実性も、今回のリリースで大きく変わります。LiteRT-LMランタイムを用いると、対応デバイスではE2Bモデルを1.5GB未満のメモリで動作させられることが確認されています。これは、スマートフォンやRaspberry Piでも本格的なマルチモーダルAIを動かせることを意味します。Qualcomm系プラットフォームやAndroid向け実装の進展により、Android端末での普及も現実味を増しています。

一方、客観的な目線を保つために触れておかなければならない点もあります。Arena AIのリーダーボード全体で見ると、QwenシリーズやZhipu AIのGLM-5、MoonshotのKimi K2.5といった中国発モデルがGemma 4の上位に位置しています(記事執筆時点)。Googleが示すグラフはGPT-OSS-120Bとの比較を前面に出していますが、より直接的な競合他社との差は小さくはありません。ベンチマーク数値は重要な参考指標ではあるものの、実際のプロダクト用途での体験とは必ずしも一致しない点には留意が必要です。

潜在的なリスクにも目を向けておきましょう。クラウドを介さないローカル推論は、プロバイダー側によるコンテンツ監視が機能しません。悪意ある利用者が検閲なしにモデルを動かせる環境は、誤情報生成やフィッシングコンテンツ作成への悪用リスクを高めます。オープン化と安全性のバランスは、今後の規制論議においても中心的な議題になっていくでしょう。

長期的な視点では、Googleのこの動きは「プロプライエタリ(Gemini)+オープン(Gemma)」の二刀流戦略の深化と読み取れます。開発者がGemmaで慣れ親しんだアーキテクチャやエコシステムが、そのままVertex AIやGoogle Cloudへのオンランプになる構造です。Apache 2.0によって入口の敷居を下げつつ、スケールアウト時にはGoogleのインフラへ誘導するというロードマップが透けて見えます。

AIが特定のクラウド事業者に依存せず、手元のデバイスやオンプレミス環境で動く時代が、着実に近づいています。Gemma 4はその流れを加速する一石であり、日本の開発者やスタートアップにとっても、選択肢の質が一段上がったことを意味しています。

【用語解説】

MoE(Mixture of Experts)
日本語で「専門家の混合」を意味するアーキテクチャ。全パラメーターを常時使うのではなく、入力に応じて一部の「専門家」ネットワークだけを選択的に起動する設計。

コンテキストウィンドウ
モデルが1度のプロンプトで処理・参照できるテキストの最大長。単位はトークン(単語やフレーズの断片)。

エージェンティック・ワークフロー
AIが人間の逐次指示を待たず、外部ツールやAPIと連携しながら複数ステップのタスクを自律的に完遂する仕組み。「情報収集→判断→実行」のサイクルを自動的に繰り返せるため、単なるチャットを超えた実用アプリケーションの構築に必要な機能である。

ファインチューニング
事前学習済みのベースモデルを、特定のタスクやドメインのデータで追加学習させること。

Apache 2.0ライセンス
オープンソース・ソフトウェアの許諾条件の一つ。改変・再配布・商用利用を使用料なしで自由に行えるライセンスであり、法的な不確実性がきわめて低い。

AIME 2026
アメリカ数学招待試験(American Invitational Mathematics Examination)の2026年版。難易度の高い数学コンテストであり、AIの数学推論能力を測るベンチマークとして広く参照される。

【参考リンク】

Google DeepMind — Gemma 4 公式ページ(外部)
Gemma 4の概要・能力・利用方法を網羅したGoogle DeepMind公式プロダクトページ。モデルカードやベンチマーク結果も確認できる。

Hugging Face — Google Gemma 4 コレクション(外部)
Gemma 4の全モデルウェイトが公開されているHugging Faceのコレクション。各サイズのモデルカードとダウンロードリンクにアクセスできる。

Kaggle Models — Gemma 4(外部)
GoogleがKaggle上で公開するGemma 4のモデルページ。ダウンロードや実行コード例の参照が可能だ。

Ollama(外部)
ローカルマシン上でオープンモデルをコマンド一つで実行できるツール。Gemma 4を含む多数のモデルに即座に対応している。

Arena AI — テキストリーダーボード(外部)
人間の評価をもとにAIモデルをランキングするプラットフォーム。Gemma 4(31B)が世界3位を記録した業界標準の指標だ。

Google AI Studio(外部)
Gemma 4(31Bおよび26B MoE)をブラウザ上で試せるGoogleの開発者向けプラットフォームだ。

【参考記事】

Google’s Gemma 4 is now available with Apache 2.0 licensing for the first time(外部)
4モデルの詳細比較表を掲載。Arena AIスコアやAIME 2026(31B: 89.2%)など、具体的な数値でアーキテクチャの特徴を整理している。

Gemma 4 vs Qwen 3.5 vs Llama 4: Updated Benchmarks, New Leader(外部)
Gemma 3→Gemma 4の性能変化を数値で詳述。思考モードの効果やMeta Llama 4のEU制限にも踏み込んでいる。

Gemma 4: Google’s New Open Source LLMs Lag Behind Chinese Competitors(外部)
高い数値を記録しながらも中国発モデルに後れを取る側面を公正に評価した分析記事だ。

Google Drops Custom AI License for Gemma 4, Targets Local Developers(外部)
Apache 2.0移行の意義とGoogleの「Land-and-Expand」戦略をスタートアップ視点から論じている。

Google releases Gemma 4 under Apache 2.0 — and that license change may matter more than benchmarks(外部)
ライセンス変更こそが発表の核心と論じるVentureBeatの分析。中国AI勢との動向と対比して論じている。

Bring state-of-the-art agentic skills to the edge with Gemma 4(外部)
LiteRT-LMでのE2B動作要件(対応デバイスで1.5GB未満)などエッジ展開の技術詳細を網羅した公式記事だ。

【編集部後記】

今回の記事を執筆しながら、改めてライセンスという「見えにくい条件」がいかに開発者の意思決定を左右するかを実感しました。性能のベンチマークは数字で比較できますが、ライセンスの制約はプロダクトを実際に作りはじめてから初めてその重さがわかるものです。Gemma 4がApache 2.0を採用したことで、日本国内の開発者やスタートアップにとっても、オープンモデルを起点にしたプロダクト開発の選択肢が実質的に広がりました。Gemmaverseのエコシステムが今後どう進化していくか、引き続き注目してお伝えしていきます。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です