Rakuten AI 3.0、DeepSeek-V3ベースを隠蔽か——ライセンス削除で炎上、「国産AI」の定義を問う

楽天グループは2026年3月17日、「日本最大規模」のAIモデル「Rakuten AI 3.0」を公開した。しかし技術愛好家により、同モデルがDeepSeekの「DeepSeek-V3」をベースに学習されたものであることが判明した。初期リリース版ではDeepSeek-V3のMITオープンソースライセンスファイル(LICENSE)が削除されており、ライセンス規約違反として批判を受けた。また、日本政府の補助による計算リソースを使用しながら完全な自社開発成果を示せなかったことへの反発もあった。

翌3月18日、楽天グループはオープンソースリポジトリに「NOTICE」ファイルを追加し、DeepSeek-V3の原表示を記載した。MITライセンスはファイル名を厳密に規定していないため、法的には規約準拠の状態に戻ったが、コミュニティからは「透明性の欠如」との批判が続いている。楽天グループはライセンスを削除した理由について説明していない。

From: 文献リンクJapan Rakuten AI 3.0 Falls into Open Source Controversy: Urgent Remediation After Unauthorized Removal of DeepSeek License

【編集部解説】

今回の騒動を理解するには、まず「何が問題だったのか」を技術的な観点から整理する必要があります。

Rakuten AI 3.0のHugging Face上の設定ファイル(config.json)には、アーキテクチャとして「DeepseekV3ForCausalLM」、モデルタイプとして「deepseek_v3」と明記されていました。総パラメータ数約671B、トークンごとの活性化パラメータ37B、隠れ層数61層、ルーテッド・エキスパート数256、語彙サイズ129,280といった技術仕様はDeepSeek-V3のそれと完全に一致しており、これは発表からわずか数時間で開発者コミュニティに発見されました。つまり今回の「暴露」は高度な解析によるものではなく、誰でもアクセスできる公開ファイルを確認すれば一目瞭然だったのです。

ライセンス問題については、少し丁寧に説明します。DeepSeek-V3はMITライセンスで公開されており、このライセンスは商用利用・改変・再配布を広く認める非常に寛容なものです。ただし唯一の条件として、派生物には「元の著作権表示とライセンス表示を保持すること」が求められます。楽天はリリース時にこのライセンスファイル(LICENSE)を削除した状態で公開し、翌日「NOTICE」ファイルとして追加対応しました。MITライセンスはファイル名を厳密に規定していないため、法的には是正済みとされますが、なぜ最初から含まれていなかったのかという点については説明がないままです。

炎上の核心は、ライセンス違反そのものよりも「文脈の欺瞞」にあります。楽天の公式プレスリリースには「オープンソースコミュニティの優れた成果を活用し、楽天独自のバイリンガルデータで開発した」と記されており、技術的には虚偽ではありません。しかし発表の全体的な文脈は「日本最大規模の国産AIモデル」という印象を強く打ち出すものでした。ベースモデルの名前を一切明示しないまま「日本最大」を謳うその姿勢が、コミュニティから「誠意がない」と受け取られた本質的な理由です。

さらに深刻なのが、GENIACプロジェクトとの関係です。GENIACは、経済産業省(METI)と新エネルギー・産業技術総合開発機構(NEDO)が推進する、日本の生成AI自律開発基盤の確立を目的としたプロジェクトです。楽天は2025年7月に同プロジェクトの第3期に採択されており、Rakuten AI 3.0の学習費用の一部はこのGENIACの補助を受けています。国民の税金を原資とした補助金で「中国製アーキテクチャの日本語ファインチューニング」を「国産AI」として宣伝することへの批判は、感情論だけではなく、政策上の正当性という問いでもあります。

一方で、技術的な観点からは、このアプローチ自体は必ずしも否定されるものではありません。世界最高水準のオープンソースモデルをベースに、高品質な日本語データで特化チューニングを施すことは、合理的かつ効率的な開発手法です。実際、国内でもABEJAがオープンソースモデルをベースにしたモデルを展開していますが、ベースモデルを明示することで批判を受けていません。楽天との差は、技術選択ではなく「情報開示の姿勢」にあります。

セキュリティ面での懸念についても触れておきます。「DeepSeekベース=中国サーバーへの情報漏洩」という声も上がりましたが、これは技術的な誤解です。Rakuten AI 3.0はオープンウェイトモデルとして公開されており、ローカル環境や閉じたサーバー上で動作させることが可能です。モデルの重みを借りているだけであり、入力データが外部に送信される構造にはありません。ただし、ファインチューニングが十分でない場合、ベースモデルであるDeepSeek-V3の中国語アライメントが残存し、政治的・文化的な質問に対して中国寄りの回答が出るという報告も複数あり、この点は実用上の課題として残ります。

このニュースが持つ最も重要な長期的意味は、「国産AI」の定義をめぐる問いを日本社会に突きつけたことです。ゼロからアーキテクチャを構築することが「国産」なのか、それとも最良のオープンソース基盤を活用して日本語と日本文化に最適化することが「国産」なのか。現時点で日本が671Bクラスのモデルを完全自社開発する計算資源と資本を持ち合わせているかは疑わしく、「オープンソースを活用した上での日本語最適化」という戦略は現実的な選択肢です。問題はその選択を、透明性をもって社会に説明できるかどうかでした。今回の件は、技術力の問題ではなく、コミュニケーション戦略の失敗として記憶されるでしょう。

オープンソースAIの普及が加速する中、政府補助を受けた企業がどこまで情報開示を義務付けられるべきかという規制論議も、今後の焦点になる可能性があります。今回の炎上は、日本のAI政策における「透明性の基準」を問い直す契機となりえます。

【用語解説】

MITライセンス
オープンソースソフトウェアで広く使われる許諾条件のひとつ。商用利用・改変・再配布を広く認める一方、派生物には「元の著作権表示とライセンス表示の保持」のみを義務付ける、極めて寛容なライセンスである。

Apache 2.0ライセンス
MITライセンスと同様に商用利用・改変・再配布を認めるオープンソースライセンス。MITとの主な違いは特許権の明示的な付与条項が含まれる点で、企業が採用しやすい設計になっている。Rakuten AI 3.0はこのライセンスで公開されている。

MoE(Mixture of Experts)
複数の「専門家(エキスパート)」モジュールを持ち、入力トークンごとに一部のモジュールだけを選択・活性化するモデル構造。全パラメータを常時使用しないため、巨大なモデルでも推論コストを抑えられる。DeepSeek-V3およびRakuten AI 3.0はともにこの構造を採用している。

ファインチューニング
既存の学習済みモデルに対して、特定の用途や言語向けに追加学習を行うこと。ゼロからモデルを構築するよりも大幅に少ない計算コストで、特化した能力を付与できる。今回の楽天の手法がこれにあたる。

オープンウェイトモデル
モデルの重み(パラメータデータ)が公開されており、誰でもダウンロードして自前の環境で動かせるモデルのこと。外部サーバーに接続せずローカルで動作させられるため、情報漏洩のリスクは構造上発生しない。

アライメント
AIモデルが特定の価値観・文化・指示に沿った回答を返すよう調整する訓練プロセスのこと。ベースモデルのアライメントが引き継がれると、文化的・政治的な回答傾向もベースモデルの影響を受ける場合がある。

config.json
Hugging Faceなどで公開されるAIモデルのアーキテクチャや設定情報を記述したファイル。今回はこのファイル内の記述から、Rakuten AI 3.0がDeepSeek-V3ベースであることが発覚した。

【参考リンク】

楽天グループ株式会社|Rakuten AI 3.0 公式プレスリリース(外部)
Rakuten AI 3.0のリリース概要、GENIACとの関係、ベンチマーク結果、チーフAI&データオフィサーのコメントが記載された公式発表ページ。

DeepSeek 公式サイト(外部)
DeepSeek-V3をはじめとするオープンソースAIモデルを公開する中国AI企業の公式サイト。MITライセンスのもとで商用利用・改変・再配布が許可されている。

Hugging Face|Rakuten公式リポジトリ(外部)
Rakuten AI 3.0が公開されているHugging Faceの楽天公式リポジトリ。今回の発覚の舞台となったconfig.jsonもここで確認できる。

経済産業省|GENIACプロジェクト公式ページ(外部)
経産省とNEDOが推進する生成AI開発支援プロジェクト「GENIAC」の公式情報。楽天は第3期採択事業者として名を連ねている。

株式会社ABEJA 公式サイト(外部)
GENIACにも参画する日本のAI企業。オープンソースベースモデルを明示した透明性ある開発姿勢が、今回の楽天との対比で言及された。

【参考記事】

Rakuten AI 3.0 linked to DeepSeek V3, licensing questioned in Japan(Aitoolsbee)(外部)
Apache 2.0とMITの違い、ベンチマーク比較の妥当性、チーフAIオフィサーの経歴などを英語圏視点で分析した記事。

Rakuten’s ‘homegrown’ AI sparks controversy after community reveals DeepSeek V3 architecture(DotDotNews)(外部)
671B総パラメータ・37B活性化パラメータの一致を確認し、GENIACの目的と結果の矛盾を指摘した英語記事。

Rakuten AI 3.0 DeepSeek Controversy(Aihola)(外部)
楽天プレスリリースの表現構造を精査し、中国寄りアライメントが残存するメカニズムについて技術的に言及した記事。

【編集部後記】

「国産AI」とは何か、あなたはどう定義しますか?ベースモデルの出自よりも、そこに積み上げられたデータや技術の文脈こそが本質、という見方もあるはずです。

オープンソースの恩恵を受けながら社会に価値を届けることと、透明性を持って語ること——その両立がいかに難しく、いかに重要かを、この事件はあらためて私たちに問いかけているように感じています。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です