AIモデル圧縮のリーダーであるMultiverse Computingは2026年2月24日、HyperNova 60B 2602をHugging Faceで無料公開したことを発表しました。1月にリリースされた初代HyperNova 60Bをベースとする本モデルは、OpenAIのgpt-oss-120Bを50%圧縮したバージョンであり、前バージョンと比較してツールコーリングおよびエージェンティックコーディングにおける改善を実現しています。
このリリースは、高性能AIをグローバルな開発者コミュニティに広くアクセス可能にするというMultiverseの継続的な取り組みを示すものであり、2026年中にさらなる圧縮モデルのリリースが計画されています。
From:
Multiverse Computing Opens Full Access to HyperNova 60B 2602 on Hugging Face
【編集部解説】
今回のニュースの核心は、スペインのMultiverse Computingが、OpenAIの公開モデルであるgpt-oss-120Bを独自技術で半分のサイズに圧縮し、しかもほぼ同等の性能を維持したモデルを無料公開したという点にあります。
まず、ベースとなったgpt-oss-120Bについて補足が必要でしょう。これはOpenAIが2025年に初めてApache 2.0ライセンスで公開したオープンウェイトモデルで、Mixture-of-Experts(MoE)アーキテクチャを採用しています。総パラメータ数は117Bですが、推論時にアクティブになるのは5.1Bパラメータのみという設計で、もともと単体のNVIDIA H100(80GB GPU)で動作するよう最適化されています。OpenAIによれば、推論性能はo4-miniに匹敵するとされています。
Multiverseが実現したのは、このモデルのメモリ使用量を61GBから32GBへと削減するという圧縮です。これにより、H100のような高価なGPUがなくとも、より手頃なハードウェアでフロンティアクラスの推論を実行できる可能性が広がります。
ここで注目すべきは、Multiverseの圧縮技術「CompactifAI」の原理です。従来の量子化やプルーニングといった圧縮手法では、50〜60%のサイズ削減で20〜30%の精度低下が生じるのが業界の通例とされてきました。CompactifAIは「テンソルネットワーク」と呼ばれる量子力学の研究で用いられる数学的構造を応用し、ニューラルネットワークの重み行列を再構成します。同社の共同創業者でCSO(最高科学責任者)のロマン・オルスは量子物理学の研究者であり、この学術的バックグラウンドが技術の独自性を支えています。
ただし、公平を期して指摘すべき点もあります。IT Briefの報道が言及しているように、今回の発表においてMultiverseの性能主張に対する独立した第三者検証は提供されていません。「最大95%の圧縮で精度損失2〜3%」というCompactifAIの性能指標は同社自身の発表に基づくものであり、独立した学術的検証を経たものかどうかは現時点で確認できていません。
ビジネス面でのMultiverseの勢いは注目に値します。2025年6月にBullhound Capital主導で2億1500万ドル(約322億円、1ドル=150円換算)のシリーズBを調達し、HP Tech Ventures、東芝、スペイン政府系ファンドSETTなどが参加しました。2026年2月にはBloombergが、同社が5億ユーロ(約800億円、1ユーロ=160円換算)の追加調達を進めており、バリュエーションが15億ユーロ(約2400億円、1ユーロ=160円換算)に達する見通しだと報じています。TechCrunchの取材に対し、同社は投資家との協議が進行中であることは認めたものの、具体的な金額についてのコメントは避けています。年間経常収益(ARR)が1億ユーロに達したとの報道についても同様です。
このニュースが持つ意味は、「AIの民主化」という文脈を超えたところにもあります。Multiverseはプレスリリースで「ソブリンソリューション」という言葉を使っており、TechCrunchはこの点を欧州のAI主権との関連で報じています。米国のビッグテック依存から脱却し、各国・各地域が自律的にAIインフラを運用する「AIソブリンティ」の動きは、EUのAI規制強化とも連動する潮流です。スペインのバスク地方発のスタートアップがこの文脈で存在感を示していることは、欧州AI産業の多極化を象徴しています。
開発者にとっての実利的な影響も大きいと考えられます。32GBという規模は、ハイエンドの消費者向けGPU(例えばNVIDIA RTX 4090の24GB VRAM)では依然として収まりませんが、クラウドでの推論コスト削減や、データセンターのGPU利用効率の向上には直結します。エッジコンピューティングへの展開も視野に入れた同社の戦略は、IoTやオンデバイスAIの実用化に向けた具体的な道筋を示すものと言えるでしょう。
一方で、潜在的なリスクにも目を向ける必要があります。圧縮技術は「元モデルの性能を保つ」ことを前提としますが、特定のタスクやエッジケースにおける性能劣化は、ベンチマーク数値だけでは捉えきれない場合があります。本番環境での広範な検証が不可欠であり、Multiverse自身もHugging Faceのモデルカードで「新興技術としての固有のリスク」に言及し、適切なセーフガードの適用を求めています。
また、オープンウェイトモデルの圧縮版が無料で広く配布されることは、高性能AIへのアクセス障壁を下げる反面、安全性の観点からは新たな課題を生む可能性も否定できません。OpenAIはgpt-ossの公開にあたり、敵対的ファインチューニングに対する安全性評価を実施し、生物化学・サイバーリスクの領域でHigh(高)評価には達しなかったと報告しています。圧縮版モデルにおいても同等の安全性プロファイルが維持されているかは、今後の検証課題となります。
長期的な視点で見ると、CompactifAIのような圧縮技術は、AI産業の構造そのものを変える可能性を秘めています。巨大なモデルを訓練できるのは一部の大企業だけですが、圧縮技術によって「訓練は大手に任せ、デプロイは自分たちの手で」という分業モデルが成立しうるからです。これは、AIの産業構造を半導体のファブレスモデルに近づける動きとも捉えられ、今後の業界再編に大きな影響を与えることになるかもしれません。
【用語解説】
Mixture-of-Experts(MoE)
ニューラルネットワークのアーキテクチャの一種で、複数の「エキスパート」サブネットワークのうち、入力に応じて一部だけを選択的に活性化する設計。全パラメータを常時使用しないため、大規模モデルでも推論時の計算コストを抑えることができる。
テンソルネットワーク(Tensor Network)
量子力学や多体物理学の分野で発展した数学的手法。高次元のデータを、小さな行列(テンソル)のネットワークとして効率的に表現する。CompactifAIでは、この手法をニューラルネットワークの重み行列の圧縮に応用している。
ツールコーリング(Tool Calling)
大規模言語モデルが外部のAPIやツール(検索エンジン、コード実行環境、データベースなど)を呼び出して利用する機能。エージェント型AIワークフローの基盤となる重要な能力。
エージェンティックコーディング(Agentic Coding)
AIが自律的にコードを記述、実行、デバッグする能力。ツールコーリングと組み合わせることで、開発者の介入を最小限に抑えた自動化ワークフローを実現する。
AIソブリンティ(AI Sovereignty)
各国・各地域が、他国の大手テック企業に依存せず、自律的にAIインフラやモデルを開発・運用する能力を持つこと。データ主権やセキュリティの観点から、EU諸国を中心に重視されている概念。
オープンウェイト(Open Weight)
学習済みモデルの重み(パラメータ)を公開すること。ソースコード全体を公開する「オープンソース」とは異なり、モデルの利用・改変は許可しつつ、学習データや訓練手法は非公開とする場合が多い。
【参考リンク】
Multiverse Computing公式サイト(外部)
スペイン・ドノスティア拠点のAIモデル圧縮企業。CompactifAI技術や製品情報を掲載。
HyperNova 60B 2602 – Hugging Face(外部)
今回リリースされた圧縮モデルのダウンロードページ。技術文書やベンチマークも公開。
OpenAI gpt-oss-120b – Hugging Face(外部)
HyperNovaのベースとなったOpenAIのオープンウェイトモデル。モデルカードや使用方法を掲載。
Introducing gpt-oss – OpenAI公式ブログ(外部)
OpenAI初のオープンウェイトモデルgpt-ossシリーズの公式発表ページ。設計思想を解説。
CompactifAI – Multiverse Computing(外部)
量子インスパイアード圧縮技術CompactifAIの技術概要と導入事例を紹介する公式ページ。
【参考記事】
Spanish ‘soonicorn’ Multiverse Computing releases free compressed AI model(外部)
TechCrunchによるHyperNova 60B 2602の詳報。資金調達やMistral AIとの競合関係も分析。
Multiverse Computing Launches Quantum Inspired HyperNova 60B 2602(外部)
Quantum Zeitgeistが量子インスパイアード技術の観点からCompactifAIの技術的意義を解説。
Multiverse debuts HyperNova 60B compressed AI model(外部)
IT Brief Australiaの報道。第三者検証が未提供である点を指摘した中立的な記事。
Report: AI model compression startup Multiverse seeking €500M funding round(外部)
SiliconANGLEがBloomberg報道を基にMultiverseの5億ユーロ調達計画を報じた記事。
Multiverse Computing raises $215M for tech that could radically lower AI costs(外部)
TechCrunchによる2025年6月のシリーズB調達の詳報。CompactifAI技術と創業者の経歴を紹介。
gpt-oss-120b & gpt-oss-20b Model Card – OpenAI(外部)
gpt-ossモデルの安全性評価や敵対的ファインチューニングテストの結果を詳述した公式文書。
Quantum physicists have shrunk and “de-censored” DeepSeek R1(外部)
MIT Technology Reviewが報じたMultiverseによるDeepSeek R1圧縮事例。技術原理の解説あり。
【編集部後記】
AIモデルの「大きさ」と「賢さ」は本当に比例するのか——今回のニュースは、その常識に一石を投じるものかもしれません。圧縮技術の進化は、高性能AIを一部の巨大企業だけのものではなく、より多くの開発者や組織の手に届けようとしています。みなさんが関わるプロジェクトや日々の業務の中で、「このAI、もっと軽く動かせたら」と感じた場面はありませんか。そうした実感こそが、この技術の行方を見極める最良の視点になるのではないでしょうか。

