Metaは、競合他社に追いつくために、独自のAI技術開発に数十億ドルを投資している。この投資の大部分は、AI研究者の採用と、MetaのAIモデルを実行・訓練するためのハードウェア、特にチップの開発に充てられている。Metaは、Intelが最新のAIアクセラレータハードウェアを発表した翌日に、自社のチップ開発の最新成果である「次世代」Meta Training and Inference Accelerator(MTIA)を発表した。このチップは、Metaのプラットフォーム(例:Facebook)での広告のランキングや推薦に使用されるモデルを実行する。次世代MTIAは、前モデルのMTIA v1が7nmプロセスであったのに対し、5nmプロセスで製造されている。物理的に大きく、より多くの処理コアを搭載しており、消費電力は90W(MTIA v1は25W)、内部メモリは128MB(MTIA v1は64MB)、平均クロック速度は1.35GHz(MTIA v1は800MHz)となっている。Metaによると、次世代MTIAは現在16のデータセンターリージョンで稼働しており、MTIA v1と比較して最大3倍のパフォーマンス向上を実現しているという。
MetaがAI技術開発のために数十億ドルを投資し、その一環として自社開発の最新AIチップ「次世代Meta Training and Inference Accelerator(MTIA)」を発表しました。このチップは、Metaのプラットフォーム上での広告表示のランキングや推薦などに使用されるAIモデルを実行するために設計されています。前モデルに比べて、製造プロセスが5nmに縮小され、物理的なサイズ、処理コアの数、内部メモリ、クロック速度が増加し、消費電力も増加していますが、パフォーマンスは最大3倍向上しています。
このケースは単独のものではありません。2024年にJournal of Experimental Criminologyに発表された学術研究でも、Draft Oneを含むAI支援報告書作成システムが実際の時間短縮効果を示さなかったという結果が報告されています。これらの事実は、Axon社の主張と実際の効果に重要な乖離があることを示しています。
技術的には、長文脈での「needle in a haystack(干し草の山の中の針)」的検索・想起の正確性が論点です。Anthropicは内部評価で100%の再現性を謳いますが、これはあくまで社内テストであり、実運用におけるコード異臭検知や設計上のトレードオフ把握など、多層的な推論の持続性は現場検証が不可欠です。ただし、プロジェクト全体像を”丸ごと”見渡せること自体は、ファイル粒度の分割では失われがちだった依存関係と設計意図を保ったまま提案できる余地を広げます。