Nvidia、Hugging Face、ServiceNowは、コード生成のための新しい大規模言語モデル(LLM)であるStarCoder2を発表した。このモデルは、開発ワークフロー内の様々なコード関連タスクを加速するために、600以上のプログラミング言語でトレーニングされている。StarCoder2は、BigCodeプロジェクトの一環として開発され、大規模言語モデルの責任ある開発と使用を目指している。Open Responsible AI Licenses(OpenRAIL)の下で、ロイヤリティフリーで提供される。
StarCoder2ファミリーのすべてのモデルは、Open RAIL-Mライセンスの下でロイヤリティフリーでアクセスおよび使用可能であり、サポートコードはBigCodeプロジェクトのGitHubリポジトリで利用できる。また、Hugging Faceからもすべてのモデルをダウンロードして使用できる。Nvidiaによってトレーニングされた15Bモデルは、Nvidia AI Foundationでも提供され、開発者はブラウザやAPIエンドポイントから直接実験できる。
StarCoder2は、Open RAIL-Mライセンスの下でロイヤリティフリーで提供され、GitHubやHugging Face、Nvidia AI Foundationを通じてアクセス可能です。これにより、開発者は容易にこの技術を試し、自身のプロジェクトに適用することができます。このようなオープンなアクセスは、技術の普及とイノベーションを促進する重要な要素です。
このケースは単独のものではありません。2024年にJournal of Experimental Criminologyに発表された学術研究でも、Draft Oneを含むAI支援報告書作成システムが実際の時間短縮効果を示さなかったという結果が報告されています。これらの事実は、Axon社の主張と実際の効果に重要な乖離があることを示しています。
技術的には、長文脈での「needle in a haystack(干し草の山の中の針)」的検索・想起の正確性が論点です。Anthropicは内部評価で100%の再現性を謳いますが、これはあくまで社内テストであり、実運用におけるコード異臭検知や設計上のトレードオフ把握など、多層的な推論の持続性は現場検証が不可欠です。ただし、プロジェクト全体像を”丸ごと”見渡せること自体は、ファイル粒度の分割では失われがちだった依存関係と設計意図を保ったまま提案できる余地を広げます。