Linuxカーネル、AI生成コードを正式解禁――責任はすべて人間が負う

Linuxカーネルプロジェクトは2026年4月11日、AIを活用したコード提供を認める正式なポリシーを策定し、カーネルの公式リポジトリにドキュメントを公開した。

新ポリシーのもとでは、すべての貢献者がAIツールの使用有無にかかわらず、Developer Certificate of Origin(DCO)を通じてサインオフを行う義務がある。AIシステム自身による署名は認められず、開発者はGPL-2.0との互換性を自ら確認しなければならない。ポリシーはAIコーディングアシスタントをコンパイラやテキストエディタと同様のツールと位置づけ、法的・技術的責任のすべてを人間の貢献者に課す。

Hacker Newsでは、著作権のある素材を学習したAIが生成したコードをGPLのもとで再ライセンスできるかどうかをめぐり議論が起きている。OpenAIやAnthropicの企業向け契約における補償条項も議論の対象となったが、貢献者の署名による法的保護は法廷で検証されていない。

From: 文献リンクLinux Kernel Now Accepts AI-Generated Code With Full Human Accountability

【編集部解説】

今回の正式ポリシー策定は、突然の方針転換ではありません。その起点は2025年7月、NVIDIAのカーネルメンテナーであるサーシャ・レヴィンが最初の草案(RFC)を提出したことにあります。その後、2025年のLinuxカーネル・メンテナーズサミットでリーナス・トーバルズを含む主要メンテナーたちが議論を重ね、合意に至りました。ドキュメントは2025年12月23日にコミットされ、ドキュメントメンテナーのジョナサン・コーベットの承認を経て、2026年4月初旬にトーバルズのメインツリーへ正式にマージされています

このポリシーの核心にあるのが「DCO(Developer Certificate of Origin)」という仕組みです。これはコードを提出する開発者が「このコードはGPL-2.0と互換性があり、私には提出する権利がある」と法的に宣言するものです。Linuxカーネルへのすべてのパッチには、この宣言を意味するSigned-off-byタグが必要ですが、新ポリシーではAIエージェントがこのタグを追加することを明示的に禁止(原文では大文字で「MUST NOT」と記載)しています。AIが法的宣言の主体にはなれないという、至極合理的な判断です。

注目すべき点は、新たに導入されたAssisted-byタグです。Assisted-by: Claude:claude-3-opus coccinelle sparseのように、使用したAIエージェントの名称とモデルバージョンを記載する形式で、AIを「共同開発者」ではなく「補助ツール」という位置づけを明確にしています。このタグは推奨であり、義務ではありません。トーバルズ自身も「悪意ある提出者は開示しないのだから、ガイドラインは善意ある貢献者のためのものだ」との見解を示しており、強制執行を意図した仕組みではないことが分かります。

ポジティブな側面として、これはAI支援開発が「実験段階」から「主流のワークフロー」へと移行したことを示す重要なシグナルです。AndroidスマートフォンからスーパーコンピューターまでLinuxが動いているインフラ規模を考えれば、世界で最も厳格なコードレビューを持つプロジェクトがAIツールの活用に道を開いたことの意味は大きいと言えます。

一方で潜在的なリスクも存在します。著作権のある素材を学習データとして使ったAIが生成したコードを、GPL-2.0のもとで再ライセンスできるかという法的問題は未解決のままです。OpenAIやAnthropicが企業向け契約に補償条項を設けていることは、これらの企業自身がリスクを認識している証左とも受け取れます。貢献者のサインオフがプロジェクト全体の法的責任を実際に遮断できるかどうかは、いまだ法廷で問われていません。

規制面への影響という観点でも、このポリシーは一つの雛形となる可能性があります。GitHubやGitLabなどのプラットフォーム、あるいは他のオープンソースプロジェクトが類似のポリシーを策定する際の参照点になることが予想され、AI生成コードの帰属と法的責任のあり方を業界全体で議論する契機となりえます。

長期的な視点で見れば、このポリシーが示す「AIを禁止せず、人間に責任を持たせる」というアプローチは、今後のAI活用における一つの規範モデルです。コード開発にとどまらず、AIが生成したコンテンツ全般における人間の説明責任のあり方として、より広い文脈で参照される可能性があります。AIツールが急速に普及するなかで、Linuxコミュニティが示したこの「実用主義」は、未来のガバナンスを考えるうえで注目に値します。

【用語解説】

GPL-2.0(GNU General Public License version 2.0)
オープンソースソフトウェアの代表的なライセンスの一つ。このライセンスのもとで配布されるソフトウェアは、改変・再配布が自由である一方、派生物にも同じライセンスを適用しなければならない。Linuxカーネルはこのライセンスのもとで公開されている。

Signed-off-by タグ
Linuxカーネルへのパッチ提出時に必須となる記述。「このコードはGPL-2.0と互換性があり、私には提出する権利がある」とDCOに基づいて法的に宣言するもの。今回のポリシーでは、AIエージェントによるこのタグの追加を明示的に禁止している。

Assisted-by タグ
今回のポリシーで新たに導入されたAI使用の開示タグ。使用したAIエージェントの名称とモデルバージョンを記載する形式で、AIを「共同開発者」ではなく「補助ツール」として位置づける。記載は推奨であり、義務ではない。

RFC(Request for Comments)
ここではインターネット標準文書のことではなく、カーネル開発における「草案提案」を指す。正式なポリシーや仕様を策定する前に、コミュニティからフィードバックを募るために公開される初期提案のこと。

Linuxカーネル・メンテナーズサミット
毎年開催されるLinuxカーネルの主要メンテナーたちによる招待制の会議。カーネル開発の方針や課題について議論し、合意形成を行う場であり、今回のAIポリシーもこのサミットでの議論をもとに策定された。

パッチ(Patch)
既存のソフトウェアに対する修正・追加・改善のためのコードの差分のこと。Linuxカーネルの開発では、貢献者がこのパッチをメーリングリストに投稿し、メンテナーによるレビューを経てマージされる。

【参考リンク】

Linux Kernel Documentation — Coding Assistants(外部)
Linuxカーネル公式ドキュメント。AIコーディングアシスタントを使ってカーネルへ貢献する際のルールをまとめた、今回のポリシーの原文にあたるページ。

Hacker News(Y Combinator)(外部)
Y Combinatorが運営するテクノロジー系ニュースコミュニティ。今回のポリシーをめぐる活発な議論の舞台となった。

OpenAI(外部)
ChatGPTやGPTシリーズを開発するAI企業。企業向け契約の補償条項をめぐる議論で言及されている。

Anthropic(外部)
Claudeを開発するAI安全性研究企業。OpenAI同様、企業向け補償条項に関連して議論の対象となっている。

NVIDIA(外部)
GPUを中心としたAI・半導体企業。今回のポリシーの草案を作成したサーシャ・レヴィンが所属する企業。

【参考記事】

Linux Kernel Source Tree Gets Official AI Coding Assistant Policy(外部)
2025年7月のRFC提出から2026年4月のマージまでの経緯を詳述。Hacker Newsでの反響(264ポイント・173コメント)やAssisted-byタグの命名経緯も解説している。

Linus Torvalds Just Told AI Coders The Rules(外部)
Linuxが支えるインフラ規模を踏まえ、ポリシーの実務的な意味を詳述。AIによるコードスタイル違反やメンテナーの審査強化についても言及している。

Linux Kernel Permits AI Code, Pins Liability on the Human(外部)
「人間を導火線にした」という独自視点でポリシーを分析。coding-assistants.rstの行数や、Assisted-byタグが将来の審査判断の材料になる点を鋭く指摘している。

Linux lays down the law on AI-generated code(外部)
Tom’s Hardwareによる包括的な解説。デイヴ・ハンセンとロレンゾ・ストークスの論争やGZDoomコミュニティでのAI未開示問題との比較も行っている。

The Linux Kernel Just Published AI Coding Guidelines. The Rest of Us Should Pay Attention.(外部)
AIツールの非開示が蔓延する業界の現状と対比しながら、Linuxの説明責任モデルを「業界全体の雛形」として評価した記事。

【編集部後記】

あなたは今、AIツールを使ったコードやコンテンツに、どこまで自分の名前を添えられますか?

Linuxコミュニティが辿り着いた答えは「禁止でも放任でもなく、人間が責任を持つ」というものでした。これはコード開発だけの話ではなく、AIと共に働くすべての人に問われていることかもしれません。みなさんはどう思われますか?

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です