The Intercept、Raw Story、およびAlterNetは、著作権侵害を理由にOpenAIとMicrosoftを訴えました。これらの出版社は、AIモデルのトレーニング中に著者、タイトル、その他の著作権情報が意図的に削除されたと主張しています。訴訟はニューヨーク南部地区で別々に提起され、すべて同じ法律事務所によって訴訟が行われています。
これらの訴訟は、OpenAIとMicrosoftが潜在的な著作権侵害を認識していると述べています。証拠として、出版社はOpenAIがウェブサイトの所有者がそのウェブクローラーからコンテンツをブロックできるようにするオプトアウトシステムを提供していることを指摘しています。OpenAIと他のAI開発者は、著作権管理メタデータの意図的な削除を含む著作権訴訟に見知らぬものではありません。カリフォルニアでのある訴訟では、コメディアンのSarah Silvermanと複数の著者が、OpenAIがそのモデルのトレーニング時に彼らの書かれた作品から著作権情報を意図的に削除したと主張しました。しかし、裁判官はその訴えを却下しましたが、OpenAIが原告の著作権を侵害したという訴訟の核心は依然として残っています。The New York Timesによって提起された訴訟も、ChatGPTがジャーナリズム作品を忠実に再現していると主張しています。OpenAIは、The New York Timesの訴訟を却下するよう連邦裁判所に求めており、出版社がChatGPTにその記事を再現させるためのバグを悪用したと述べています。
【ニュース解説】
The Intercept、Raw Story、およびAlterNetという3つのニュース組織が、OpenAIとMicrosoftに対して著作権侵害の訴訟を起こしたというニュースがあります。これらの組織は、AIモデルのトレーニング過程で、著作権に関する重要な情報が意図的に削除されたと主張しています。具体的には、ChatGPTがジャーナリズム作品を、著者やタイトル、著作権情報なしで再現しているというのです。これにより、ChatGPTが第三者の著作権を侵害しているとユーザーが認識すれば、その人気や収益に影響を与える可能性があるとされています。
このケースは単独のものではありません。2024年にJournal of Experimental Criminologyに発表された学術研究でも、Draft Oneを含むAI支援報告書作成システムが実際の時間短縮効果を示さなかったという結果が報告されています。これらの事実は、Axon社の主張と実際の効果に重要な乖離があることを示しています。
技術的には、長文脈での「needle in a haystack(干し草の山の中の針)」的検索・想起の正確性が論点です。Anthropicは内部評価で100%の再現性を謳いますが、これはあくまで社内テストであり、実運用におけるコード異臭検知や設計上のトレードオフ把握など、多層的な推論の持続性は現場検証が不可欠です。ただし、プロジェクト全体像を”丸ごと”見渡せること自体は、ファイル粒度の分割では失われがちだった依存関係と設計意図を保ったまま提案できる余地を広げます。