ルール & 政策報道

AI企業による著作権侵害訴訟が続出、2026年は判例形成の分岐点

最高裁Cox判決後の寄与侵害理論変化とストリーミング回避技術への新たな司法判断

山本 浩二|2026.04.21|7|更新: 2026.04.21

2026年に入り、AI企業を標的とした著作権侵害訴訟が急激に増加している。Disney対MiniMax事件やSony対Udio事件など主要判例が進行中で、最高裁Cox判決による寄与侵害理論の変化がAI業界の法的リスクを再定義している。

Key Points

Business Impact

AI開発企業は学習データ収集プロセスの見直しと、コンテンツフィルタリング技術への投資が急務。著作権侵害訴訟の長期化により、AI サービス展開の法的リスクを事前評価する専門法務体制の構築が競争優位性を左右する。

A large crowd of people protest in the streets.

大手映画会社による中国AI企業への寄与侵害訴訟と新判例の影響

2026年4月、カリフォルニア州中央地区連邦地裁でDisney Enterprises対MiniMax事件が新たな局面を迎えている。VitalLawの報道によれば、ディズニーを含む大手映画スタジオが中国のAI提供会社とその関連会社に対して起こした寄与侵害請求について、被告側が最高裁の新しいCox判決を根拠に訴訟の却下を求める申立てを4月10日に提出した。この申立ては、最高裁判決が寄与侵害の法理を大幅に狭めたことを受けて提起された一連の動きの一環である。

被告のAI企業側は、映画スタジオが「実際の知識」に基づく寄与侵害を主張している点について、停止通告書などを根拠とした主張では不十分であると反駁している。Cox事件では、ISPが過去に侵害歴のあるユーザーのアカウントを削除しなかったことが争点となったが、最高裁判決により「著作権以外の目的でコンテンツをフィルタリングする能力があっても、著作権侵害のためのフィルタリング義務は生じない」という新たな法理が確立された。

ソニー対Udio事件:ストリーミング保護技術回避の司法判断

2026年4月15日、ニューヨーク南部地区連邦地裁のAlvin K. Hellerstein判事は、Sony Music Entertainment対Udio事件において重要な中間判決を下した。同判事は、AI音楽生成スタートアップUdioが数百万件の著作権保護された録音を無断でAIモデル学習に使用したとするSonyの訴訟について、一部却下申立てを却下した。

特に注目すべきは、UdioがYouTubeの「ストリーム・リッピング」防止ツールを回避してコンテンツを取得したという Sony の主張が十分な根拠があると判断されたことだ。ストリーム・リッピングとは、第三者が障壁を回避して動画をダウンロード・複製する行為を指し、Udoは これらの保護機能を迂回してAIモデル学習用のコンテンツライブラリを構築したと指摘されている。Udio側は、YouTubeのシステムが作品の複製を防ぐ統制手段ではないと主張したが、裁判所はこの論理を退けた。

音楽出版社によるAnthropic巨額集団訴訟の拡大

2026年3月16日、複数の音楽出版社がAnthropic PBCを相手取って30億ドル規模の集団訴訟を提起した。Law.comの報道によると、出版社側は当初500作品の著作権侵害を主張していたが、書籍著者らが起こした別の著作権侵害訴訟で明らかになった証拠により、実際の侵害作品数が40倍の2万件に上ることが判明したと主張している。

この訴訟は、Bartz事件で発見された証拠を基にしており、AI企業が学習データとして使用した著作権保護作品の規模が従来の想定を大幅に上回ることを示している。また、Encyclopedia BritannicaとMerriam-WebsterもOpenAIを相手に著作権侵害訴訟を3月17日に提起しており、ChatGPTが10万件近くの著作権記事をスクレイピングしてモデル学習に使用し、ユーザーの質問に対して逐語的にコンテンツを再現している一方で、捏造されたテキストを信頼ある両ブランドの情報として帰属させていると主張している。

AI生成コードの著作権保護問題と法的課題

Carlton FieldsのMichael Justusによれば、2026年4月15日時点で、AI技術の進展により、ソフトウェアコードの著作権保護戦略が根本的な変革を迫られている。従来、人間が書いたオリジナルコードには一般的に著作権保護が認められていたが、人間の著作者性を欠くAI生成コードは米国法上著作権保護の対象外となっている。

特に「バイブコーディング」と呼ばれる、人間が自然言語でソフトウェアプログラムの要望を記述し、生成AI ツールがコードを書く手法が普及している。この現象はテック業界に限定されず、あらゆる産業の従業員がソフトウェアソリューションをバイブコーディングで作成している。人間の役割がコード記述から AI ツール管理に急速に移行する中で、従来の著作権保護戦略は通用しなくなっている。企業にとって価値のあるソフトウェアであっても、AI生成部分については著作権による保護を期待できないという新たな法的リスクが顕在化している。

法曹界における AI 誤解と人為的ミスの混同問題

2026年4月15日、ニュージャージー州地区連邦地裁のGutierrez v. Lorenzo Food Group事件で興味深い制裁命令が出された。Above the Lawの報道によれば、却下申立てに対する反駁書面に不正確な引用や間違った判例への誤帰属、さらに数十年前に破棄された判例への言及が含まれていた事案で、当初は AI の「幻覚」現象による誤りと推測されていたが、実際には人間のパラリーガルによる怠慢な編集作業が原因であることが判明した。

Mott弁護士は、これらの誤りについて十分な責任を認めるのが遅く、裁判所は数か月間AI生成による偽引用の可能性を調査することになった。最終的に、Mott弁護士は金銭制裁(弁護側が費用証明書を提出後に決定予定)を受け、倫理とAIに関する2つのCLE研修受講を命じられた。興味深いことに、完全に人為的な誤りに対してAI研修が課されたのは、Mott弁護士が審理で生成AIに不慣れであると繰り返し主張したためで、裁判所は彼に理解を深めるよう指示した形となっている。

Verification

信頼ラベル報道
一次ソース5件確認
最終検証2026.04.21
VerifiedRev. 1
sha256:9ed3f036241d8255...cd11e636

この記事はEd25519デジタル署名で検証済みです。改ざんは検出されていません。

検証API
Ethics Score92/100
引用密度20/20
ソースURL数15/20
信頼ラベル12/15
表現の慎重さ15/15
キーポイント10/10
サマリー品質10/10
本文充実度10/10

v1.0.0 — ルールベース自動採点

詳細API
Share

関連記事