音楽業界がAnthropicに30億ドル請求、著作権侵害規模が40倍に拡大
2026年3月、音楽出版社連合がAnthropicに対し30億ドルの巨額損害賠償訴訟を提起した。当初500件の楽曲著作権侵害を主張していたが、書籍著作者によるBartz事件で明らかになった証拠により、実際の侵害件数が20,000件と40倍に膨らんだことが判明した。この発見により、請求額は大幅に増加し、AI業界における著作権訴訟としては史上最大規模となっている。
Anthropicは自社のAIモデル「Claude」の学習過程で、適切な許可を得ずに大量の楽曲データを使用したとされている。音楽出版社側は、AIが生成する楽曲が原曲の特徴を不正に再現していると主張し、創作活動への深刻な経済的打撃を訴えている。この案件は、生成AIの学習データに対する権利処理の複雑さを浮き彫りにしており、他のAI企業にとっても重要な先例となる可能性が高い。
YouTuberがAmazonを提訴、動画スクレイピングによるAI学習を問題視
YouTubeクリエイターたちがAmazonに対し集団訴訟を起こした事件では、同社がYouTubeの保護機能を迂回して動画コンテンツを無断収集し、AI動画生成システムの学習に使用したと主張している。訴訟を起こしたのは、H3 PodcastとH3H3 Productionsを運営するTed Entertainmentをはじめとする複数のクリエイターである。
原告側は、この行為が著作権法およびデジタルミレニアム著作権法(DMCA)に違反するとして、損害賠償に加えて実行停止命令を求めている。この訴訟は、OpenAIの「Sora」やGoogleの「Veo」といったAI動画生成技術の急速な発展と時を同じくして提起されており、動画コンテンツを対象としたAI学習の法的境界線を問う重要な案件となっている。生成AI分野では文章素材を巡る争いが先行していたが、今回の件により動画分野でも本格的な法的検証が始まったといえる。
最高裁Cox判決がAI企業の法的責任を大幅縮小
2026年の最高裁Cox判決は、AI企業の間接的著作権侵害責任を大幅に縮小する画期的な判決となった。この判決を受けて、中国系AI企業MiniMaxに対するディズニーなど大手映画スタジオの訴訟でも、被告側が寄与侵害責任の棄却を求める申し立てを行っている。
Cox判決では、インターネットサービスプロバイダー(ISP)が過去に侵害歴のあるユーザーアカウントの削除を怠ったことだけでは寄与侵害責任を負わないと判示された。この原則がAI企業にも適用される結果、著作権侵害の「実際の認識」があったとしても、それだけでは法的責任を問えないという新しい法的基準が確立された。MiniMaxの事例では、同社のHailuo AIのソーシャルメディア投稿7,834件のうち、映画スタジオの作品に言及したものはわずか13件(0.17%)に過ぎないことが明らかになっている。
この判決により、AI企業は著作権侵害に対する法的防御力を大幅に強化することになった。ただし、裁判所の中には最高裁判決の例外的適用を模索する動きもあり、現在進行中の侵害に対する実際の認識がある場合の責任範囲について、今後の判例の蓄積が注目される。
Getty ImagesとStability AIの攻防、透かし入り画像が争点に
Getty ImagesとStability AIの訴訟では、AI画像生成における著作権侵害の認定基準が焦点となっている。Getty側は、Stability AIが1,200万枚を超える写真を無断で使用して競合ビジネスを構築したと主張している。特に注目されるのは、AI生成画像にGettyの透かしが歪んだ形で現れる現象で、これが意図的な侵害の証拠となるかが争点となっている。
4月8日の連邦地裁での審理で、Stability AI側は歪んだ透かし入り画像が商標希釈化や商標侵害、DMCA違反にはあたらないと主張し、6つの請求項目の棄却を求めた。一方、Trina L. Thompson判事は、Getty側が著作権侵害を促進する意図を十分に立証できているかについて疑問を呈し、訴状の強化余地があることを示唆した。
この訴訟は、AI学習におけるフェアユース(公正使用)の境界線を明確化する重要な判例となる可能性が高い。Getty Images Holdings Inc.は写真業界の巨人として、AI時代における既存コンテンツ企業の権利保護のあり方を決定づける先例を作ろうとしている。
百科事典大手も参戦、OpenAIに対する権利侵害訴訟が拡大
2026年3月には、百科事典ブリタニカとメリアム・ウェブスターがOpenAIに対し著作権侵害訴訟を提起した。両社は、ChatGPTが約100,000件の著作権保護されている記事をスクレイピングしてモデル学習に使用し、ユーザーへの回答で元のコンテンツをそのまま再現していると主張している。
特に深刻な問題として指摘されているのは、AIが生成した誤った情報(ハルシネーション)を、信頼性の高い両社のブランド名で帰属させているという点である。これにより、長年築き上げてきた両社の信頼性とブランド価値が毀損される恐れがあるとしている。このような「ハルシネーション」問題は、AI利用に対する法的制裁が増加している背景とも関連しており、弁護士業界でも偽の判例引用によるAI関連制裁命令が急増している。
企業のAI導入における法的リスクと対策
これらの一連の訴訟は、AI技術の急速な普及に法的枠組みが追いついていない現状を浮き彫りにしている。AI事故の急増に伴い、保険会社が従来の保険にAI免責条項を追加する傾向が強まっており、企業はアルゴリズムの失敗による法的、財務的、規制上の影響に対するエクスポージャーが拡大している。
法務部門にとっては、AI システムの責任ある使用に向けた新たなガイドライン策定が急務となっている。特に、使用ケースごとに異なるAI システムのリスクを理解し、職業行為規則に準拠した形でAI活用を進めることの重要性が増している。今後のAI関連訴訟の展開により、フェアユースと侵害の境界線がより明確化されることで、企業のAI導入戦略にも大きな影響を与えることが予想される。




