ルール & 政策報道

日本、AI規制ガイドライン強化へ - 韓国が世界初の生成AI医療機器承認、EU規制も本格化

NIST AIリスク管理フレームワークと各国規制動向から見る日本の対応

山本 浩二|2026.04.14|7|更新: 2026.04.14

韓国が世界初の生成AI医療機器承認を行い、EUではOpenAIがデジタルサービス法の規制対象となる中、日本でもAI規制ガイドラインの強化が急務となっている。NIST AIリスク管理フレームワークやISO42001準拠の企業ガバナンス体制構築が鍵となる。

Key Points

Business Impact

日本企業は韓国の生成AI医療機器承認事例を参考に、NIST AIリスク管理フレームワークとISO42001に準拠したガバナンス体制を早急に構築し、AI活用における法的リスクを回避する必要がある。

日本、AI規制ガイドライン強化へ - 韓国が世界初の生成AI医療機器承認、EU規制も本格化

韓国が示した生成AI規制の先進モデル

2026年4月8日、韓国食品医薬品安全庁(MFDS)は世界初となる生成AI医療機器の承認を発表した。地元ヘルステック企業Soombit.aiが開発したAIRead-CXRは、1400万件以上の胸部X線研究データで訓練され、胸水、気胸、肺水腫、肺結節、心拡大、活動性結核、肋骨骨折、鎖骨骨折など57の疾患をカバーする。同製品は昨年施行されたデジタル医療製品法の下で承認された初の生成AIベース医療機器となり、MFDSが昨年発行した「生成AI医療機器の承認および審査ガイドライン」を適用した初の事例でもある。

Soombit.ai共同創設者兼CEOのWoong Bae氏は、「これは医療画像を直接入力として受け取り、予備的な放射線学レポートを生成するビジョン言語モデルの観点から構築された、医療画像における生成AIベースのSaMDとして世界初の規制承認である」とLinkedInで発表している。韓国の事例は、生成AI技術の医療分野での実用化において、明確な規制フレームワークの重要性を示している。

米国における AI ガバナンスフレームワークの動向

米国では2023年4月、連邦取引委員会(FTC)、雇用機会均等委員会(EEOC)、司法省市民権部門、消費者金融保護局が共同声明を発表し、AI利用が特定の状況下で既存法に違反する可能性があることを警告した。特に、AI システムが不正確な「幻覚」出力を生成する場合のリスクが高く、医療ガイダンス提供、緊急対応支援、複雑な製造・運輸プロセスの指示などに使用されるツールでは、エラーの余地がほとんどない。

米国標準技術研究所(NIST)が策定したAIリスク管理フレームワークは、企業がAIガバナンス体制を構築する際の重要な基準となっている。この枠組みは、透明性、公平性、プライバシー、セキュリティ、信頼性、説明責任といったAIライフサイクル全体の重要な次元をカバーしている。内部監査部門は、AIシステムの承認、更新、廃止プロセスの評価や、ガバナンス期待値がチーム全体で理解され実装されているかの確認において重要な役割を果たしている。

児童保護と AI 規制の国際協調

2026年4月、OpenAIは児童安全保護フレームワークを発表し、生成AI能力に対応するため既存法と技術的セーフガードの強化を求めた。このフレームワークは、児童安全擁護団体Thorn、全米行方不明・被搾取児童センター、および検事総長同盟のAIタスクフォース(ノースカロライナ州司法長官Jeff Jacksonとユタ州司法長官Derek Brownが主導)との協力で開発された。

2025年の報告によると、45州がAIおよびコンピュータ生成のCSAMを犯罪化している。新計画では、全50州とコロンビア特別区での法制化を求めており、AI企業による試みがブロックされた場合でも、CSAM作成を試みた者を法執行機関が起訴できるよう責任ルールの明確化も要求している。この取り組みは、技術企業、州・連邦政府、法執行機関、擁護団体間の協調を求める包括的なロードマップの一部となっている。

EU のデジタルサービス法と AI 規制強化

2026年4月10日、ドイツのHandelsblatt紙は、OpenAIとそのチャットボットChatGPTがEUのデジタルサービス法(DSA)の下で非常に大規模な検索エンジンとして分類され、より厳しい規制に直面する予定であると報じた。OpenAIは過去6カ月間のEUにおけるChatGPT検索の月平均アクティブ利用者数を既存の義務に従って公表していると述べている。

EU委員会の報道官は、利用可能なユーザーデータを審査中であることをHandelsblatt紙に語った。DSAの適用により、OpenAIは透明性レポートの提出、コンテンツモデレーション体制の強化、システミックリスクの評価など、より厳格な義務を負うことになる。この動きは、EU全体でのAI規制強化の一環として、他のテック企業にも波及効果を与える可能性が高い。

専門家証人と AI 利用の新たな基準

2026年1月30日、英国の専門家アカデミーは専門家証人のAI使用に関するガイダンスを発表した。2025年11月7日に公表されたBond Solon専門家証人調査では、回答者の89%が英国の専門家証人によるAI使用に特定のガイダンスが必要であると感じていることが明らかになった。

新ガイダンスでは、専門家がAIを使用する前に、使用許可の確認、使用目的の決定、特定目的での使用の適法性と適切性の慎重な検討、適切なAIツールの選択、AIツールの動作理解、主要なAI使用と決定の記録が必要とされる。高リスク目的での使用については、専門家は指示弁護士に開示し、反対がないことを確認する必要がある。低リスク目的では開示は不要だが、専門家は反対尋問でAI使用を説明できる準備が求められる。

M&A審査における AI 証拠の新たな課題

M&A統制案件では、AI生成情報の真正性証明が新たな課題となっている。AIプラットフォームは電子的に保存された情報の新しいソースとして扱われる必要があり、保持設定とリーガルホールドを更新して、重要なAIアーティファクトがセカンドリクエストで収集される前にシステムポリシーによって自動削除されることを防ぐ必要がある。

M&A審査では、もはや「誰が言ったか」だけでなく、「どのモデルが言ったか」「どのようなプロンプトで」「どのバージョンで」「どのような監査証跡で」といった追加の層が質問に加わる。組織は、AIエンジン自体を発見可能なモデル状態、バージョン履歴、プロンプトログ、来歴アーティファクトを持つ準管理者として扱う必要が生じている。この変化は証拠実務の根本的な進化を表しており、新しいプロトコルと新しい認証が必要となる。

Verification

信頼ラベル報道
一次ソース6件確認
最終検証2026.04.14
VerifiedRev. 1
sha256:fdf285b87147d1e4...e6d23c1a

この記事はEd25519デジタル署名で検証済みです。改ざんは検出されていません。

検証API
Ethics Score97/100
引用密度20/20
ソースURL数20/20
信頼ラベル12/15
表現の慎重さ15/15
キーポイント10/10
サマリー品質10/10
本文充実度10/10

v1.0.0 — ルールベース自動採点

詳細API
Share

関連記事