2025年6月4日、「人工知能関連技術の研究開発及び活用の推進に関する法律」(本稿では「AI法」と表記)が公布され、2025年9月1日に全面施行されました。AI法は、日本で初めてのAI包括法で、AIの研究開発・利活用の促進と安全性・信頼確保の両立を目指した基本法に位置づけられています。

 

世界的にAIの開発競争が激しさを増す中、AIへの投資、開発、利活用の各方面で出遅れている感のある日本が、今後反転攻勢をかけるための基本計画の策定も進められ、2025年12月23日に閣議決定されました。

【参考情報】人工知能基本計画の概要

 

一方で世界に目を転じるとAIに関連する法律は、EU、米国(州法)、韓国でも相次いで施行され、各国の状況を反映した特徴もそれぞれに見られます。

 

今回は、加熱する開発競争と急速に広がるユーザの拡大に法整備が追いついていないAIを取巻く各国の法制度の概要やその特徴を整理し、その違いを見て行くとともに、世界的にもまだ施行されて間もないAIの法規制が、今後、日本にどのように影響する可能性があるのか、考察していきたいと思います。

日本で全面施行されたAI法とは?

aiact-japan-world-2

2025年9月1日に日本において全面施行された「AI法」とはどのような法律なのでしょうか?

私たちAURIQもAIのテクノロジーを組み込んだソリューションを展開しており、注目していた法律でしたが、いわゆる規制法ではなく、国の後押しでAIの開発・利活用を振興する「基本法」に近い内容となっています。目的は、AIの研究開発・利活用の推進および産業の育成・発展による国際競争力の向上と安全性・信頼性の確保の両立としています。

【参考情報】人工知能関連技術の研究開発及び活用の推進に関する法律(令和七年法律第五十三号)

AI法の概要とポイント

施行日:2025年9月1日

目的:AIの研究開発と社会実装を国家的に推進しつつ、安全性・信頼性・人権の尊重を確保する

基本理念

・経済社会発展の基盤技術とし、研究開発能力の保持・国際競争力の強化を計画的に推進

・安全性・信頼性・透明性の確保

・AI関連技術の開発・利活用による平和と発展、国際協力・国際貢献で主導的な役割を目指す

国の責務

・AI関連技術の研究・開発および利活用の計画的な推進

・行政事務の効率化及び高度化

・教育機関における研究開発・活用推進の活性化の支援、自主性の尊重

・国・地方公共団体・研究開発機関・活用事業者間の連携強化の推進

・必要な法制・財政その他の措置の実施

・AI関連技術の研究から実用化までの一貫した支援

(研究開発のためのハード・ソフトを含む知的基盤の整備)

・教育の振興、幅広い人材の養成

・AIを活用した犯罪や不法行為、権利侵害事案の調査・研究

・研究開発機関や活用事業者への支援

地方公共団体の責務

・区域の特性を生かしたAI関連技術の自主的な施策の策定、活用・推進

・教育機関における研究開発・活用推進の活性化の支援、自主性の尊重

研究開発機関の責務

・専門人材の積極的な育成

・研究開発の効果的な推進、多様な分野の知見の総合的な活用

活用事業者の責務

・AI法の基本理念に則ったAI関連技術の利活用

・AI関連技術を活用した事業活動の効率化・高度化並びに新産業の創出

・国や地方自治体が実施する施策への協力

国民の役割

・AI関連技術への適切な理解と関心の深化

・国や地方自治体が実施する施策への協力

戦略推進組織

・人工知能戦略本部を設置し、人口知能基本計画を策定

【参考情報】人工知能基本計画

 

AI法は、「世界で最もAIを開発・活用しやすい国」を目指すための重要な一歩と位置づけられ、まずは、官民の連携強化によるイノベーションの加速に舵を切った内容となっています。日本がAIへの投資、開発、利活用の各方面で出遅れた状況から、国の全面的な後押しで反転攻勢をかけるための法制化とも言えそうです。

 

一方で、利用者のセキュリティ確保やプライバシー保護、犯罪や不正行為へのAIの利活用の抑止・防止などの観点の規制や罰則は盛り込まれていません。実装面では、各省庁の施策やガイドラインの整備が待たれるところですが、具体的な実効性の担保が今後に向けた課題と言えるでしょう。

EU AI Act

aiact-japan-world-eu

日本以外の国の動きについても、順番に見ていきましょう。

世界で最初にAI規制法を制定し、施行したのはEUでした。EU AI Actは、世界初の包括的なAI規制法として、2024年8月に発効、2025年から段階的に施行されています。

【参考情報】EU Artificial Intelligence Act

 

EU AI Actの最大の特徴は、安全性・信頼性・基本的人権の保護を目的とし、AIのリスクレベルに応じた適切な管理を行うことで、AI技術の利用拡大に伴うリスクの増大を適切に管理する規制のフレームワークとして機能させ、リスクレベルに応じた管理を可能とする制度設計がなされている点にあります。

 

EU AI Actは、2026年8月にいよいよ本格適用が開始されます。詳細は、以下の記事で詳しく触れています。

【参考記事】2026年8月に迫る本格適用、EU AI Actの自社への影響を再確認しよう

韓国AI基本法

aiact-japan-world-korea

韓国AI基本法(正式名称は、人口知能の発展及び信頼性基盤の確立に関する基本法、以後、本稿では韓国AI基本法と表記)は、単一国家が国全体の規制の枠組みとして施行した初の包括的AI法として注目され、2026年1月22日に施行されました。

【参考情報】大韓民国AI基本法

 

AI技術の安全で信頼できる発展と活用を推進し、AI産業の体系的育成と国際競争力を強化、かつAIのリスク予防と社会的信頼の基盤を構築、国家のAIガバナンスを確立するといったAIによる産業振興と安全性・信頼性の確保の両立を目指した内容になっています。

韓国AI基本法の概要

施行日:2026年1月22日

国家レベルのガバナンス設計

国家AI委員会やAI安全研究所、AI政策センターなどの設立根拠を法的に整備。大統領や民間専門家を交えた政策調整・推進体制を法制化しています。

AI産業支援・振興

韓国はAIを国際競争力強化の重要戦略と位置づけており、以下のような施策を法的基盤として規定しています。

 

・研究開発や国際人材育成支援、AI規範の確立に向けた国際協力

・AIデータセンターやデータインフラの整備支援

・AI導入支援、AIの普及支援、産業の育成、中小企業・スタートアップへの支援制度の強化

3年ごとのAI基本計画と戦略

政府は3年ごとにAI基本計画を策定し、国家レベルのAI政策・戦略を体系的に更新・実行することを義務づけています。

高影響AIと生成AIへの規制・義務

韓国AI基本法では、高影響AIのカテゴリを定義、該当するAIサービスに対し、安全性・透明性・信頼性確保のための義務を課しています。

高影響AI(High-impact AI)

人の生命・安全・基本的権利に重大な影響を及ぼす可能性があるAIが該当します。リスク評価、透明性確保、ユーザ通知、人間による監督、リスク管理体制の構築などの義務が課されます。

 

・AI使用の情報開示義務:高影響AIを利用するサービスでは、ユーザにAIが関与していることを明示する必要があります。

 

・AI生成コンテンツへの表示義務:AIが生成したコンテンツについては、ウォーターマーク(電子透かし)やラベル付与などの表示が必要です。

 

韓国政府は、現在、高影響AIに該当するAIサービスは、レベル4以上の完全自動運転のみとしていますが、今後、医療診断AI、雇用選考AI、交通システムの運行管理、エネルギー供給や飲料水の生活管理、バイオメトリクス分析、顔認証による監視、などが対象になると予想されています。該当すると透明性・安全性・信頼性の確保、影響評価、認証制度などの義務が課されます。

【参考情報】High-Impact AI Rules to Apply Only to Level 4 Autonomous Driving

生成AI(Generative AI)

入力データの構造や特徴を模倣することでテキスト、音声、画像、動画などを出力するAIシステムを指しています。生成AIに対しては、ユーザへの事前通知・ラベル付与(表示義務)などの透明性義務が課されます。たとえば、AI生成コンテンツが現実の情報と区別しにくい場合、AIによる生成を明示するなどの義務が含まれます。

 

・対象:テキスト・画像・音声などを生成するAIモデル(ChatGPT, Geminiなど)

著作権配慮、偽情報対策、説明責任などの義務が課されます。

企業の責任と海外企業対応

韓国内でサービスを提供する一定規模の外国企業(例:年間売上高や日次利用者数などの基準を想定)は、国内代表者の設置義務を負います。法違反時は、最大3,000万ウォン程度の罰金が科される可能性がありますが、施行初年度(2026年)は猶予期間とされています。

リスク評価・透明性の義務

AI事業者には、以下のようなリスク管理体制の整備が求められています。

・リスク評価・管理計画の策定

・ユーザ保護措置

・政府の調査への協力

・AIの適切な利用、AI倫理の実施、安全性と信頼性の確保

罰則・執行

韓国AI基本法の違反に対しては、国内代表者設置義務、通知義務、是正命令等に違反する場合などに対して、最大 KRW 30,000,000(約数千万ウォン) の行政罰が科される可能性があります。法施行後(2026年)1年間は実質的に罰則は課さず、指導・助言を中心に対応する猶予期間が設けられています。

【参考情報】大韓民国AI基本法(43条)

域外適用について

韓国AI基本法にもEU AI Actと同様に域外適用の考え方が組み込まれています。「韓国内に影響を及ぼすAIサービス」を提供していれば、国外企業でも韓国AI基本法の規制対象とされる可能性があります。韓国AI基本法では、以下を域外適用の定義としています。

 

1.開発・運営拠点が国外にあっても

2.AIサービスが韓国内で提供され

3.韓国の利用者・社会・市場に実質的な影響を与える場合

 

「大韓民国領土外で行われる行為が、大韓民国国内市場または利用者に影響を与える場合に適用されます。」と記載され、場所(サーバや本社)」に対してではなく、韓国内に「影響を与えること」が域外適用の判断基準とされています。

域外適用される場合の主な義務

韓国AI基本法の規制対象となった場合、以下のような義務が課されます。

 

・生成AIの表示・ラベル付与義務

・高影響AIのリスク管理・透明性対応

・政府調査への協力義務

・韓国内代表者の設置義務

 

韓国に向けてAIサービスを提供している場合、日本企業でも無関係ではなく、特に高影響AI・生成AI・大規模サービスに該当しそうな企業は注意が必要です。域外規制を法制度に組み込む潮流は、世界的にスタンダードになりつつあるため、日本で事業を営む上でも各国の法規制の動向は定期的にチェックすることが望ましいでしょう。

 

韓国向けにAIサービスを提供している、韓国内の利用者数が多い、継続的なサービスを通じて韓国の利用者から相当の利益を得ているなど、一定規模以上のAI事業者は、今後、公表されるガイドラインや施行令の内容を注視しておきたいところです。

 

AIは放置せず、社会的信頼を制度で担保し、人間が監督するとしている点は、EU AI Actと共通した思想です。リスク評価・管理、人間による監督、透明性・説明責任、適切なテスト・検証、利用者への通知、AIによる合成コンテンツの明示義務などは、EUや韓国にとどまらず、今後、世界的なAI関連法の潮流となる可能性が高いと考えられます。

米国のパッチワーク規制とは?

aiact-japan-world-us

米国では、トランプ大統領の二期目に入り、AI関連法に関して、連邦政府と州政府で異なる動きを見せています。連邦政府はAIを推進し、罰則付きの包括AI規制の連邦法は、2026年2月現在、存在していません。一方で州政府は、実質的なAI規制を担い、法制度の整備を進めています。

 

「連邦政府は緩和・推進」「州政府は個別規制」といった二層構造を呈しており、米国として統一の基準がないため「パッチワーク規制」とも言われています。

州法レベルではどのような規制があるのでしょうか?いくつか見てみましょう。

カリフォルニア州 — Transparency in Frontier AI Act (SB53)

成立:2025年9月、施行日:2026年1月1日。

 

基盤AIモデルの安全性・透明性確保を目的とし、以下のような規制を導入しています。

・大規模モデル(「フロンティアモデル」)開発者に対する安全性計画の公開義務

・重大インシデントの報告義務

・内部告発者の保護措置義務

 

違反した場合の罰金も定められ、100万ドル(固定)としています。EU AI Actと比較すると軽微な額ですが、世界のAI開発をけん引しているテック企業の半数以上が集まるカルフォルニア州で成立し、施行された点は特筆すべきことです。

 

違反時の厳罰化やモデルの事前申請など、開発者に厳しい内容ではなく、イノベーションは阻害せず、透明性を確保することで消費者の安全を守るバランスを重視した内容となっています。

【参考情報】Transparency in Frontier Artificial Intelligence Act

テキサス州 Texas Responsible Artificial Intelligence Governance Act(TRAIGA)

成立日:2025年6月22日、施行日:2026年1月1日。

 

AIシステムの安全性・透明性を確保しつつ、イノベーションを阻害しない形でのガバナンスの枠組みを制定しています。テキサス州内で事業を行う、またはテキサス州の居住者向けにAIシステムを供給・使用する開発者(developers)および展開者(deployers)に適用されます。また、AIの目的や意図に対して禁止規定を設けています。

主な規制内容

消費者への透明性義務

・AIと相互作用する場合には、利用者にそれを明示する必要あり

例:チャットや対話アプリなど

 

禁止される行為

・人間の行動を誤導・操作する AI の設計・展開

・自殺・暴力・犯罪を煽る目的の AI

・公的機関による ソーシャルスコアリング(社会的評価による不利益評価)

・無断の生体認証データ取得による個人識別

・憲法・州法に反する権利侵害を目的とする AI

・不当差別をもたらす AI

・違法・アダルトコンテンツを生成・配布する AI

【参考情報】Texas Responsible Artificial Intelligence Governance Act(TRAIGA)

コロラド州 — Consumer Protections for Artificial Intelligence / Colorado Artificial Intelligence Act (SB 24-205)

成立:2024年5月、2026年6月30日施行予定。

 

州内居住者に影響を与える高リスクAIシステムを対象にし、アルゴリズム差別防止・影響評価、消費者への情報開示義務を課し、AIが人の生活に重大な影響を与える場面での消費者保護に重点を置いた内容となっています。一方で、消費者を保護する規定だけでなく、開発者・展開者双方に開示・報告義務を課しており、企業のコンプライアンス負荷が高い内容と言えます。

規制対象となるAI

AIが決定や判断を下したり、条件に影響する場合、高リスクAIとして扱われます。

例:教育(入学・教育機会)、雇用/就職機会、金融・融資サービス、重要な政府サービス、医療・ヘルスケアサービス、住宅・保険、法律サービス(例:裁定・対応)

 

・差別防止に対する注意義務:たとえば雇用や人事評価で使用されるAIが特定人種や性別を不当に差別しないよう管理することなどが想定されます。

 

・開発者の情報開示義務:開発者は、高リスクシステムの仕様や設計、リスク評価や影響評価のための必要な文書、自社が現在提供する高リスクシステムの概要とリスク管理内容などの情報を展開者に提供する必要があります。

 

・消費者への通知義務:展開者は、AIが消費者との相互作用に用いられていることを明示しなければなりません。通知には、以下が含まれます。

例:AI の目的や決定の種類、展開者の身元、AIシステムの説明、消費者の「オプトアウト」権利の情報

 

・影響評価とリスク管理:展開者は高リスクAIの影響評価を行い、AIシステムが実際にどのような影響を与えたか、検証のために一定期間保存する必要があります。

執行と罰則

違反は、コロラド州の一般的な消費者保護法(Colorado Consumer Protection Act)違反とみなされます。1件の違反につき最大 20,000ドルの民事罰金が科される可能性があります。

【参考情報】Consumer Protections for Artificial Intelligence
【参考情報】Colorado General Assembly

まとめ

米国にはAI規制の連邦法がなく、一方で各州にはAIがもたらし、時に増長する特定の社会問題(差別・安全・透明性・メンタルヘルスなど)に迅速に対応するため、州レベルで独自のAI規制法の制定が先行、いわゆるパッチワーク規制の状態が進行しています。ただ、この状態の長期化は、国際競争上も不利に働く面が否定できません。

 

トランプ大統領は、2025年12月11日、「AIのための国家政策枠組みの確保」に関する大統領令(Executive Order 14365)に署名しました。この大統領令では、児童の保護、検閲の防止、著作権の尊重、そして地域社会の安全など、AIの安全性は確保しつつも、イノベーションを阻害しない「最小限の負担」での連邦規制を目指すとしています。

 

また、州ごとの異なる規制がAI企業の発展を阻害しているとし、連邦政府が単一のルールを策定することで、カリフォルニア州やニューヨーク州などで強まる厳しい州法を上書き(連邦優先)することを目指しています。AIは国家覇権争いの様相を呈し、各州法が目指すAIの安全確保よりも、中国などの技術対抗国に打ち勝つための「AI覇権」を重視しているとも言えます。

【参考情報】「AIのための国家政策枠組みの確保」に関する大統領令

 

米国は、「市場が先、規制は後」という文化が根強く、この文化はこれまで数多のイノベーションを生み出してきました。歴史的に見れば欧州とは異なる法体系であるため、EUのような事前規制・包括規制の方向には進まないと考えられますが、EU AI Actが将来事実上の世界標準となった場合、米国企業は、AIの分野においても他国が構築した規制に従わざるを得ない状況になりかねず、グローバルな法規制のスタンダード構築という側面からは、遅れを取るリスクも懸念されます。

AI規制法の今後の動向を注視しよう

aiact-japan-world-1

今回は、日本、EU、韓国、米国のAI規制法の現在地を見てきました。イノベーション、人権、消費者、メンタルヘルスケアなど保護すべき権利に関する優先度、AIを管理対象とするのか、それともイノベーションの推進力と捉えるのか、AIに関連する規制法を新たに構築するのか、規制は既存の法律に任せるのか、ガイドラインによる指示・指導により市場の安全を図るのか、厳しい罰則でAI開発企業や展開者、プロバイダーに法令順守を促すのか、そしてこれらをどのようにバランスをとるのか、各国の状況によりまだまだ混沌としている状況です。

 

EU AI Actにおけるモデルの開示義務、影響評価レポート、差別リスク対策の開示義務などは、透明性を確保するためには、今後必要とされる考え方のひとつであり、AIの誤動作や事故が社会問題化した場合、第三者評価機関の設置や標準安全性テストの実施、運用開始後の説明責任の義務化などは必ず問われるため、日本においても今後議論される可能性があります。特に自動運転技術や医療AIなど、人の命に係わる領域ほど、必要とされることは想像に難くありません。

 

GDPRによって域内の人や市場に影響があれば、域外の企業にも法が適用されるという域外適用はグローバルに浸透しました。EU AI Actに続いて、韓国AI基本法においても、この域外適用が採用され、これらの規制は、AIを使用したサービスを開発・提供する企業(展開者やプロバイダー)、AIによる人事評価などの社内システムを利用する企業(ユーザ)、その両方を対象としているものもあります。

 

このまま再び世界的な潮流となっていくのか、注視するとともに自社への影響についても、展開者やプロバイダーとして、ユーザとして、両面で継続的に状況を確認することが望まれます。そして、日本のAI法が今後どのように展開していくのか、世界的な潮流に合わせて高リスクAIの定義や規制の検討へ向かうのか、今後の動向を引き続き注視する必要があるでしょう。

 

PageFinder-bar