2024年8月、世界で初めてのAI規制法として、Artificial Intelligence Act(以後、EU AI Actと記載)が発効しました。GDPR、デジタルサービス法(DSA)、デジタル市場法(DMA)とデータやプライバシー保護、デジタル市場における消費者保護、マーケットの競争法に関連する規制を次々と施行してきたEUが、ついにAIに関連する規制法を施行しました。

 

AIモデルプロバイダーやEU市場でビジネスを展開するグローバル企業は、AIガバナンスフレームワークやリスク評価、透明性確保やモニタリングなど、EU AI Actの段階的なリリースへの対応を進めています。各国の異なる法規制にそれぞれ合わせる莫大な人的負担やコスト負担をできる限り抑え、効率的に行うため、最も厳しいEUの法規制を基準に各社が対策を講じることは、GDPR以降の標準になりつつあるとも言えるでしょう。

 

AIを組み込んだサービスをすでに提供している企業、これから提供を予定している企業、AIは社内システムでしか使用していない企業も実は無関係ではいられない可能性があるEU AI Actは、2024年8月の発効以降、段階的な規制の施行を経て、2026年8月、本格適用フェーズに移行します。

今回は、このEU AI Actを詳しく見ていきたいと思います。

EU AI Act(人工知能規則)とは?

eu-aiact-3

EU AI Act は、2024年8月に発効した世界初の包括的AI規制法であり、その目的は、AI が社会にもたらすリスクを抑え、適切に管理し、安全で信頼できる形で普及させることにあります。「人間中心のAI」「基本的権利の保護」「イノベーション促進」の3つを柱としています。

 

その最大の特徴は、安全性・信頼性・基本的人権の保護を目的とし、AIシステムがEU市場で利用される際に満たすべき要件を明示、AIのリスクレベルに応じた適切な管理を行うことで、AI技術の利用拡大に伴うEU市場におけるリスクの増大を適切に管理する規制のフレームワークとして機能させる制度設計がなされている点にあります。

EU AI Actが制定された背景

EUは、AIが社会に大きな利益をもたらす一方で、健康、安全、民主主義、法の支配、基本的権利などに深刻な影響を与える可能性があると認識していました。EUは、「人間中心の信頼できるAI」を推進する立場を明確にしていますが、AIの有害な影響から市民を守るための法規制の枠組みを早急に構築することが重要と判断したとも言えます。

 

世界を驚かせたChatGPTのプロトタイプのリリースが2022年11月30日。2か月で1億ユーザを突破するなど、生成AIの加速度的な進化と爆発的な普及は、EUのAIへの危機感を強め、法規制の議論を加速させたとも言われています。

 

市場への影響を考慮し、かつスピードをもって対応するため、発効後の2025年以降、段階的に法律を施行する方式を採用。AIのリスクレベルに応じた法的な義務や管理策、罰則、イノベーション支援を網羅したEU AI Actは、2026年8月にほぼ全ての規制や罰則が施行される本格適用フェーズに移行します。

域外適用(extraterritorial effect)

EU AI Actは、GDPRと同様にEU域外の企業にも域外適用(extraterritorial effect)されます。EU域外に拠点を置く企業であっても、AIサービスをEU市場に投入(placing on the market)したり、EUで雇用している従業員向けに規制の対象となるカテゴリーのAIを使用(putting into service)したりする場合は、適用対象となります。

・EU域外の提供者(provider)

EU域外に設立された企業であってもEUで使用される、またはEU市場に投入されるAIシステム/汎用AIモデルを提供する場合
※企業の所在地に関わらず「EU市場に向けて提供」していることが条件

・EU域外の導入者(deployer)

EU域外の企業であってもAIシステムの出力がEU域内で使用される場合

・出力がEUの自然人に影響する場合

AIシステムがEU域外で運用されていても、その「出力(output)」がEU域内で使用され、EUの自然人に影響を与える場合

リスクベースアプローチによるリスク分類

eu-aiact-9

EU AI Actは、リスクベースアプローチを採用しています。私達の身近なところでは、運用においてリスクアセスメントが中心的な役割を担っているISMS27001もリスクを起点に管理策を定めるリスクベースアプローチを採用しており、両者の考え方は類似しています。

 

EU AI Actでは、具体的にはAIシステムを主に以下の4つのリスク区分(リスクレベル)に分け、それぞれに応じた義務や禁止、管理策を課しています。リスクレベルとレベルごとの禁止行為が明確になっているため、参入する側の事業者、利用する側のユーザ、両者にとって共通のフレームワークとして機能させることができるようになっています。

リスクレベルの分類

1. Unacceptable risk(許容できないリスク)

「人権侵害・民主主義の脅威・不当な操作・差別」を引き起こすAIを完全に排除するためのカテゴリーで、Unacceptable riskに分類されたAIは、市場投入も使用も禁止されます。

例)社会信用スコアリング、潜在意識的操作、脆弱性の悪用、外見による犯罪予測、リアルタイム生体認証(顔認証等の監視型システム)、顔認識データベースのスクレイピング、感情推定AI(学校・職場)

2. High risk(高リスク)

社会的影響が大きい分野で使用されるAIのカテゴリーで、EU域内で提供・使用するためには厳格な義務(リスク管理、データガバナンス、技術文書、監査、CEマーキングなど)が課されます。高リスクAIはさらに「Annex I(製品安全系)」と「Annex III(用途ベース)」に分類されています。

Annex I(製品安全系)

以下の製品に組込まれ、第三者適合性評価が必要なAIは自動的に高リスク扱いになります。

例)医療機器(MDR)、自動車(車両規制)、玩具安全指令、機械規則(産業ロボットなど)、航空・鉄道などの輸送機器

Annex III(用途ベース)

以下の用途のAIは高リスクに分類されます。採用AI、クレジットスコア、顔認証などを含みます。

① 生体認証:顔認証、声紋認証、事後識別

② 重要インフラの運用:電力・ガス・水道の制御AI

③ 教育・職業訓練:試験の自動採点、入学選抜AI

④ 雇用・労務管理:採用AI、従業員評価AI

⑤ 重要な民間・公的サービスへのアクセス:クレジットスコア、給付金審査AI

⑥ 法執行:犯罪予測、プロファイリング

⑦ 移民・国境管理:ビザ審査、虚偽検知AI

⑧ 司法・民主過程:裁判支援AI、法的判断支援

 

EU AI Actは「市場投入(placing on the market)」だけでなく「使用(putting into service)」もその規制対象としているため、EU域内で従業員評価AIを社内利用するだけでも、高リスクAI(Annex III:④雇用・労務管理)に該当します。日本政府の資料でも「提供者だけでなく導入者にかかる要件も存在」と明記されています。

 

従業員評価AIを自社の従業員の評価システムに採用している企業は、高リスクAIに該当するため、EU AI Actへの対応が必要となる点に十分に留意が必要です。

【参考】EU AI法の概要 欧州連合日本政府代表部(2025年9月)

3. Limited risk(限定リスク)

危害の可能性は低いが、利用者が誤認・誤解する可能性があるAIのカテゴリーで、透明性義務や情報開示義務が課されます。高リスクと違い、CEマーキングやリスク管理義務は不要ですが、透明性義務を怠ると罰金対象になる点に留意が必要です。

 

①AI生成コンテンツ(合成メディア): AIが生成した画像・音声・動画・テキスト

AI生成であることを明示する義務

例)AI生成の写真、ディープフェイク、AIナレーション

 

②チャットボット・対話型AI:人間と誤認される可能性がある対話システム

「これはAIです」と利用者に明示する義務

例)カスタマーサポートのAIチャット

 

③感情推定AI(特定の用途を除く):顔・声・文章から感情を推定するAI

※ただし、学校・職場での感情推定は、禁止(Unacceptable risk)に分類されるため除外

利用者に対して感情推定を行っていることを通知する義務

 

④生体認証の一部の用途:単純な分類・タグ付けなどは限定リスクに分類

※リアルタイム識別は高リスクに分類

利用者にAIを使用していることを明示する義務

4. Minimal or no risk(最小または無リスク)

人の健康・安全・基本的権利に対するリスクが極めて低いAIのカテゴリーで、規制の対象外とされているため、法的義務はありません。ただし、自主的な行動規範(Code of Conduct)は推奨されています(対応は任意)。

 

①日常的・一般用途のAI

例)AI翻訳(DeepL、Google翻訳など)、AIによる文章要約・補完、スプレッドシートのAI分析機能、メールの自動返信提案

 

②エンターテインメント系AI

例)ゲームのNPC(AIキャラクター)、AIによるレコメンド(映画・音楽)

 

③生産性向上ツール

例)文書作成支援AI、コーディング補助AI(GitHub Copilot など)

 

④画像分類・タグ付け(非バイオメトリック)

例)写真アプリの自動分類(風景・食べ物など)

汎用AIモデル(General Purpose AI Models)とは?

汎用AIモデルとは、特定の用途に限定されず、幅広いタスクを実行できるカテゴリーで、例えば、文章生成、画像生成、翻訳、要約、分類などを行うChatGPTやGeminiのようなLLMが該当します。幅広いシステムやアプリケーションに組込む汎用性の高い技術を定義しています。

1. 顕著な汎用性

特定の用途に限定されず、文章生成・画像生成・翻訳・要約など幅広いタスクを実行できるAI

例)ChatGPT(OpenAI)、Gemini(Google)、Claude(Anthropic)、LLaMA(Meta)、Mistral(Mistral AI)など

2. 広範なタスクの遂行

多くのアプリケーションに組み込まれ、下流のAIの性能に大きく影響するモデル

3. 大規模な学習(計算量による技術的基準)

欧州委員会のGPAIガイドラインでは、10の23乗以上の計算量で訓練されたモデルは、汎用AIモデルとみなされると定義

【参考】欧州委員会のAI Office 公式サイト

 

汎用的であるがゆえに社会のあらゆるシステムに組込まれ、多数の企業や組織で使用されることから、「市場の広範囲に影響し、重大なシステミックリスクを引き起こす可能性がある」とされ、これまで見てきたリスクレベルとは別に義務を課しています。

EU AI Actが課している規制と義務

eu-aiact-5

高リスクAIに課される規制

EU AI Actの中で最も重い義務を課されるのが、リスクレベル分類のうちの高リスクAIです。発効から2年の準備期間を経て、2026年8月2日からいよいよ適用が始まりますが、準備期間の長さからも、対象企業の対応負荷の高さ、マーケットに与える影響の大きさが伺えます。

1. リスク管理システムの構築(Article9)

・リスクの特定・分析・評価・低減プロセスを整備

2. データガバナンス(Article10)

・学習データの品質・バイアス管理

・データセットの適切性・代表性の確保

3. 技術文書の作成(AnnexⅣ)

・AIの仕様、目的、リスク、性能、制限事項を文書化

・EU当局が監査できるレベルの詳細が必要

4. ログ(記録)の保持(Article12)

・AIの動作ログを自動的に記録し、一定期間保存

5. 透明性と利用者への情報提供(Article13)

・AIの目的、制限、使用条件をユーザーに明示

6. 人による監督(Human oversight)(Article14)

・人間が介入・停止できる仕組みを設計

7. サイバーセキュリティ(Article15)

・攻撃耐性、堅牢性の確保、運用中のパフォーマンス劣化の防止

・データの改ざん、不正アクセス・モデル操作への耐性の確保

・インシデント時の適切な対応(Security by design)

8. CEマーキング(適合性評価)(Article43-51)

・EU市場に提供するにはCEマークが必須

・外部監査(Notified Body)が必要なケースもあり

高リスクAIに該当しないか再確認を

特に高リスクAIのAnnex III(用途ベース)のうち、①生体認証、③教育・職業訓練、④雇用・労務管理のカテゴリーは、どの企業でも該当する可能性があります。DXの進展で企業のクラウドの利用が広がっていますが、クラウドサービスにはAIを用いた便利な機能が現在急速に追加されています。

 

自社は高リスクAIに該当していないか、近い将来該当する可能性はないか、現在利用しているクラウドサービスは前述の高リスクAIに該当する可能性はないか?AIが組込まれるアップデートは予定されていないか?といった提供側・利用者側両方の視点で、部門横断の全社的な再点検を行うとともに、定期的な棚卸をスケジュールすることが重要です。

汎用AIモデルに対する規制

汎用AIモデルは、社会基盤と位置付けられ、EUはその責任ある開発と提供を強く求めています。2025年8月からすでに施行されている汎用AIモデルへの規制(GPAI規制)では、以下の義務を課しています。ただし、市場投入により法的義務が発生するため、市場投入前の研究・開発・プロトタイピングのみを目的とした汎用AIモデルは、適用を除外されています。

①技術文書の整備

モデルの能力・制限・訓練データの概要などを文書化すること

② 著作権保護の遵守

著作権保護されたデータの利用に関する情報を開示すること

③情報提供義務

下流の開発者が安全に利用できるよう、必要な情報を提供すること

システミックリスクを有する汎用AIモデルの基準

汎用AIモデルの定義には、さらに以下の「システミックリスクを有する汎用AIモデル」の判断基準が追加されています。

1. 計算量の閾値:10の25乗以上で訓練されたモデル

汎用AIモデルよりもさらに大規模な計算量(10の25乗以上) を基準とする。

※汎用AIモデルの分類基準は10の23乗

2. 高インパクト能力

社会的影響が大きく、誤用・悪用時に大規模な被害を生む可能性があるモデル。

「大規模な影響を及ぼし得る最先端モデル」であること。

※欧州委員会の個別指定あり。利用者数、自律性の程度、社会への普及度などが判断基準

 

システミックリスクを有する汎用AIモデルは、その高い能力がEU市場や社会全体に甚大な影響(広範な負の連鎖)を及ぼす可能性がある先進的モデルであるため、汎用AIモデル(General Purpose AI Models)よりも、更に厳しい追加義務を課しています。

システミックリスクを有する汎用AIモデルへの追加義務

システミックリスクを有する汎用AIモデルは、その特徴から多数の企業・組織・政府が同じ基盤のモデルを採用します。「ごく少数の巨大モデルが社会全体に広範で深刻な影響を及ぼしうるため、一つのモデルの欠陥が社会全体に波及する」とされ、更に厳しい追加義務を課しています。

1. リスク評価とリスク軽減(Risk assessment & mitigation)

・モデルの悪用・誤用・安全性問題を継続的に評価

・リスクを軽減する対策の実装(例:安全ガードレール、アクセス制御)

2. 重大インシデントの報告義務(Incident reporting)

・モデルに起因する重大インシデントをEU当局へ迅速に報告

3. サイバーセキュリティ強化(Cybersecurity protections)

・敵対的攻撃(adversarial attacks)への耐性

・モデルの改ざん・不正利用防止

※Article 15のサイバーセキュリティ要件を強化

4. 欧州委員会への通知義務(Notify the Commission)

・システミックリスクを有する汎用AIモデルに分類された場合、EU委員会に通知が必要

5. レッドチーミング(安全性テスト)

・バイアス、脆弱性、悪用可能性を検証するレッドチーミングの実施

※継続的な安全性評価の義務化

EU AI Actの罰則

eu-aiact-6

リスクレベルに応じた制裁金の規定

EU AI Actでは、違反した場合の制裁金(罰則)が明確に定められており、リスクレベルや義務・規定の種類に応じて制裁金の額や割合が変わります。サービス提供のみならず、高リスクAIの自社利用なども違反すれば対象となるため、留意が必要です。

禁止されたAI慣行(Article 5)への違反

法で禁止した行為(例:社会的信用スコアリング、人の弱みにつけ込む操作的アルゴリズム等)に違反した場合
35,000,000ユーロまたは前年度の全世界売上の7%(禁止行為)のいずれか高い方

その他の義務違反(高リスクAI・GPAI義務など)

法で定めた義務(高リスクAIの要件、透明性要件、汎用AIモデルの義務など)に違反した場合
15,000,000ユーロまたは前年度の全世界年間売上高の3%いずれか高い方

当局への不正確・誤解を招く情報の提供

監督当局への資料提出や情報提供において虚偽・不完全・誤解を招く内容を出した場合
7,500,000ユーロまたは前年度の全世界年間売上高の1%のいずれか高い方

AI法の規定違反

当局からの情報・書類要求への不履行や虚偽情報の提供
委員会による評価への協力義務不履行 など
15,000,000ユーロまたは前年度の全世界年間売上高の3%いずれか高い方

汎用AIモデル提供者に対する別枠の罰金(Article 101)

汎用AIモデルの提供者が前述の違反をした場合、欧州委員会はさらに別枠の罰金を科すことができます。

適用スケジュール(2025年以降)

①発効(2025年8月2日)

②初期規定の適用開始(2025年2月2日)

「禁止AI」と「AIリテラシー義務(教育・啓発)」が適用開始

※禁止AI違反の罰則も適用開始

③汎用AIモデル規制の適用開始(2025年8月2日)

汎用AIモデル(GPAI)、システミックリスクGPAIの規制が適用開始

※GPAI関連の罰則も適用開始

④高リスクAIと透明性義務が適用開始(2026年8月2日)

高リスクAIの義務が全面適用(AnnexⅢ)、透明性義務が全面適用(Article50)AI規制サンドボックスが稼働

※高リスクAI関連の罰則も適用開始

⑤EU AI Actの完全適用(2027年8月2日)

全ての義務が完全に適用、既存のAIシステムも完全に適合が必要、罰則体系も完全稼働

【参考】EU AI法の概要 欧州連合日本政府代表部(2025年9月)

イノベーション支援

eu-aiact-1

EU AI Actは、単なる規制法の枠組みを超え、規制や要求事項に適合するための設計開発や運用構築を支援する「AI規制サンドボックス」を備えている点に特徴があります。「AI規制サンドボックス」とは、革新的なAI技術を安全かつ法的に試験・検証できる環境を提供する制度であり、企業や研究機関が規制の枠内で実証実験を行えるようにする仕組みです。

 

AIシステムの有害な影響から市民を保護し、適切な管理下で信頼できるAIの発展を促進するために、企業がAIシステムを市場に投入する前に規制に適合するための開発、試験、検証を実施できる環境を提供することで法令遵守に基づくイノベーションを支援しています。

AI規制サンドボックス制度の概要

設置主体:EU加盟国の管轄当局および欧州データ保護監督機関(EDPS)

目的: AIの社会実装の支援、法的・倫理的リスクの事前検証、規制遵守の実践的な知見獲得

対象:革新的なAIシステムの開発者、提供者、研究者など

EU AI Actの自社への影響を再確認しよう

EU AI Actでは、禁止事項やリスクレベルに応じた義務を明確にし、市場参入者に共通したフレームワークを提供しています。規制に違反した場合には、高額な制裁金を課し、規制を遵守させる強制力を確保する一方で、単なるAI規制法の枠組みに留まらず、AI規制サンドボックスを提供するなど、適切な管理下におけるAIの健全な発展と規制のバランスを図っており、AI規制のディファクトスタンダードとなる可能性の高い仕組みであると言えるでしょう。

 

汎用AIモデルは、モデルそのものの開発企業を対象としているため、対象はごく少数に限られますが、企業としては、自社がリスク分類の高リスクAIに該当しないか再確認することが重要です。将来的な機能のアップデートや新サービスのリリースにおいては、EU AI Actの適用対象の有無の確認をタスクに組込みましょう。

 

AI利用(putting into service)も規制対象となりますので、社内の利用システムの定期的な棚卸を行うなどの具体的なリスクアセスメントも是非検討したいところです。近年の人事評価関連のシステムには多くのAI機能が組み込まれ、今後も急速なアップデートが予想されますので、該当する企業は、一過性の対応ではなく計画や運用に落とし込んだ継続的な対応が必要です。

 

当社では、AIチャットとマルチモーダルAIによる、文章管理システム「PageFinder」を開発・提供しています。高リスクAIには該当しませんが、利用者に誤解を与えない、透明性の高いUI/UX設計など、EU AI Actへの適切な準拠を検討したいと思います。

 

PageFinder-bar