EUのAI規制法が成立 生成コンテンツ明示、26年本格適用

【ブリュッセル=辻隆史】欧州連合(EU)の加盟国からなる閣僚理事会は21日、世界初の人工知能(AI)規制法案を承認した。すでに立法機関の欧州議会も採択しており、正式に成立した。生成AIの提供企業にAI製であることを明示させるなど透明性の担保を求める。

日本など多くの国がAIに関するルール整備を検討するなか、世界標準をめざすEUの規制内容は他国の政策立案の参考になる。

成立したAI規制法は数日内に...
日本経済新聞 2024年5月21日 21:43 [会員限定記事]

EU委員会で、世界に先駆けて「AI規制法」が成立しました。
最も重い違反の場合、企業に「3500万ユーロ(約60億円)」か「年間世界売上高の7%」のいずれか高い方を制裁金として科すとともに、AIシステムの市場からの取下げやリコールなどの是正措置が公的機関から義務付けられることもあり、欧州域内で活動する日本企業にも大きな影響が及ぶことになります。

今回の「EUのAI規制法」のポイントは、以下の通りです。
EUのAI規制法のポイント
  • 2026年に本格運用。企業には適用までに自主ルールの順守要請
  • 違反企業には巨額の制裁金
  • 生成AIによるコンテンツには明示義務。個人の私的な生成AI利用は規制対象外の見通し
  • 子どもの搾取など弱者につけ込むAI利用は禁止
  • 監督機関「AIオフィス」がEUレベルのリスクに対応

今回の「EUのAI規制法」では、AIのリスクに応じて規制内容を変える「リスクベースアプローチ」が採用されています。
なお、生成AIは、原則として「限定リスク」のあるAIに分類され、「透明性義務」のみが課されています。
種類 規制の内容 AIシステムの例
「許容できないリスク」のあるAIシステム 禁止
  • 行動操作
  • 特定の人物や集団の脆弱性の利用
  • 公的機関による社会的スコアリング
  • 法執行機関のためのリアルタイムでの遠隔生体認証
「ハイリスク」のあるAIシステム 規制
  • クレジット、健康保険、生命保険、公的給付の受給資格の評価
  • 応募書類の分析または候補者の評価
  • 製品のセーフティコンポーネント
「限定リスク」のあるAIシステム 透明性義務のみ
  • 消費者と対話するAIシステム
  • 生成AIコンテンツ(画像、音声、動画)を生成または操作するAIシステム
「最小リスク」のあるAIシステム 規制なし
  • スパムフィルター
  • AI対応のビデオゲーム


ちなみに、AI規制法における「透明性義務」について、以下のように説明されています。
  • AIシステムとやり取りしていることを人々に知らせる必要がある
  • 禁止されていない感情認識システムや生態認証システムにさらされる人々は、そのシステムの存在について知らされていなければならない
  • ディープフェイクコンテンツは、人為的に生成、または操作されたものであることを公表しなければならない

このようなEU発の新しい規制が日本企業の活動に影響を与えた例としては、近年では2018年5月18日適用の「EU一般データ保護規則(GDPR)」がありますが、GDPRの制裁金が「最大2000万ユーロと全世界年間売上の4%までのいずれか高い方」だったことに比べても制裁金の額が大きく、GDPR成立時以上に十分な準備を進める必要があります。

また、GDPR適用当時は個人情報保護法対応の延長線上での見直し中心だったところ、AIの業務利用は始まったばかりで、今後どのような形でAIが活用されていくのか予想が難しく、より包括的な社内ルール作りが求められることになります。

また、今回の「EUのAI規制法」が呼び水となり、各国でAI規制法の立法化が進む可能性が高く、進出先の国・地域でのAI規制法の立法動向を注視しておく必要もあります。

※ アメリカでは、2023年に大統領令、コロラド州は5月8日に州議会でAI規制法を可決されています。

企業における実務対応としては、その会社の事業の性質、類型、規模、範囲、現状でのAIの利用状況等を踏まえ、ケースバイケースで対応することになります。

ちなみに、今回の「EUのAI規制法」への対応は、企業の事業内容やAIの利用状況によって異なりますが、リスクマネジメントの一般的なプロセスに基づくと、以下のステップを踏むことになります。
Step1 自社のAIシステムを分類する  規制法に基づき、自社のAIシステムを許容できないリスク、ハイリスク、限定リスク、最小リスクのいずれかに分類します。
Step2 リスク評価を行う  各AIシステムについて、発生頻度や影響度などを考慮したリスク評価を行います。
Step3 リスク対策を策定する  リスク評価に基づき、適切なリスク対策を策定します。具体的には、技術的な対策、運用上の対策、組織的な対策などが考えられます。
Step4 コンプライアンス体制を整備する  規制法を遵守するためのコンプライアンス体制を整備します。具体的には、社内ルールや規程の策定、担当者の教育訓練、監査体制の構築などが考えられます。
新しいAIシステムを業務に活用する場合の申請フローなども準備が必要でしょう。
Step5 継続的な見直しを行う  法規制や技術の進歩に合わせて、リスク対策やコンプライアンス体制を継続的に見直します。

EUのAI規制法は、AIの倫理的な開発・利用に向けた画期的な取り組みです。
企業はこの規制法をしっかりと理解し、適切な対応を講じることで、法令遵守を図るとともに、社会的な責任を果たすことが重要となります。


ブログランキングに登録しています。
応援してくださる方は、こちらのクリックをお願いします。
にほんブログ村 士業ブログ 司法書士へ にほんブログ村 士業ブログ 行政書士へ 司法書士ランキング 行政書士ランキング