2024年11月06日

EUのAI規則(4/4-最終回)-イノベーション支援、ガバナンス、市販後モニタリング等

保険研究部 取締役 研究理事 兼 ヘルスケアリサーチセンター長 松澤 登

このレポートの関連カテゴリ

文字サイズ

1――はじめに

前回までのレポートで述べた通り、2024年8月1日にEUのAI規則((EU)2024/1689、以下本規則)が発効した。

前回までで、本規則のうち、(1)禁止されるAIシステム、(2)高リスクAIシステムの要件、(3)高リスクAIシステムの提供者、輸入業者、販売者の義務、(4)適合性認証等について述べた。

今回のレポートでは主に1)イノベーション支援、2)EUレベルのガバナンス、3)市販後モニタリング、4)違反行為の是正及び罰則等について述べる(図表1)。
【図表1】本稿で取り扱う部分(色付き部分)

2――これまでの振り返り

2――これまでの振り返り

さて、今回のレポートでも前回同様に、過去レポートの振り返りをしておきたい。

1回目のレポートではAIシステムの定義や禁止されるAIの行為を解説した。AIの定義のカギとなるのは推論能力であり、入力に対して推論し、出力をする人の脳の働きに似た機械システムをAIシステムと呼ぶとされている。そして適用対象は主にはAIシステムをEU域内に市場投入するか、稼働させる提供者と、EU域内で事業上AIシステムを利用する配備者である。

また、禁止されるAIの行為が定められていた。これには、人の意識や感情に干渉するシステム(サブリミナル技術を使用するシステムなど)や、人を監視し、分類するシステム(生体データを無差別取集するシステムなど)があった。

2回目のレポートでは高リスクAIシステムに関する規律を解説した。人権や安全性に重大な影響を及ぼす可能性のあるAIシステムは、リスク管理措置、データガバナンス、技術文書の作成・ログの保管、使用説明書の作成、人的監視措置を可能とするシステムの構成、正確性および堅牢性をシステムに備えさせるなどの要件が課せられる。

そして高リスクAIシステムの提供者・配備者・輸入業者・販売業者はそれぞれ所定の義務が課せられる。

3回目のレポートでは「適合性の審査」「透明義務」「汎用AIモデル」を解説した。高リスクAIシステムは市場投入および流通する前に第三者である適合性評価機関(被通知団体)による審査を受けなければならないとされている。また透明義務として、AIシステムの作成した写真などについて、作成したのがAIであることがわかるようにするという規制が存在する。さらに汎用AIモデルとして、人と同じようにさまざまなタスクをこなせるAIモデルについては、システミック・リスク(安全や基本的な権利に対する大規模な悪影響)を抑制するために提供者には追加的な義務が課せられる。

3――イノベーション支援策

3――イノベーション支援策

本項3ではイノベーション支援策を解説する(図表2)。
【図表2】本項の解説部分(色付き部分)
1|AI規制のサンドボックス
加盟国は、管轄当局が国内レベルで少なくとも1つのAI規制のサンドボックス(AI regulatory sandbox)1を設置することを保証するものとし、そのサンドボックスは2026年8月2日までに運用を開始するものとする。このサンドボックスは、他の加盟国の管轄当局と共同で設置することもできる。欧州委員会は、AI規制のサンドボックスの設置・運営に関する技術的支援、助言、ツールを提供することができる(57条1項)。

AI規制サンドボックスの設立は、以下の目的に貢献することを目的とする(同条9項.図表3)。
【図表3】AI規制サンドボックスの目的
 
1 規制のサンドボックス制度とは、日本においては、IoT、ブロックチェーン、ロボット等の新たな技術の実用化や、プラットフォーマー型ビジネス、シェアリングエコノミーなどの新たなビジネスモデルの実施が、現行規制との関係で困難である場合に、新しい技術やビジネスモデルの社会実装に向け、事業者の申請に基づき、規制官庁の認定を受けた実証を行い、実証により得られた情報やデータを用いて規制の見直しに繋げていく制度(内閣官房HP)と説明されている。
(注記)規制のサンドボックスの設置は「AIは急速に発展している技術群であり、責任あるイノベーションと適切な保護措置およびリスク軽減措置の統合を確保しつつ、規制による監督と、実験のための安全かつ管理された空間を必要とする」(前文138)という背景を有し、「AI規制のサンドボックスの目的は、革新的なAIシステムの本規則およびその他の関連するEU法および国内法への準拠を確保することを目的として、開発および市販前の段階において、管理された実験・試験環境を確立することにより、AIのイノベーションを促進すること」(前文139)を目的とする。規制のサンドボックス自体は日本にも存在し、必ずしもAIに限定されないが、いくつかのプロジェクトが認定されている2
2|AI規制のサンドボックスの取り決め
欧州連合全体での分断を避けるため、欧州委員会は、AI規制のサンドボックスの設置、開発、実施、運用、監督に関する詳細な取り決めを明記した施行法を採択する。施行法には、以下の問題に関する共通原則を盛り込むものとする(58条1項。図表4)。
【図表4】施行法の共通原則
(注記)本規則は欧州レベルでAI規制を行うものであることから、前文で「EU内の整合性を図るため、「欧州連合全体で統一された実施と規模の経済を確保するため、AI規制サンドボックスの実施に関する共通ルールと、サンドボックスの監督に関わる関係当局間の協力の枠組みを確立することが適切である」(前文139)とされている。
3|AI規制のサンドボックスの個人情報の処理
AI規制のサンドボックスにおいて、以下の条件がすべて満たされる場合、他の目的のために合法的に収集された個人データは、サンドボックス内で特定のAIシステムを開発、学習、テストする目的でのみ処理することができる(59条1項)。

そして、他の目的で収集された個人データを処理することのできるAI システムは、公的機関またはその他の自然人もしくは法人が、実質的な公益を守るために開発するもので、以下図表5の公益分野の1つ以上でなければならない(同項(a))。
【図表5】個人データを処理することのできるAI システム
上記(a)のほか、同項では(b)匿名化データで対応できない場合であること、(c)効果的な監視メカニズムがあること、(d)権限者のみがアクセスできること、(e)サンドボックス外で共有されないこと、(f)データ主体に影響を及ぼす措置や決定につながらないことなどの10個の条件を定めている。

(注記)本条文は他の目的で収集された個人情報を規制のサンドボックスで認定されたAIシステムに利用できるとするもので、前文では「AI規制のサンドボックス内の提供者および提供者候補が、特定条件下においてのみ、AI規制のサンドボックス内で公益を目的とした特定のAIシステムを開発するために、他の目的で収集された個人データを使用するための法的根拠を提供すべきである」とされ、「AI規制のサンドボックスにいる提供者は、適切なセーフガードを確保し、管轄当局と協力すべきである。これには、管轄当局のガイダンスに従うこと、サンドボックスでの開発、試験、実験中に発生する可能性のある、安全、健康、基本的権利に対する特定された重大なリスクを適切に軽減するために、迅速かつ誠実に行動することが含まれる」(前文140)とされている。
4|AI規制のサンドボックス外での実環境でのテスト
(1) AI規制のサンドボックス外の実環境における高リスクAIシステムの試験は、付属書Ⅲ(第1回レポート参照)に記載された高リスクAIシステムの提供者又は提供予定者が、本条及び本条にいう実環境試験計画に従っている場合、第5条の禁止事項にかかわらず、実施することができる(60条1項)。

欧州委員会は、施行法(implementing acts)によって、実地試験計画の詳細な要素を規定する。これらの施行法は、第98条(2)で言及されている審査手続きに従って採択されなければならない(同項)。

(注記)前文では「本規則の附属書に記載された高リスクのAIシステムの開発および市場投入のプロセスを加速させるためには、当該システムの提供者または提供予定者が、AI規制のサンドボックスに参加することなく、当該システムを実世界の条件下でテストするための特定の制度の恩恵を受けることも重要である」とし、「しかし、そのような場合、そのようなテストが個人に及ぼす可能性のある影響を考慮し、本規則によって、提供者または提供者候補に対して、適切かつ十分な保証と条件が導入されることが保証されるべきである」(前文141)とする。
 
(2) 60条に基づく実環境における試験のために、試験への参加に先立って、また、被験者に対し、簡潔、明瞭、適切かつ理解しやすい以下のような情報を適切に提供した上で、被験者から自由意思に基づくインフォームド・コンセントを得なければならない(61条1項。図表6)。
【図表6】インフォームド・コンセントの際に与えられるべき情報
(注記)前文では実環境下のAIシステムの試験に関して、「そのような場合、個人に対するそのようなテストの影響の可能性を考慮し、適切かつ十分な保証と条件が、提供者または提供者候補のために、本規則によって導入されることが保証されるべきである。このような保証には、特に、インフォームド・コンセントを求めるとAIシステムの試験ができなくなるような法執行機関を除き、実社会における試験への参加について、自然人のインフォームド・コンセントを求めることが含まれるべきである」(前文141)とする。

(2024年11月06日「基礎研レポート」)

このレポートの関連カテゴリ

Xでシェアする Facebookでシェアする

保険研究部   取締役 研究理事 兼 ヘルスケアリサーチセンター長

松澤 登 (まつざわ のぼる)

研究・専門分野
保険業法・保険法|企業法務

経歴
  • 【職歴】
     1985年 日本生命保険相互会社入社
     2014年 ニッセイ基礎研究所 内部監査室長兼システム部長
     2015年4月 生活研究部部長兼システム部長
     2018年4月 取締役保険研究部研究理事
     2021年4月 常務取締役保険研究部研究理事
     2025年4月より現職

    【加入団体等】
     東京大学法学部(学士)、ハーバードロースクール(LLM:修士)
     東京大学経済学部非常勤講師(2022年度・2023年度)
     大阪経済大学非常勤講師(2018年度~2022年度)
     金融審議会専門委員(2004年7月~2008年7月)
     日本保険学会理事、生命保険経営学会常務理事 等

    【著書】
     『はじめて学ぶ少額短期保険』
      出版社:保険毎日新聞社
      発行年月:2024年02月

     『Q&Aで読み解く保険業法』
      出版社:保険毎日新聞社
      発行年月:2022年07月

     『はじめて学ぶ生命保険』
      出版社:保険毎日新聞社
      発行年月:2021年05月

週間アクセスランキング

ピックアップ

レポート紹介

【EUのAI規則(4/4-最終回)-イノベーション支援、ガバナンス、市販後モニタリング等】【シンクタンク】ニッセイ基礎研究所は、保険・年金・社会保障、経済・金融・不動産、暮らし・高齢社会、経営・ビジネスなどの各専門領域の研究員を抱え、様々な情報提供を行っています。

EUのAI規則(4/4-最終回)-イノベーション支援、ガバナンス、市販後モニタリング等のレポート Topへ