2024年10月30日

EUのAI規則(3/4)-適合性審査、汎用モデル

保険研究部 専務取締役 研究理事 兼 ヘルスケアリサーチセンター長 松澤 登

このレポートの関連カテゴリ

文字サイズ

4|CEマーキング
CEマーキングは規則(EC)765/2008(製品がEU法令の要求する条件に適合していることを示すマークについて定めた規則)の要件に従って添付されなければならない(48条1項)。CEマーキングは、高リスクのAIシステムについては、見やすく、読みやすく、消えないように貼付しなければならない。高リスクのAIシステムの性質上、それが不可能な場合又は困難な場合は、適宜、包装又は添付文書に貼付しなければならない(同条3項)。

(注記)CEマーキングとは、提供者が、AIシステムがIII章2節(高リスクAIシステムの要件)に規定された要求事項、及びその他のAIシステムを規制するEU調和法であって、その貼付を規定するものに適合していることを示すマーキングをいう(3条(24))。前文では「高リスクAIシステムは、域内市場内で自由に移動できるよう、本規則への適合を示すCEマーキングを付すべきである。製品に組み込まれた高リスクAIシステムについては、物理的なCEマーキングを付すべきであり、デジタルCEマーキングで補完することができる。デジタルでのみ提供される高リスクのAIシステムについては、デジタルCEマーキングを使用すべきである」(前文129)とする。CEマーキングはEU規格を遵守していることを示すことにより、高リスクAIシステムの域内での流通を円滑なものにすることを目的とする。
5|登録
(1) 付属書III(前回レポートの図表5)のポイント2で言及される高リスクAIシステム(重要インフラ)5を除き、提供者、または該当する場合には認定代理人は、71条で言及されるEUのデータベース(次回レポートで解説)に自身とそのシステムの情報を登録しなければならない(49条1項)。

(2) 提供者が第6条3項に従って高リスクでないと結論付けたAIシステムを市場投入する前、または使用開始する前に、提供者または該当する場合は認可された代理人は、71条で言及されるEUデータベースに自身および自身のシステムの情報を登録しなければならない(同条2項)。

(3) 付属書IIIのポイント2(重要インフラ)で言及されている高リスクAIシステムは、国家レベルで登録されなければならない(同条5項)。

(注記)前文では「AI分野における欧州委員会および加盟国の作業を容易にし、国民に対する透明性を高めるため、関連する既存のEU調和法の適用範囲に含まれる製品に関連するもの以外の高リスクAIシステムの提供者、および、(中略)適用除外に基づき高リスクではないと考える提供者は、欧州委員会が設置・管理するEUのデータベースに、自らとそのAIシステムに関する情報を登録することを義務付けられるべきである」(前文133)とある。AIシステムを本規則によって構築されるデータベースに登録を行うのは、監視当局の作業の容易化および国民に対する透明性の向上のためである。
 
5 該当するのは、重要なデジタルインフラ、道路交通、水道、ガス、暖房、電気の供給の管理運営にかかわる安全部品としてのAIシステムである。

5――特定のAIシステムの提供者と配備者に対する透明義務

5――特定のAIシステムの提供者と配備者に対する透明義務

本項5および6、7は以下の図表4に係る部分を解説するものである。
【図表4】5、6、7の該当部分(色塗りの部分)
(1) 提供者は、自然人と直接対話することを意図したAIシステムが、状況及び使用の文脈を考慮し、合理的に十分な知識を持ち、観察力があり、思慮深い自然人から見て(AIシステムであることが)明らかな場合を除き、当該自然人がAIシステムと対話することを知らされるような方法で設計及び開発されることを確保しなければならない。この義務は、第三者の権利及び自由に対する適切な保護措置の下に、犯罪を検知、防止、捜査又は起訴することを法律で認められたAIシステムには適用されない(50条1項)。

(注記)前文では「自然人との対話またはコンテンツの生成を意図した特定のAIシステムは、それが高リスクに該当するか否かにかかわらず、なりすましや欺瞞の特定のリスクをもたらす可能性がある。したがって、(中略)特定の透明性確保義務の対象とすべきであ」るとする(前文132)。この条文は、たとえばチャットボット6などで人間ではなくAIシステムと対話している場合に、そのことが対話者にわかるようにしなければならないとするものである。自然人でなくAIシステムと会話していることを明確にすべきことは詐欺などの被害防止が念頭にある。なお、犯罪の検知などにはこの規定は適用されない。
 
6 チャットボットとは、人工知能を活用した「自動会話プログラム」のことである。金融機関などにネット上で質問等をした場合、まずチャットボットが対応する会社も多い。
(2) 合成音声、画像、映像又はテキスト・コンテンツを生成する汎用AIシステムを含むAIシステムの提供者は、AIシステムの出力が機械可読形式で表示され、人為的に生成又は操作されたものであることが検知可能であることを保証しなければならない。提供者は、様々な種類のコンテンツの特殊性及び制限、実装のコスト、並びに関連する技術標準に反映され得る一般的に認められた技術状況を考慮し、技術的に実行可能である限りにおいて、その技術的検知策が効果的であり、相互運用可能であり、堅牢であり、信頼できるものであることを確保しなければならない(同条2項)。

(注記)前文では「さまざまなAIシステムが大量の合成コンテンツを生成できるようになり、人間が生成した本物のコンテンツと区別することがますます難しくなっている。このようなシステムが広く利用可能になり、その能力が高まることは、情報エコシステムの完全性と信頼性に重大な影響を及ぼし、誤った情報や大規模な操作、詐欺、なりすまし、消費者への欺瞞といった新たなリスクを引き起こす」したがって「こうしたシステムの提供者に対し、機械が読み取り可能な形式で表示し、その出力が人間ではなくAIシステムによって生成または操作されたことを検出できる技術的ソリューションを組み込むことを求めることが適切である」(前文133)とする。AIシステムの出力が、人が録音・録画した自然な音声・動画等ではないことが明らかになるようにしなければならない。本項は提供者に対する義務であり、次項では配備者の義務として同様に規定されている。これら規定にかかわる深刻な問題として、ディープフェイクがある。この点については次項参照。
(3) ディープフェイクを構成する画像、音声または映像コンテンツを生成または操作するAIシステムの配備者は、当該コンテンツが人為的に生成または操作されたものであることを開示しなければならない。この義務は、犯罪の検出、防止、捜査または訴追のために法律で使用が許可されている場合には適用されない。コンテンツが、明らかに芸術的、創作的、風刺的、フィクション的または類似の作品または番組の一部を構成する場合、本項に定める透明性の義務は、当該作品の表示または享受を妨げない適切な方法で、当該生成または操作されたコンテンツの存在を開示することに限定される(同条4項)。

(注記)いわゆるディープフェイク7に関する規制である。本項は合成された映像や音声がAIシステムによって合成されたものについて透明性を求めるが、前文では「本規則に定めるディープフェイクの透明性義務は、作品の有用性と質を維持しつつ、通常の利用や使用を含め、作品の展示や享受を妨げない適切な方法で、そのような生成または操作されたコンテンツの存在を開示することに限定される」(前文134)とされ、不当な目的に利用されることを規制することを目的とするが、芸術や表現の自由を阻害するものではないとされている。
 
7 ディープフェイク(deepfake)は本来、機械学習アルゴリズムの一つである深層学習(ディープラーニング)を使用して、2つの画像や動画の一部を結合させ元とは異なる動画を作成する技術である。現在、世間で言われているディープフェイクはフェイク動画、偽動画を指すことが多い。現実の映像や音声、画像の一部を加工して偽の情報を組み込み、あたかも本物のように見せかけて相手をだます方法として認識されつつある(NECソリューションイノベータのHPより)。

6――汎用AIモデル

6――汎用AIモデル

1|汎用AIモデル等に係る定義
(1) まず汎用AIモデル8の定義を述べる。それは、AIモデル(そのようなAIモデルが大規模な自己監視を使用して大量のデータで学習する場合を含む)であって、有意な汎用性を示し、モデルが市場に投入される方法に関係なく、広範で明確なタスクを適切に実行することができ、様々な下流のシステムまたはアプリケーションに統合することができるものを意味する(3条(63))。

そして汎用AIシステムとは、汎用AIモデルをベースとしたAIシステムであり、当該AIシステムを直接使用する場合、または他のAIシステムと連動して利用する場合において、様々な目的に対応する能力を有するAIシステムを意味する(3条(66))。

(注記)具体的にどのようなAIモデルが汎用AIモデルに該当するかどうかは本規則において重要なポイントである。この点、前文では「汎用AIモデルの概念は、法的確実性を確保するために、AIシステムの概念とは別に明確に定義されるべきである」とし、その定義は、「汎用AIモデルの主要な機能特性、特に汎用性と幅広い明確なタスクを適切に実行する能力に基づくべきである。これらのモデルは、通常、自己監視のもとでの、学習あり、監視なし学習あり、強化学習ありなどの様々な手法により、大量のデータで学習される」(前文97)とされる。そして「大規模な生成AIモデルは、汎用AIモデルの典型的な例であり、テキスト、音声、画像、映像などのコンテンツを柔軟に生成できるため、さまざまな特徴的なタスクに容易に対応できる」(前文99)とされており、生成AIモデルは近い将来汎用AIモデルに該当することとなる(あるいは既に該当する)可能性が高い。また、汎用AIモデルに該当するかどうかの判断基準としてパラメータ(変数)の数が重要とされ、前文では「モデルの汎用性は、特にパラメータ(変数)の数によって決定されることもあるが、少なくとも10億のパラメータを持ち、自己監視を使用して大量のデータで学習を行ったモデルは、重要な汎用性を示し、広範囲の特徴的なタスクを適切に実行すると考えられるべきである」(前文98)とする。本規則において汎用AIモデルの説明は上記に述べたところがすべてであるが、あえて簡単に言い換えれば、人間と同等の広範な判断能力を持ち、さまざまなタスク(仕事)を実施可能なものが汎用AIモデルである。
 
8 AIモデルという意味であるが、AIシステムの中核となる機能であり、入力から出力までの作業を行うシステムに組み込むことで、AIシステムとして稼働するものを指す。
(2) 本規則において、システミック・リスクとは、汎用AIモデルの保有する、他に影響を及ぼす大きな能力(capability)に特有のものであり、その影響力の大きさによりEU市場に重大な影響を及ぼすリスク、または公衆衛生、安全、治安、基本的権利、社会全体に対する実際の悪影響もしくは合理的に予見可能な悪影響により、バリューチェーン全体に大規模に伝播するリスクを意味する(3条(65))。

(注記)システミック・リスクについて、前文では「汎用 AI モデルは、1)重大事故、重要部門の混乱及び公衆衛生と安全への重大な影響に関連する、実際の又は合理的に予見可能な悪影響、2)民主主義のプロセス、公共及び経済の安全に関する実際の又は合理的に予見可能な悪影響、3)違法、虚偽又は差別的なコンテンツの流布を含むが、これらに限定されないシステミック・リスクをもたらす可能性がある」(前文110)とする(1)2)3)の数字は筆者挿入)。すなわち、重大な事故(たとえば自動運転の致命的欠陥)、民主主義や公共の安全に関する悪影響(たとえば国政選挙におけるディープフェイク動画の拡散)などが、大規模に発生あるいは拡散されることがシステミック・リスクと考えられる。
2|システミック・リスクを有する汎用AIモデル
(1) 汎用AIモデルは、以下のいずれかの条件を満たす場合、システミック・リスクを有する汎用AIモデルに分類される(51条1項)。

(a) 指標やベンチマークを含む適切な技術的ツールや方法論に基づいて評価された、高い影響力を持つもの、あるいは

(b) 委員会の決定に基づき、職権で、または科学的パネルからの適格な警告に基づき、附属書ⅩIII(図表5。モデルのパラメータ数、データセットの質又はサイズなど7つの基準)に定める基準に照らして、(a)に定める能力または影響に相当する能力を有すること。
【図表5】付属書XIIIの項目
(注記)前文では「システミック・リスクは特に影響力の高い能力から生じることから、汎用AIモデルであって、適切な技術的ツールや方法論に基づいて評価された高い影響力を有する場合、または、その影響力の大きさにより内部市場に重大な影響を及ぼす場合、その汎用AIモデルはシステミック・リスクを呈すると考えるべきである。汎用AIモデルにおける影響力の高い能力とは、最先端の汎用AIモデルに記録されている能力と同等か、それを上回る能力を意味する」(前文111)とし、また「汎用AIモデルのうち、高い影響能力の適用閾値を満たすものは、システミック・リスクを有する汎用AIモデルであると推定すべきである。」(前文112)とする。なお、現時点では図表5の項目が定められているが、閾値は未定な模様である。
(2) 汎用AIモデルが第51条1項(a)(上記(1))の条件を満たす場合、その提供者は、当該条件が満たされた後、または満たされることが判明した後、遅滞なく、いかなる場合においても2週間以内に欧州委員会に通知しなければならない。その通知には、当該条件が満たされたことを証明するために必要な情報を含めるものとする。欧州委員会が、通知を受けていない汎用AIモデルがシステミック・リスクを有していることを知った場合、欧州委員会はそのモデルを、システミック・リスクを有するモデルとして指定することを決定できる(52条1項)。

(注記)システミック・リスクを有する汎用AIモデルは欧州委員会への通知をかならず必要とする。前文では「潜在的な重大な悪影響を考慮すると、システミック・リスクを伴う汎用AIモデルは、常に本規則に基づく関連義務の対象とすべきである」(前文97)と強調されている。また、前文では「汎用AIモデルの学習には、計算資源の先行割り当てを含むかなりの計画が必要であるため、汎用AIモデルの提供者は、学習が完了する前に、そのモデルが閾値を満たすかどうかを知ることができる」(前文112)ため、提供者はAIオフィス(64条。次回レポートで解説予定)に通知しなければならないとする。また、通知を待たずとも、条件を満たした汎用AIモデルを、システミック・リスクを有する汎用AIモデルとして指定する権利を欧州委員会が有しているのは条文の通りである。

(2024年10月30日「基礎研レポート」)

このレポートの関連カテゴリ

Xでシェアする Facebookでシェアする

保険研究部   専務取締役 研究理事 兼 ヘルスケアリサーチセンター長

松澤 登 (まつざわ のぼる)

研究・専門分野
保険業法・保険法|企業法務

経歴
  • 【職歴】
     1985年 日本生命保険相互会社入社
     2014年 ニッセイ基礎研究所 内部監査室長兼システム部長
     2015年4月 生活研究部部長兼システム部長
     2018年4月 取締役保険研究部研究理事
     2021年4月 常務取締役保険研究部研究理事
     2024年4月より現職

    【加入団体等】
     東京大学法学部(学士)、ハーバードロースクール(LLM:修士)
     東京大学経済学部非常勤講師(2022年度・2023年度)
     大阪経済大学非常勤講師(2018年度~2022年度)
     金融審議会専門委員(2004年7月~2008年7月)
     日本保険学会理事、生命保険経営学会常務理事 等

    【著書】
     『はじめて学ぶ少額短期保険』
      出版社:保険毎日新聞社
      発行年月:2024年02月

     『Q&Aで読み解く保険業法』
      出版社:保険毎日新聞社
      発行年月:2022年07月

     『はじめて学ぶ生命保険』
      出版社:保険毎日新聞社
      発行年月:2021年05月

公式SNSアカウント

新着レポートを随時お届け!
日々の情報収集にぜひご活用ください。

週間アクセスランキング

ピックアップ

レポート紹介

【EUのAI規則(3/4)-適合性審査、汎用モデル】【シンクタンク】ニッセイ基礎研究所は、保険・年金・社会保障、経済・金融・不動産、暮らし・高齢社会、経営・ビジネスなどの各専門領域の研究員を抱え、様々な情報提供を行っています。

EUのAI規則(3/4)-適合性審査、汎用モデルのレポート Topへ