2024年10月23日

EUのAI規則(2/4)-高リスクAIシステム

保険研究部 取締役 研究理事 兼 ヘルスケアリサーチセンター長 松澤 登

このレポートの関連カテゴリ

文字サイズ

1――はじめに

前回(1回目)のレポートで述べた通り、EUのAI規則(以下、本規則)は、2024年6月13日にEUジャーナル(日本の官報に相当)に掲載され、同年8月1日に発効した。本シリーズでは本規則の内容を解説することを目的とする。4回中、2回目の本稿では高リスクAIシステムについて解説を行う。全体の中の位置づけとしては下記図表1の色付き部分である。
【図表1】本稿で取り扱う部分(色付き部分)

2――前回レポートの振り返り

2――前回レポートの振り返り

ここでは本稿から読まれる方のために、簡単に前回レポートの振り返りを行っておきたい。内容を単純化してお示しするので、正確には前回レポートを参照願いたい。

前回レポートでは各種定義、適用範囲、禁止されるAIの行為等を解説した。

まず定義としては、AIシステムは入力から推論して出力を行う機械のシステムとされていた。適用対象になるのは、主にはAIシステムをEU域内に市場投入するか又は稼働させる提供者と、EU域内で事業上AIシステムを利用する配備者である。

前回レポートの重点は禁止されるAIの行為であった。これには、人の意識や感情に干渉するシステム(サブリミナル技術を使用するシステムなど)や、人を監視し、分類するシステム(生体データを無差別収集するシステムなど)があった。これらはAIシステムの及ぼす悪影響のリスクが高すぎると判断され、EU域内での使用が禁止されている。また、禁止違反には罰金が科される。

3――高リスクAIシステムとは

3――高リスクAIシステムとは

1|高リスクAIシステムとは(その1)
AIシステムが以下の(a)と(b)のいずれも満たすときに、そのAIシステムは高リスクとみなされる(6条1項。図表2)。
【図表2】高リスクとみなされる要件
ここで触れられている付属書Iには機械に関する欧州指令(Directive)、玩具の安全性に関する欧州指令などが列挙されている(図表3、図表4)。
【図表3】付属書IのセクションA
【図表4】付属書ⅠのセクションB
(注記)本条文はEU調和法(図表3、4に掲げるものに限る)の適用を受ける製品またはその安全装置であって、かつ適合性評価を受ける必要のある製品等を高リスクAIシステムと分類することを定めた条文である。前文では「高リスクAIシステムは、一定の必須要件に適合する場合にのみ、域内市場に投入され、使用されるべきである。これらの要件は、域内で利用可能な、あるいは域内で利用される高リスクのAIシステムが、域内法で認識され保護されている域内の重要な公共の利益に対して許容できないリスクをもたらさないことを保証するものでなければならない」(前文46)とする。

ここで、高リスクかどうかは「憲章が保護する基本的権利にAIシステムが与える悪影響の程度が特に重要となる。これらの権利には、人間の尊厳、私生活と家族生活の尊重、個人情報の保護、表現と情報の自由、集会と結社の自由、差別のない権利、教育を受ける権利、消費者保護、労働者の権利、障害者の権利、男女平等、知的財産権、効果的な救済と公正な裁判を受ける権利、防御と無罪推定の権利、善良な管理者の権利などが含まれる」(前文48)を考慮するものとする。

前回レポートで述べた通り、AIシステムのうち禁止されるものがある。他方、高リスクAIシステムとは、リスクはありながらも、何らかの措置を加えることなどにより、リスクの発生を十分に抑制するか、リスクが発生しても社会的に許容できるリスクにとどめることができるものが該当すると位置づけられる。
 
1 EU で製品を流通させるにあたり、特定分野の製品が満たすべき要件を調和(ハーモナイゼーション)させることとしているEU 指令や規則(Union harmonization legislation)のことを指す(EU整合化法令と訳されることもある)。
2|高リスクAIシステムとは(その2)
付属書III(図表5)に記載されているAIシステムは高リスクとみなされる(6条2項)。ここで付属書IIIには自然人の健康、安全または基本的権利に重大な危害を及ぼすリスクがあるAIシステム(=これには生体識別や教育、職業訓練、雇用、必須の民間・公共サービスへのアクセス、法執行、移民・亡命・国境管理、私法及び民間プロセスの運営などが含まれる)および重要インフラに該当する場合や環境に重大な危害を及ぼすAIシステムが記載されている。

ただし、付属書IIIに言及されるAIシステムであっても、意思決定の結果に重大な影響を与えないことを含め、自然人の健康、安全又は基本的権利に危害を及ぼす重大なリスクをもたらさない場合には、高リスクとはみなされないものとする(同条3項)。なお、AIシステムが自然人のプロファイリングを行う場合には、常に高リスクであるとみなされる(同条3項但書)。

そして、付属書IIIで言及されるAIシステムが高リスクではないと考える提供者は、当該システムが市場投入され、又は使用開始される前に、その評価を文書化しなければならない。このような提供者は、49条2項(3回目のレポートで解説予定)に定める登録義務の対象となる。欧州委員会は付属書Ⅲの修正権限を有する(7条)。

(注記)前文では「本規則であらかじめ規定された領域で言及されているAIシステムが、意思決定に重大な影響を与えないか、またはそれらの利益を実質的に害しないため、それらの領域で保護される法益を害する重大なリスクにつながらない特定の場合があり得ることを明確にすることも重要である。本規則において、意思決定の結果に実質的な影響を与えないAIシステムとは、人為的か自動的かを問わず、意思決定の実質、ひいては結果に影響を与えないAIシステムと理解すべきである」(前文53)とある。すなわち、付属書IIIに記載されているAIシステムは、人の意思決定やその結果に重大な影響を及ぼす可能性があるものとの認識のもとで、高リスクであるとみなされる。したがって意思決定やその結果に重大な影響をもたらさないものと提供者が判断しうるものであれば、登録を条件として高リスクAIシステムから除外されているものと考えられる。
【図表5】付属書Ⅲ(高リスクAIシステム)
【図表5】付属書Ⅲ(高リスクAIシステム)(続き)

(2024年10月23日「基礎研レポート」)

このレポートの関連カテゴリ

Xでシェアする Facebookでシェアする

保険研究部   取締役 研究理事 兼 ヘルスケアリサーチセンター長

松澤 登 (まつざわ のぼる)

研究・専門分野
保険業法・保険法|企業法務

経歴
  • 【職歴】
     1985年 日本生命保険相互会社入社
     2014年 ニッセイ基礎研究所 内部監査室長兼システム部長
     2015年4月 生活研究部部長兼システム部長
     2018年4月 取締役保険研究部研究理事
     2021年4月 常務取締役保険研究部研究理事
     2025年4月より現職

    【加入団体等】
     東京大学法学部(学士)、ハーバードロースクール(LLM:修士)
     東京大学経済学部非常勤講師(2022年度・2023年度)
     大阪経済大学非常勤講師(2018年度~2022年度)
     金融審議会専門委員(2004年7月~2008年7月)
     日本保険学会理事、生命保険経営学会常務理事 等

    【著書】
     『はじめて学ぶ少額短期保険』
      出版社:保険毎日新聞社
      発行年月:2024年02月

     『Q&Aで読み解く保険業法』
      出版社:保険毎日新聞社
      発行年月:2022年07月

     『はじめて学ぶ生命保険』
      出版社:保険毎日新聞社
      発行年月:2021年05月

週間アクセスランキング

ピックアップ

レポート紹介

【EUのAI規則(2/4)-高リスクAIシステム】【シンクタンク】ニッセイ基礎研究所は、保険・年金・社会保障、経済・金融・不動産、暮らし・高齢社会、経営・ビジネスなどの各専門領域の研究員を抱え、様々な情報提供を行っています。

EUのAI規則(2/4)-高リスクAIシステムのレポート Topへ