2024年10月16日

EUのAI規則(1/4)-総論、定義、禁止されるAIの行為

保険研究部 専務取締役 研究理事 兼 ヘルスケアリサーチセンター長 松澤 登

このレポートの関連カテゴリ

文字サイズ

(2) 軍事、防衛、国家安全保障の目的のみに使用されるAIシステム(同条3項)

(注記)軍事・防衛目的に関するAIシステムは、本規則から適用除外されている。このように除外されている理由としては、前文において「欧州連合条約(THE TREATY ON EUROPEAN UNION、TEU)4条2項(加盟国の国家安全責任)によって、また、TEUⅤ章2節によってカバーされる加盟国およびEU共通の防衛政策の特殊性によって(適用除外が)正当化される」。また、「国家安全保障の目的に関しては、国家安全保障がTEU第4条第2項に従って加盟国が唯一の責任主体であり続けるという事実と、国家安全保障活動の特定の性質と運用上の必要性、およびそれらの活動に適用される特定の国内規則の両方によって、(AI規則からの)除外が正当化される」(前文24)とする(カッコ内は筆者追記)。国家安全保障あるいは軍事という側面にあっては、人権保障が最大限に尊重される一般的なAIシステム規制には本質的に馴染まず、その構築や監視の責任は国家に存在すると位置づけられている。
(3) 第3国の公的機関または2条1項に該当する国際機関であって、これら機関がEUまたは加盟国との間で法施行や司法協力のために国際協調又は協定を締結することにより利用されるAIシステム2(同条4項)

(注記)欧州域外国やEU以外の国際機関が、EUや加盟国と協調して利用するAIシステムについては本規則の適用が除外されている。すなわち前文において「情報および証拠の交換を行う外国のパートナーとの既存の取決めおよび将来の協力のための特別な必要性を考慮し、第三国の公的機関および国際機関がEUまたは加盟国との法執行および司法協力のためにEUレベルまたは国内レベルで締結された協力または国際協定の枠内で行動する場合には、当該第三国または国際機関が個人の基本的権利および自由の保護に関して適切な保護措置を提供することを条件として」(前文22)本規則を適用しないこととされている。なお、EU内の国家機関、公的団体などが単独あるいは共同で利用するAIシステムには本規則の適用がある(前文23)。
 
2 ただし、基礎的な人権尊重と個人の自由を保証する十分な措置が講じられていることが必要(同項)。
(4) 科学的研究開発のみを目的として特別に開発され、使用されるAIシステムまたはAIモデル(その出力を含む)(同条6項)

(注記)純粋な科学研究目的のAIシステムについては本規則の範囲外である。前文において「本規則は、イノベーションを支援し、科学の自由を尊重するものであり、研究開発活動を損なうものであってはならない。したがって、科学的な研究開発のみを目的として特別に開発され、使用されるようになったAIシステムやモデルを、この規則の適用範囲から除外する」(前文25)とされている。純粋な研究目的のAIシステムは、市場投入されない限り、具体的な人権侵害の可能性が想定されないうえ、AIシステムの進歩を促進する理由により本規則から除外されているものと考えられる。

(5) AIシステムまたはAIモデルが新規販売または実用化される前の研究、試験または開発活動(同条8項)

(注記)前文に該当する記述はないが、研究開発段階にあるAIシステムが適用除外なのは上記(4)と同様の理由があるからだろう。なお、研究開発段階にあるAIシステムを実験する制度として、規制のサンドボックス制度等が設けられている。規制のサンドボックス制度については本規則57条以下(4回目のレポートで解説予定)に規定がある。
 
(6) 純粋に個人的な非事業活動の過程でAIシステムを使用する自然人である配備者(同条10項)

(注記)業務外の目的で個人がAIを利用する場合には本規則の適用はない。日本の事業者AIガイドラインでもAI利用者は「事業活動において、AIシステム又はAIサービスを利用する事業者」と定義されており、本規則と同様の立場をとっている。

(7) フリーおよびオープンソースのライセンスでリリースされたAIシステム(同条12項)

(注記)このようなAIシステムが適用除外になる理由について前文に特段の説明はない。なお、「汎用AIモデル以外のフリーでオープンソースのツール、サービス、プロセス、またはAIコンポーネントの開発者は、AIバリューチェーンに沿った情報共有を加速させ、EUにおける信頼できるAIシステムの促進を可能にする方法として、モデルカード3など、広く採用されている文書化の慣行を実施するよう奨励されるべきである」(前文89)とある。フリー・オープンライセンスAIについては、明確な規定はないものの、AIシステムの技術仕様等を文書化するように努めることが奨励されている。
 
3 モデルカードとはAIシステムの学習データセットや学習プロセス、偏向等について解説した文書である。
4リテラシー
AIシステムの提供者および配備者は、技術的知識、経験、教育および訓練、ならびにAIシステムが使用される文脈を考慮し、AIシステムを利用する人を考慮し、そのスタッフおよびその代理としてAIシステムの操作および使用に対処するその他の人の十分なAIリテラシーを、最善の範囲で確保するための措置を講じなければならない(4条)。

(注記)前文では「基本的権利、健康および安全を保護し、民主的な管理を可能にしながら、AIシステムから最大の利益を得るために、AIシステムに関して十分な情報に基づいた意思決定を行うために必要な知識を、AIシステムの提供者、配備者、および影響を受ける人々に与えるべきである」(前文20)とする。AIシステムに起因する悪影響を避けるとともに、AIシステムからから最大利益を得るために、AIリテラシーは必須と位置付けられている。本条はこのうち、特にAIシステムを操作する人のリテラシーを高めるための措置について規定している。

3――禁止されるAIの行為

3――禁止されるAIの行為

本項で取り扱う部分は禁止されるAIの行為であり、下記図表4の色付き部分である。人の権利や安全へのリスクが高すぎて許容できないAIシステムの行為は禁止される(5条)。
【図表4】本項3の解説部分(色付き部分)
1|禁止される行為
(1) サブリミナル技術を使用するシステム:人の意識を超えたサブリミナル的な技法、または意図的に操作的もしくは欺瞞的な技法を展開するAIシステムを市場に投入、稼働させること、または使用すること、並びにその目的または効果が、十分な情報に基づいた意思決定を行う能力を著しく損なわせることにより、人または人の集団の行動を実質的に歪め、その人、他の人または人の集団に重大な損害を与えるか、または与える可能性が合理的に高い意思決定を行わせること(5条1項(a))は禁止される。

(注記)前文ではAIを利用した操作技術により、「身体的、心理的健康または経済的利益に対して十分に重要な悪影響を及ぼすような重大な危害が発生する可能性があり、人間の行動を実質的に歪めることを目的とする、またはそのような効果を持つ特定のAIシステムを市場に出すこと、稼働させること、または使用することは、特に危険であり、禁止されるべきである」(前文29)とする。このような危険は脳と機械を接続する技術や仮想現実で特に起こりやすいと同前文では指摘している。AIシステムにより人間の自由な思考を不当に歪める行為は禁じられる。
 
(2) こどもや障がい者等を搾取するAIシステム:自然人またはその年齢、障がいまたは特定の社会的もしくは経済的状況に起因する特定の集団の脆弱性を悪用するAIシステムであって、その人の行動を重大に歪曲させる目的または効果があり、そのことで、その人または他の人に重大な損害を与えるか、または与える可能性が合理的に高いものを、市場投入すること、サービスを開始すること、または使用すること(同項(b))は禁止される。

(注記)前文では「AIシステムは、年齢、障がい、または極度の貧困状態にある人、民族的もしくは宗教的マイノリティなど、(中略)人または特定のグループの脆弱性を悪用する可能性がある」(前文29)とする。たとえば高齢者など社会的に脆弱性があると認められる層に対して、AIを利用して高リスク金融商品の販売を促進するなどの危険も想定される。

(3) ソーシャルスコアリング:以下(図表5)のような影響をもたらす結果となる、社会的行動又は既知,推論若しくは予測される個人的若しくは人格的特徴に基づいて,一定期間にわたり自然人又は集団の評価又は分類のためにAIシステムを市場投入すること,稼働させること又は使用すること(同項(c))は禁止される。
【図表5】禁止されるソーシャルスコアリング
(注記)前文では「公的または私的主体による自然人の社会的採点を提供する制度は、差別的な結果や特定の集団の排除につながる可能性がある。これらは、尊厳と非差別の権利、平等と正義の価値を侵害する可能性がある」とし、そして「そのような AI システムから得られる社会的スコアは、データが元々生成または収集された文脈とは無関係な社会的文脈において、自然人またはそのグループ全体を不利に扱うことにつながる可能性がある」(前文30)とする。

たとえば、中国には芝麻信用(ジーマ信用)という企業があって、この企業の信用スコアの高低でビザ申請や図書館の利用などに影響が出るといったことがある4。このようなシステムはこの規定に抵触する可能性が高いと考えられる。
 
4 大野雄裕「個人信用スコアとその規範」季刊個人金融2023冬号 https://www.yu-cho-f.jp/wp-content/uploads/2023winter_articles01.pdf 参照。
(4) 予測取締システム:自然人が罪を犯すリスクを評価又は予測するために,自然人のプロファイリング又はその人格的特徴及び特性の評価のみに基づき,自然人のリスク評価を行うためのAIシステムを市場に投入すること,この特定の目的のために使用すること,又は使用すること(同項(d))は禁止される。

(注記)前文では「無罪の推定に基づき、EU域内の自然人は常に実際の行動に基づいて判断されるべきである。国籍、出生地、居住地、子供の数、借金の額、車の種類など、その人のプロファイリングや性格的特徴、特性のみに基づいてAIが予測した行動のみによって、その人が犯罪行為に関与しているという客観的に検証可能な事実に基づく合理的な疑いがないのにも関わらず、人間による評価なしに判断されるべきでは決してない」(前文42)とする。その人のプロファイリングによって罪を犯す可能性が高いとAIが判断した場合に予防的に取り締まるAIシステムを禁止するものである。つまり実際に発生した犯罪事実に基づかない予測取締システムは禁止される。これは映画5のような話であるが、一部の権威主義的国家では実現している可能性がある。
 
5 マイノリティ・リポートという映画があり、純粋にはAIシステムではないが、罪を犯すことを予見してその者を事前に拘束するというシステムを持つ社会でのストーリーとなっている。

(2024年10月16日「基礎研レポート」)

このレポートの関連カテゴリ

Xでシェアする Facebookでシェアする

保険研究部   専務取締役 研究理事 兼 ヘルスケアリサーチセンター長

松澤 登 (まつざわ のぼる)

研究・専門分野
保険業法・保険法|企業法務

経歴
  • 【職歴】
     1985年 日本生命保険相互会社入社
     2014年 ニッセイ基礎研究所 内部監査室長兼システム部長
     2015年4月 生活研究部部長兼システム部長
     2018年4月 取締役保険研究部研究理事
     2021年4月 常務取締役保険研究部研究理事
     2024年4月より現職

    【加入団体等】
     東京大学法学部(学士)、ハーバードロースクール(LLM:修士)
     東京大学経済学部非常勤講師(2022年度・2023年度)
     大阪経済大学非常勤講師(2018年度~2022年度)
     金融審議会専門委員(2004年7月~2008年7月)
     日本保険学会理事、生命保険経営学会常務理事 等

    【著書】
     『はじめて学ぶ少額短期保険』
      出版社:保険毎日新聞社
      発行年月:2024年02月

     『Q&Aで読み解く保険業法』
      出版社:保険毎日新聞社
      発行年月:2022年07月

     『はじめて学ぶ生命保険』
      出版社:保険毎日新聞社
      発行年月:2021年05月

公式SNSアカウント

新着レポートを随時お届け!
日々の情報収集にぜひご活用ください。

週間アクセスランキング

ピックアップ

レポート紹介

【EUのAI規則(1/4)-総論、定義、禁止されるAIの行為】【シンクタンク】ニッセイ基礎研究所は、保険・年金・社会保障、経済・金融・不動産、暮らし・高齢社会、経営・ビジネスなどの各専門領域の研究員を抱え、様々な情報提供を行っています。

EUのAI規則(1/4)-総論、定義、禁止されるAIの行為のレポート Topへ