2024年12月03日

AI事業者ガイドライン-総務省・経済産業省のガイドライン

保険研究部 取締役 研究理事 兼 ヘルスケアリサーチセンター長 松澤 登

このレポートの関連カテゴリ

文字サイズ

(7) アカウンタビリティ:ガイドラインでは、各主体は、AIシステム・サービスの開発・提供・利用において、トレーサビリティの確保、「共通の指針」の対応状況等について、ステークホルダーに対して、各主体の役割及び開発・提供・利用するAIシステム・サービスのもたらすリスクの程度を踏まえ、合理的な範囲でアカウンタビリティを果たすことが重要であるとする。具体的には、以下が挙げられている(図表12)。
【図表12】アカウンタビリティの具体的項目
本項目で挙げられているのは、AI開発者やAI提供者などの「共通の指針」の対応状況や、具体的な責任の分担などをステークホルダーに説明することなどである。

この点、上述(6)の通り、EU規則では高リスクAIシステムの提供者等がEUデータベースに登録をすることでアカウンタビリティを確保している。具体的にEU規則のもとで提供者が登録すべき内容は図表13の通りである。
【図表13】EU規則の登録事項(提供者)
図表13で特に説明が必要なのは、8~11であろう。ここは図表12のイ)共通の指針の対応状況の説明に該当する。EU規則では、高リスクAIシステムに関するEU規則の各種規定への適合性を審査することとされている。具体的には加盟国ごとの被通知団体(=適合性審査機関。上記図表の8.参照)が適合性を審査して、合格した場合に証明書を発行することとなっている。高リスクAIシステムの提供者は当該証明書、及び自らEU規制に適合していることを宣言するEU適合宣言書の写しを登録することとされている。このようにステークホルダーはEUデータベースを参照することで必要な情報を得ることができるようになっている。対して、ガイドラインではこのような適合性の審査制度および開示制度がないことに留意が必要である。

(8) 教育・リテラシー:ガイドラインでは、各主体は、主体内のAIに関わる者が、AIの正しい理解及び社会的に正しい利用ができる知識・リテラシー・倫理感を持つために、必要な教育を行うことが期待される。また、各主体は、AIの複雑性、誤情報といった特性及び意図的な悪用の可能性もあることを勘案して、ステークホルダーに対しても教育を行うことが期待されるとする(図表14)。
【図表14】教育・リテラシー
本項目では、例えば偽情報に関するリテラシーの向上などを目指している。事例としてはAI合成音声による詐欺などが挙げられている。また生成AIが事実と異なることをもっともらしく回答する「ハルシネーション」の被害も存在する13

EU規則でも、「AIシステムの提供者および配備者は、技術的知識、経験、教育および訓練、ならびにAIシステムが使用される文脈を考慮し、AIシステムを利用する人を考慮し、そのスタッフおよびその代理としてAIシステムの操作および使用に対処するその他の人の十分なAIリテラシーを、最善の範囲で確保するための措置を講じなければならない」(4条)とされている。
 
13 前掲注2 p15参照
(9) 公正競争確保:ガイドラインでは、各主体は、AIを活用した新たなビジネス・サービスが創出され、持続的な経済成長の維持及び社会課題の解決策の提示がなされるよう、AIをめぐる公正な競争環境の維持に努めることが期待されるとする。

EU規則では、公正競争の監視が各国の行政当局である市場監視当局の権限とされており、「市場監視当局は、市場監視活動の過程で確認された、競争規則に関するEU法の適用に潜在的な関係を持ちうる情報を、欧州委員会および関連する各国の競争当局に毎年報告しなければならない」(74条2項)とされている。この報告を受けた欧州委員会又は各国競争当局は競争法に照らして、違法かどうか、違法ならばどう是正措置を取るかを検討することになる。

(10) イノベーション:ガイドラインでは、各主体は、社会全体のイノベーションの促進に貢献するよう努めることが期待されるとする。具体的には以下の通り(図表15)。
【図表15】イノベーション
EU規則では、イノベーションの支援として、加盟国ごとにAI規制のサンドボックス制度を設けることとされている(57条1項)。その目的は以下のものとされている(図表16。同条9項)。
【図表16】EU規則における規制のサンドボックスの目的
日本では既に規制のサンドボックスが分野に限らず認められているが、ガイドラインにおけるイノベーションの支援が簡素な記載にとどまっていることが若干気になるところではある。
2|高度なAIシステムに関係する事業者に共通の指針
高度なAIシステムとは最先端の基盤モデル及び生成AIシステムを含む、最も高度なAIシステムを指す。ガイドラインでは高度なAIシステムに関係する事業者に向けた共通の指針を定めている。この指針では、たとえば「AIライフサイクル全体にわたるリスクを特定、評価、軽減するために、高度なAIシステムの開発の全体を通じて、その導入前及び市場投入前も含め、適切な措置を講じる」など、一般の共通の指針よりも一歩踏み込んだ指針内容となっている。具体的な内容は以下の通り(図表17)。
【図表17】高度なAIシステムの満たすべき要件
上記図表17は、主に前述の「共通の指針」をさらに厳格化したものと考えられる(リスク管理措置やインシデントの緩和措置、アカウンタビリティなど)。

他方、EU規則では、高リスクAIシステムとは別に汎用AIモデルについての規定がある(高リスクかつ汎用AIモデルも存在する)。汎用AIモデルとは、人間と同じようなタスクがこなせるAIで、高度な生成AIなどが該当するとされている。ただ、EU規則における汎用AIモデルは、システミック・リスク(大規模に悪影響を及ぼすリスク)を生じさせるものとして特別な規定が適用されるようになっており、ガイドラインの高度なAIシステムの満たすべき要件と同じものかは不明である。さらに規制の具体的な中身も上記図表17とは大きく異なっており、ここではガイドラインとEU規則の汎用AIモデル規制との比較は行わないこととする。

はじめに

(2024年12月03日「基礎研レポート」)

このレポートの関連カテゴリ

Xでシェアする Facebookでシェアする

保険研究部   取締役 研究理事 兼 ヘルスケアリサーチセンター長

松澤 登 (まつざわ のぼる)

研究・専門分野
保険業法・保険法|企業法務

経歴
  • 【職歴】
     1985年 日本生命保険相互会社入社
     2014年 ニッセイ基礎研究所 内部監査室長兼システム部長
     2015年4月 生活研究部部長兼システム部長
     2018年4月 取締役保険研究部研究理事
     2021年4月 常務取締役保険研究部研究理事
     2025年4月より現職

    【加入団体等】
     東京大学法学部(学士)、ハーバードロースクール(LLM:修士)
     東京大学経済学部非常勤講師(2022年度・2023年度)
     大阪経済大学非常勤講師(2018年度~2022年度)
     金融審議会専門委員(2004年7月~2008年7月)
     日本保険学会理事、生命保険経営学会常務理事 等

    【著書】
     『はじめて学ぶ少額短期保険』
      出版社:保険毎日新聞社
      発行年月:2024年02月

     『Q&Aで読み解く保険業法』
      出版社:保険毎日新聞社
      発行年月:2022年07月

     『はじめて学ぶ生命保険』
      出版社:保険毎日新聞社
      発行年月:2021年05月

週間アクセスランキング

ピックアップ

レポート紹介

【AI事業者ガイドライン-総務省・経済産業省のガイドライン】【シンクタンク】ニッセイ基礎研究所は、保険・年金・社会保障、経済・金融・不動産、暮らし・高齢社会、経営・ビジネスなどの各専門領域の研究員を抱え、様々な情報提供を行っています。

AI事業者ガイドライン-総務省・経済産業省のガイドラインのレポート Topへ