AI開発・利用における安全性とセキュリティ:主要国の政策比較と政策立案への示唆
はじめに:AIの安全性・セキュリティが政策課題となる背景
人工知能(AI)技術の急速な社会実装が進む中で、AIシステムの安全性とセキュリティの確保は、その恩恵を最大限に引き出し、社会の信頼を構築するための不可欠な要素となっています。意図しない挙動や脆弱性、悪意のある利用によるAIシステムの機能不全や誤作動は、経済的損失に加えて、物理的・社会的な損害、さらには人命に関わるリスクをもたらす可能性があります。
このため、各国政府はAIの安全性とセキュリティに関する政策やガイドラインの策定を進めています。しかし、アプローチや重点分野は国・地域によって異なり、これらの国際的な動向を比較分析することは、自国の政策立案において極めて重要となります。本稿では、主要国のAI安全性・セキュリティ政策の現状を比較し、そこから得られる政策立案への示唆について考察します。
主要国におけるAI安全性・セキュリティ政策の比較分析
AIの安全性(Safety)は、システムが予期しないまたは望ましくない挙動を起こさないこと、あるいは危害を引き起こさないことを指し、セキュリティ(Security)は、システムが悪意のある攻撃や不正アクセスから保護され、その完全性、機密性、可用性が維持されることを指します。多くの政策文書ではこれらが密接に関連するものとして扱われています。
主要国のアプローチを比較すると、いくつかの特徴が見られます。
欧州連合(EU)
EUは、提案中の「AI Act(人工知能法)」において、AIのリスクレベルに応じた規制アプローチを採用しており、特に「高リスクAIシステム」に対して厳格な安全性・セキュリティ要件を課しています。
- 対象と要件: 高リスクAIシステム(例:重要インフラ、医療機器、生体認証システムなど)が主な対象です。これらのシステムには、リスク管理システム、データガバナンス、文書化、堅牢性、正確性、サイバーセキュリティ、人間の監視などの要件が義務付けられています。サイバーセキュリティに関しては、外部からの攻撃や悪意のある操作に対する耐性が明記されています。
- 法的拘束力と実施体制: AI Actは法的拘束力を持つ法案であり、適合性評価や市場監視が実施される予定です。標準化機関による技術標準の策定も進められています。
- 特徴: リスクベースのアプローチを明確にし、高リスク分野における厳格な事前規制を通じて、市民の安全と基本的権利の保護を強く意識している点が特徴です。
アメリカ合衆国
アメリカでは、規制ではなく、ガイドラインやフレームワークによるリスク管理を推奨するアプローチが中心です。
- 対象と要件: 特定のAIシステムや分野に限定されず、広範なAIシステムの開発者や利用者を対象としています。国立標準技術研究所(NIST)が発行した「AIリスク管理フレームワーク(AI RMF)」が代表的です。このフレームワークでは、「統治(Govern)」「マップ(Map)」「測定(Measure)」「管理(Manage)」の4つの機能を柱とし、AIシステムのリスク特定、評価、軽減、監視に関する包括的なガイダンスを提供しています。安全性とセキュリティは、AI RMFにおける重要なリスクカテゴリとして扱われています。
- 法的拘束力と実施体制: AI RMF自体に法的拘束力はありませんが、産業界や政府機関での自主的な導入が期待されています。大統領令等を通じて、連邦政府機関におけるAIのリスク管理強化が指示される動きも見られます。
- 特徴: 既存の規制枠組みや業界標準を活用しつつ、柔軟な自主的枠組みを通じてイノベーションを阻害しないよう配慮しながら、AIリスク、特に安全性とセキュリティリスクへの対応を促す点が特徴です。
中華人民共和国
中国は、国家戦略としてAI開発を推進する一方、様々な法規制を通じてAIの管理・統制を強化しています。
- 対象と要件: アルゴリズム推奨、ディープフェイク、生成AIサービスなど、特定のAIアプリケーションに焦点を当てた規制が先行しています。これらの規制には、アルゴリズムの安全性評価、データセキュリティ、利用者の同意取得、違法情報の拡散防止といった要件が含まれています。特にサイバーセキュリティ関連法やデータセキュリティ関連法との連携が強く意識されています。
- 法的拘束力と実施体制: 法的拘束力を持つ規則として施行されており、インターネット情報部門などが監督を行います。セキュリティ審査やアルゴリズム登録制度など、国家による管理体制が構築されています。
- 特徴: 特定のアプリケーション分野に対する迅速な規制導入と、国家の管理・統制強化を重視する点が特徴です。データセキュリティやコンテンツ規制とAI安全性・セキュリティが密接に結びついています。
日本
日本は、内閣府の「人間中心のAI社会原則」を基盤としつつ、具体的な分野別ガイドラインや官民連携による議論を進めています。
- 対象と要件: 特定のAIシステムに限定されない包括的な原則や、医療、モビリティなどの分野別ガイドラインでAIの安全性・セキュリティに言及しています。AI戦略や統合イノベーション戦略において、信頼できるAIの実現に向けた研究開発、社会実装、国際連携の重要性が謳われています。技術的信頼性確保のため、セキュリティ、安全、説明責任、公平性などの要素が挙げられています。
- 法的拘束力と実施体制: 原則やガイドラインは法的拘束力を持つものではありませんが、各府省庁での政策推進や産業界の自主的な取り組みの指針となっています。政府と産業界、研究機関による協議会等を通じて、具体的な対策や標準化の方向性が議論されています。
- 特徴: 包括的な原則に基づきながら、分野横断的および分野別の検討を通じて、関係者の対話と協力を重視しつつ、緩やかな規範形成と技術開発・国際連携による対応を目指す点が特徴です。
政策立案への示唆
主要国の動向を比較すると、AIの安全性・セキュリティ確保に向けたアプローチは多様ですが、それぞれが自国の法的・社会的背景やAI開発・利用の状況に応じて最適な方法を模索していることが分かります。これらの比較から、自国の政策立案に向けていくつかの重要な示唆が得られます。
- リスクベースのアプローチの検討: EUのAI Actに見られるように、AIシステムのリスクレベルに応じて安全性・セキュリティ要件の厳格さを変えるアプローチは有効です。潜在的な危害が大きいシステムに対しては、より強固な事前対策や規制を検討し、それ以外のシステムについては、ガイドラインや業界標準による柔軟な対応を促すといったメリハリをつけることが考えられます。
- 既存の規制枠組みや標準との連携: AIの安全性・セキュリティは、サイバーセキュリティ、製品安全、データ保護など既存の様々な規制分野と関連します。NIST AI RMFのように、新たな規制をゼロから作るのではなく、既存の枠組みや標準を活用し、AIに固有の課題を補完する形での政策設計は、関係者の負担を軽減し、実効性を高める上で有効です。
- 技術的要件の具体化と標準化: AIの安全性・セキュリティを確保するためには、堅牢性、信頼性、説明可能性の一部としてのセキュリティ担保など、技術的な要件を明確にする必要があります。国際的な標準化活動に積極的に関与し、国内での標準策定を推進することは、技術開発の方向性を示し、国際的な相互運用性を確保する上で不可欠です。
- 透明性と説明責任の確保との連携: 安全性・セキュリティ上の問題が発生した場合の原因究明や責任の所在を明確にするためには、システムの挙動に関する透明性や説明責任が重要となります。安全性・セキュリティ政策は、これらの側面と一体的に検討される必要があります。
- 国際協力の推進: AIの安全性・セキュリティは国境を越えた課題であり、単一国のみでの対応には限界があります。国際的な情報共有、研究協力、標準化、相互承認の枠組み構築に積極的に参加することは、グローバルな課題への効果的な対応につながります。
まとめ
AIの安全性とセキュリティの確保は、信頼できるAI社会を構築するための基盤です。主要国はそれぞれ異なるアプローチでこの課題に取り組んでおり、EUのようなリスクベースの規制、アメリカのようなフレームワークによる自主的管理促進、中国のような特定アプリケーションへの迅速な規制導入、日本のような原則と分野別ガイドラインによる対応など、多様な政策手法が見られます。
これらの国際的な動向を深く理解し、それぞれの長所と短所を分析することは、自国のAI政策をより洗練させ、将来にわたって持続可能な形でAIの恩恵を享受できる社会を実現するための重要な一歩となります。今後も各国の政策動向を注視し、国際協調の重要性を認識しながら、安全性とセキュリティの両面から実効性のある政策を継続的に検討していくことが求められます。