2022年現在、グローバル企業によるAIの導入は急増し、今や56%の企業がさまざまな職務にAIを取り入れています。AIは比類のない機会を提供しますが、誤情報、信頼性、公平性に関して市民の不安は消えていません。
こうした課題に対応すべく、規制当局が行動を起こしました。EU AI法の導入はその好例です。
このブログでは、EU AI法の意義を考察し、法律というガードレールを採用したことが、AIのデジタルトラスト形成にどのように寄与するかを探ります。
EU AI法とは
EU AI法は、AI規制の先駆的立法になるでしょう。この法律は、EUがデジタルトラストの確立と、社会のウェルビーイングを重視していることを明確に示しています。
EU AI法には、AIシステムを市場に投入するための倫理的な要求事項、性能に関する要求事項、透明性に関する要求事項を取り扱う包括的なフレームワークが描かれ、基本的権利を保護するための条項も細かく定められています。
人間中心で倫理的なAIに重点を置き、欧州全体で責任あるAIの普及を目指すとともに、リスクマネジメントシステムの使用、潜在的リスクの事前評価と軽減の促進を強調しています。
この法律は、AIシステムに関して4つのリスクカテゴリーを定義しています。それぞれのカテゴリーについて監視のレベルと義務が定められています。4つのリスクカテゴリーは以下の通りです。
- 容認できないリスクがある、または禁じられるAIシステム。
- 高リスクのAIシステム。
- 限定的なリスクのAIシステム。
- リスクがないと考えられるAIシステム。
EUのAI法の目的
EU AI法は、イノベーションと規制を同時に促進するように設計されています。この法律は、体系的で予測可能な規制の枠組みを遵守することにより、責任あるAIの開発と導入を促進し、結果として潜在的な経済的、社会的利益を引き出すことを目指します。
同時に、この法律はユーザーの福祉とウェルビーイングの侵害を防ぐ包括的な規則を通じて基本的権利を保護することを重視しています。 基本的に、EU AI法は、技術の進歩とリスクマネジメントが果たす並行的な役割を明確に示し、イノベーションを支援しつつ潜在的リスクを軽減することを目指しています。
高リスクのAIシステム
高リスクのAIシステムは、AI法の特定の規定に従うことを義務付けられ、厳しく監視されます。このような高リスクのシステムを特定するために、高リスクとみなされる可能性のあるシステムについてAI法の中で多くの言及がなされています。例えば、医療機器に組み込まれるAIシステムは、AI法の附属書IIのもとで高リスクとみなされます。
AI法の実施
2023年6月14日、欧州議会はAI法に関する交渉ポジションを採択しました。このポジションは、EU理事会の見解とともに、EU議会、EU理事会、欧州委員会の三者協議の対象となります。
AI法は、AIシステムの開発、テスト、検証のために、さまざまな国家機関が実施するアベイラビリティ「サンドボックス」を導入しています。2022年、スペイン政府により試験的なサンドボックスが開始されました。さらにAI法は、特定の規制要求事項によって課される負担を軽減するため、中小企業向けに多くの規定を設けています。
AIの規制が重要である理由
AIはすでに私たちのデジタルインタラクションに深く取り込まれています。私たちがオンラインで出会い、アクセスする情報を形作る力を持っているのです。その影響は、ソーシャルメディア上のアルゴリズムから、パーソナライズされた広告、オンラインバンキングエクスペリエンスまで多岐にわたります。
AIに関するこの法律は、ユーザーを確実に保護しながらAIの進化を導く上で極めて重要な役割を果たすでしょう。2018年に世界標準となった一般データ保護規則(GDPR)と同様に、EUのAI法は世界的なベンチマークになる可能性を秘めています。
AIは私たちの生活にますます浸透しています。BSIは、今後EU AI法の発効がもたらす影響を注視しているところです。この法律は、AIシステムの規制に影響を与えるだけでなく、デジタルトラストの本質的基盤を確立するためのベストプラクティス規格の開発と採用を後押しするでしょう。
AIシステムが社会に広く受け入れられ、積極的に活用されるためには、デジタルトラストが不可欠です。