お問い合わせ
Search Icon

Suggested region and language based on your location

    Your current region and language

    開発プロジェクトについて従業員と話すビジネスマン
    • ブログ
      デジタルトラスト

    AIへの信頼調査結果を紐解く

    BSIの「AIへの信頼」調査により、AIに対する全世界の意識が明らかになりました。調査対象国は、オーストラリア、中国、英国、米国を含む9カ国です。

    オーストラリア、中国、英国、米国など9カ国の成人1万人以上を対象にBSIがこのほど実施した「AIへの信頼」調査で、人工知能(AI)に対する現在の姿勢が明らかになりました。

    AIはもはやSFの中の概念ではありません。AIは日常的現実となりつつあり、私たちの世界を一変させ、社会全体で善を促進する力になる可能性を持っています。しかし、AIが本当の意味で広く普及するためには一般市民の信頼が必要です。

    AIがより良い未来を形作り、持続可能な世界への進展を加速させる機会をBSIの調査が探りました。調査結果の一部をご紹介します。

    2030年までに、AIが私たちの未来をどのように形成していくことを望みますか。

    79%は、AIが二酸化炭素削減に役立つと考えつつも懐疑的です。

    AIは、温室効果ガス排出量の迅速な測定と分析を可能にすることにより、企業が製品のカーボンフットプリントを効率的に判断するために欠かせないツールになると考えられます。しかし、環境面でのメリットを享受するためには、このテクノロジーが本当に効果的であると一般市民に確信させる必要があります。

    BSIの調査では、さまざまな重要分野でAIを活用するために必要な信頼度を参加者に評価してもらいました。その結果、74%が医療診断と治療においてAIに「信頼が必要」と回答し、食品製造(賞味期限に基づく食品の発注・分類作業を含む)におけるAIの信頼度についても75%が同様の回答をしていることがわかりました。

    どの業種でもこれは同じで、72~79%の消費者が、サイバーセキュリティから建設、金融取引に至るすべてのことに関して、AIの有効利用のためには信頼が必要だという点に同意を示しました。

    38%は、現在、仕事で毎日何らかの形でAIを使用していると答えています。
    AIの利用がすでに相当進んでいる国もありました。職場でAIを日常的に利用する割合は、中国(70%)とインド(64%)が最も高く、最も低かったのはオーストラリア(23%)と英国(29%)の回答者でした。米国では、37%が「現在職場でAIを使用している」、46%が「使用していない」、約17%が「わからない」と答えました。現在職場でAIを使用していないグローバル企業のうちほぼ半数は、2030年までに職場にAIが導入されるかどうかは不明だと回答しました。

    AIの導入をめぐる不確実性は、組織レベル、特にサイバーセキュリティとデジタルリスクポリシーの中に存在します。一部の組織にとってAIは比較的新しいものであるため、認識されている脅威を軽減するために、コーポレートシステム上でそのようなツールを使用することを禁じているところもあります。また、従業員が自宅のパソコンを使って業務を行うことにより、これらの制限を回避する方法を見つけていたケースもあります。

    AIを職場で活用する方法を理解させるための研修を実施することは非常に重要ですが、データが示すように、現在のところ広く行われているとは言えません。心強いことに、AI搭載の世界で働く方法を若者に教えるべきだという意見を回答者の55%が持っています。

    61%は、AIの安全な利用を可能にする国際的なガイドラインを求めています。
    AI技術への信頼と認知をさらに高めるために、安全で責任ある利用に関するガイドラインが必要とされています。ここでは、近く発行される AIガバナンス規格(ISO/IEC 42001)などの国際規格および規制が大きな役割を果たすでしょう。

    政府や規制当局もこの問題への取り組みを開始しています。例えば、バイデン大統領は先ごろ、 「安全かつ安心で信頼性のある AI の開発と利用に係る大統領令」を発表しました。ここには、AIの開発および利用を安全に、責任を持って管理する」という米国政府の姿勢が記されています。

    同様に、 EUのAI規制法(Artificial Intelligence Act)の目標は、「人工知能の開発および利用の規制を大幅に強化することを目的とした法的フレームワーク」の提示です。 AI安全性サミット2023が証明するように、他の国々もこれに続きました。

    AIへの理解不足と信頼の揺らぎが大きな障害となってAIの導入を妨げ、その恩恵を損なう可能性があります。このテクノロジーへの信頼と信用を築くために、組織はAIの倫理的な使用を規定するガードレールを確立することができます。(Ethical considerations of AI in healthcare(BSIのデータサイエンティスト、Shusma Balaji著)をお読みください。)

    私たちは、ドットコムバブルやソーシャルメディアの台頭など、社会的信用を見落とした過去の技術革命の落とし穴を見てきました。AI時代の幕開けとともに、過去の過ちを回避しつつAIの可能性を実現するためには、人々に適切なツールと知識を身に付けさせることが不可欠です。

    この記事は、当初次のタイトルでフォーブス誌に掲載されたものです。How To Unlock Trust In AI: Key Insights From BSI's 'Trust In AI' Poll (2023年12月15日)。2024年2月13日、SASIGのThe Future of AI: Friend or Foe?において、Mark Brown氏とDigital Trustの同僚たちが行ったプレゼンテーション。

    洞察とメディア

    AIをめぐる最新の動向と問題を常に把握する

    洞察とメディアを入手