Le récent sondage de BSI intitulé « Confiance dans l’IA », mené auprès de plus de 10 000 adultes de neuf pays (dont l’Australie, la Chine, le Royaume-Uni et les États-Unis), met en lumière les attitudes actuelles à l’égard de l’intelligence artificielle (IA).
L’IA n’est plus un concept de science-fiction. Elle devient une réalité quotidienne qui a le potentiel de transformer notre monde et d’être une force pour le bien de la société. Cependant, pour s’épanouir véritablement, elle a besoin de la confiance du public.
Le sondage de BSI explore les opportunités offertes par l’IA pour façonner un avenir meilleur et accélérer le progrès vers un monde durable. Examinons quelques résultats du sondage :
Comment aimeriez-vous que l’IA façonne notre avenir d’ici 2030?
79 % des personnes interrogées pensent que l’IA va contribuer à la réduction des émissions de carbone, mais elles sont sceptiques.
L’IA est sur le point de devenir un outil intégral permettant aux entreprises de déterminer efficacement l’empreinte carbone des produits en mesurant et en analysant rapidement les émissions de gaz à effet de serre. Cependant, le public doit être convaincu que cette technologie est réellement efficace afin de profiter des avantages environnementaux.
Le sondage de BSI a demandé aux participants d’évaluer le niveau de confiance nécessaire à l’utilisation de l’IA dans différents secteurs cruciaux. Les résultats ont montré que 74 % des personnes interrogées ont indiqué que la confiance était nécessaire pour l’IA dans le diagnostic et le traitement médical, et 75 % ont exprimé la même chose pour l’IA dans la fabrication de produits alimentaires, qui comprend des tâches comme la commande et la catégorisation des aliments en fonction de leur date de péremption.
Cette tendance se retrouve dans tous les secteurs, avec entre 72 % et 79 % des consommateurs qui reconnaissent que la confiance est nécessaire pour que l’IA soit utilisée efficacement dans tous les domaines, de la cybersécurité à la construction, en passant par les transactions financières.
38 % déclarent que leur travail utilise actuellement une forme d’IA quotidiennement.
Certains pays sont déjà plus avancés en matière d’utilisation de l’IA. La Chine (70 %) et l’Inde (64 %) sont en tête pour ce qui est de l’utilisation quotidienne de l’IA au travail, tandis que l’Australie (23 %) et le Royaume-Uni (29 %) sont les pays qui l’utilisent le moins. Aux États-Unis, 37 % des personnes interrogées déclarent utiliser actuellement l’IA au travail, tandis que 46 % ne le font pas et qu’environ 17 % ne sont pas sûres. Parmi les personnes qui, au niveau mondial, n’utilisent pas encore l’IA au travail, près de la moitié ne savent pas si leur milieu de travail l’adoptera d’ici à 2030.
L’incertitude concernant l’adoption de l’IA existe au niveau de l’organisation, en particulier dans les politiques de cybersécurité et de risque numérique. Pour certaines organisations, l’IA peut être relativement nouvelle et elles ont donc décidé d’interdire l’utilisation de ces outils sur les systèmes de l’entreprise afin d’atténuer les menaces perçues. Dans certains cas, les employé(e)s ont trouvé des moyens de contourner ces contrôles en utilisant des ordinateurs personnels pour effectuer leur travail.
Il est essentiel d’offrir une formation qui permette de comprendre comment l’IA peut être utilisée au travail, ce qui, d’après les données, n’est pas monnaie courante à l’heure actuelle. Heureusement, 55 % des personnes interrogées reconnaissent que nous devrions former les jeunes à travailler dans un monde dominé par l’IA.
61 % souhaitent des lignes directrices internationales pour permettre une utilisation sûre de l’IA.
Des lignes directrices sur l’utilisation sûre et responsable sont demandées pour renforcer la confiance et la sensibilisation à l’égard de la technologie de l’IA. Les normes internationales, comme la future norme ISO 42001 Gouvernance de l’IA et les réglementations jouent un rôle à cet égard.
Les gouvernements et les agences de régulation commencent également à s’attaquer au problème. Par exemple, le président Biden a récemment publié « Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence », un décret sur le développement et l’utilisation sûrs, sécurisés et fiables de l’intelligence artificielle qui décrit l’approche du gouvernement américain pour régir le développement et l’utilisation de l’intelligence artificielle de manière sûre et responsable.
De même, l’objectif de la Loi sur l’intelligence artificielle de l’UE est de fournir un « cadre juridique qui vise à renforcer de manière significative les réglementations sur le développement et l’utilisation de l’intelligence artificielle ». D’autres pays ont suivi le mouvement, comme en témoigne le Sommet de la sécurité de l’IA 2023.
Le manque actuel de compréhension et la confiance instable dans l’IA constituent un obstacle majeur, qui pourrait limiter son adoption et ses avantages. Pour renforcer la confiance dans la technologie, les organisations peuvent établir des garde-fous régissant l’utilisation éthique de l’IA. (Lire « Considérations éthiques sur l’IA dans les soins de santé » par Shusma Balaji, experte en science des données, BSI)
Nous avons vu les écueils des précédentes révolutions technologiques qui ont négligé la confiance du public, comme le boom de l’Internet et l’essor des médias sociaux. À l’aube de l’ère de l’IA, il est essentiel de doter les gens des outils et des connaissances appropriés pour réaliser le potentiel de l’IA tout en évitant les erreurs du passé.
Cet article a été initialement publié par Forbes sous le titre : How To Unlock Trust In AI : Key Insights From BSI's 'Trust In AI' Poll (Comment débloquer la confiance dans l’IA : aperçus clés du sondage « Confiance dans l’IA » de BSI) le 15 décembre 2023. Rejoignez Mark Brown et ses collègues de la division de confiance numérique lors de leur présentation à la conférence SASIG, « The Future of AI : Friend or Foe? » (L’avenir de l’IA : ami ou ennemi?) du 13 février2024.