Suggested region and language based on your location

    Your current region and language

    Un élève du primaire utilise la RV en classe
    • Blogue
      Confiance numérique

    Façonner l’avenir de la confiance numérique grâce à l’IA

    Explorez le pouvoir de transformation de la loi européenne sur l’IA pour instaurer la confiance numérique tout en donnant la priorité au bien-être de la société.

    En 2022, l’adoption de l’IA par les organisations mondiales a bondi, avec 56 % des entreprises intégrant l’IA dans diverses fonctions. Si l’IA offre des possibilités inégalées, l’incertitude du public demeure en ce qui concerne la désinformation, la fiabilité et l’équité.

    En réponse à ces défis, les régulateurs agissent, comme en témoigne l’introduction de la Loi européenne sur l’IA.

    Dans ce blogue, nous examinons l’importance de la loi et nous étudions comment l’adoption de garde-fous législatifs contribue à favoriser la confiance numérique dans l’IA.

    Qu’est-ce que la Loi européenne sur l’IA?

    La Loi européenne sur l’IA est en passe de devenir la loi pionnière en matière de réglementation de l’IA. Elle souligne la volonté de l’UE d’établir la confiance numérique et de donner la priorité au bien-être de la société.

    La loi définit un cadre global qui aborde les exigences en matière d’éthique, de performance et de transparence pour la mise sur le marché d’un système d’IA, tout en détaillant les dispositions visant à sauvegarder les droits fondamentaux.

    L’accent mis sur l’IA éthique et centrée sur l’humain vise à garantir un déploiement responsable de l’IA dans toute l’Europe. La loi met l’accent sur l’utilisation de systèmes de gestion du risque, la promotion de l’évaluation proactive et l’atténuation des risques potentiels, la promotion de l’évaluation proactive et l’atténuation des risques potentiels.

    La loi définit quatre catégories de risques pour les systèmes d’IA. Chaque catégorie est assortie d’un certain niveau de contrôle et d’obligations. Elles sont les suivantes :

    • Systèmes d’IA inacceptables ou interdits.
    • Systèmes d’IA à haut risque.
    • Systèmes d’IA présentant des risques limités.
    • Systèmes d’IA considérés comme ne présentant aucun risque.

    Objectif de la Loi européenne sur l’IA

    La Loi européenne sur l’IA est conçue pour promouvoir à la fois l’innovation et la réglementation. En respectant un cadre réglementaire systématique et prévisible, la loi vise à favoriser le développement et le déploiement responsables de l’IA et à libérer ainsi les avantages économiques et sociétaux potentiels.

    Parallèlement, la loi met l’accent sur la protection des droits fondamentaux par le biais de règles globales qui empêchent d’empiéter sur le bien-être des utilisateurs. En substance, la Loi européenne sur l’IA souligne les rôles parallèles du progrès technologique et de la gestion du risque, visant à atténuer les risques potentiels tout en soutenant l’innovation.

    Systèmes d’IA à haut risque

    Les systèmes d’IA à haut risque doivent se conformer aux dispositions spécifiques de la loi sur l’IA et faire l’objet d’une surveillance accrue. Pour identifier un tel système, la loi contient un certain nombre de références à ce qui peut être considéré comme un risque élevé. Par exemple, les systèmes d’IA intégrés dans des dispositifs médicaux sont considérés comme présentant un risque élevé conformément à l’annexe II de la loi.

    Mise en œuvre de la loi sur l’IA

    Le 14 juin 2023, le Parlement européen a adopté sa position de négociation sur la loi sur l’IA. Cette position ainsi que celle du Conseil feront l’objet d’un trilogue entre le Parlement européen, le Conseil de l’UE et la Commission européenne.

    La loi sur l’IA introduit la disponibilité de « bacs à sable » hébergés par différentes entités nationales pour le développement, l’essai et la validation de systèmes d’IA. En 2022, un bac à sable pilote a été lancé par le gouvernement espagnol. En outre, la loi prévoit un certain nombre de dispositions pour les petites et moyennes entreprises afin d’alléger le fardeau des exigences réglementaires spécifiques.

    Pourquoi la réglementation est-elle importante pour l’IA?

    L’IA est déjà profondément intégrée dans nos interactions numériques et a le pouvoir de façonner les informations que nous rencontrons et auxquelles nous accédons en ligne. Cet impact peut aller des algorithmes sur les médias sociaux aux publicités personnalisées et aux expériences bancaires en ligne.

    Ce texte législatif sur l’IA jouera un rôle essentiel dans l’orientation de son évolution tout en garantissant la protection des utilisateurs. À l’instar du Règlement général sur la protection des données (RGPD) qui est devenu une norme mondiale en 2018, la loi de l’UE sur l’IA a le potentiel de servir de référence mondiale.

    Alors que l’IA devient de plus en plus présente dans nos vies, BSI observe avec vigilance les effets de l’officialisation prochaine de la Loi sur l’intelligence artificielle de l’UE qui deviendra un règlement. Ce texte législatif n’influencera pas seulement la réglementation de ces systèmes, mais soutiendra le développement et l’adoption de normes de bonnes pratiques pour établir le socle essentiel de la confiance numérique.

    Cette confiance est essentielle pour l’acceptation généralisée et l’utilisation positive des systèmes d’IA dans la société.