Intelligence artificielle : normes et réglementations
L'intelligence artificielle est une technologie en plein essor qui s'introduit dans de nombreux aspects de notre vie. Découvrez comment les administrations réglementent l'IA et élaborent des cadres afin d'encourager un développement responsable de cette technologie.
Quand Alan Turing faisait ses recherches sur l'intelligence artificielle (IA) dans l'Angleterre de l'après-guerre, pouvait-il imaginer l'ampleur et la complexité qu'atteindrait l'IA aujourd'hui ? Aurait-il imaginé les assistants IA que nous avons dans nos poches ? Des machines capables de créer des chansons et des images de toutes pièces ? Ou les quantités considérables de données que l'IA peut analyser et traiter en quelques instants, dépassant toutes les capacités humaines ? Les possibilités sont infinies.
Des organisations comme Apple font des recherches sur l'IA et le machine learning (ML) dans un souci de transparence et de protection de la vie privée. Et des entreprises directement impliquées dans l'évolution de l'IA ont créé le Modèle de responsabilité partagée de l'IA, qui fournit des directives visant à responsabiliser la recherche, le développement, la création, l'adoption et l'application de l'IA. Ce modèle aide les organisations à déterminer les parties de l'IA dont elles sont responsables. Par exemple, si elles utilisent l'IA développée par un fournisseur de logiciels en tant que service (SaaS), c'est normalement le fournisseur qui est responsable de la conception du modèle et de la gouvernance des données. Le client, lui, est responsable de la formation des utilisateurs et des contrôles d'administration.
Au-delà des initiatives des entreprises, les administrations réglementent l'IA et le ML pour protéger la vie privée des utilisateurs et des données. Autrement dit, de nombreuses entités s'intéressent à l'IA. Et c'est compréhensible : la complexité, la puissance et l'impact de l'IA ne font que croître. Il faut un travail d'équipe pour que cela se fasse de manière responsable.
Dans cet article de blog, nous allons voir comment les administrations réglementent et orientent le développement de l'IA.
Normes et règlements
Directives pour le développement de systèmes d'intelligence artificielle sûrs
Le Centre national de cybersécurité (NCSC) du Royaume-Uni et l'Agence américaine de cybersécurité et de sécurité des infrastructures (CISA) fournissent des conseils aux organisations qui créent ou utilisent des logiciels utilisant l'IA. Comme l'indique le site web du NCSC, l'objectif est de les aider à élaborer des systèmes d'IA qui :
- Fonctionnent comme prévu
- Sont disponibles lorsqu'il le faut
- Fonctionnent sans révéler de données sensibles à des personnes non autorisées
Ces lignes directrices recommandent d'adopter une approche « sécurisée par défaut » tout au long du cycle de vie du développement de l'IA : conception, développement, déploiement, exploitation et maintenance. Elles suggèrent notamment :
- D'adopter des pratiques de codage et de traitement des données sécurisées
- De procéder régulièrement à des tests de sécurité et à des évaluations des risques
- De faire preuve de transparence et de responsabilité grâce à une documentation claire des fonctionnalités, des limites et des risques
Pour maintenir ce cycle de vie, les organisations doivent faire de la confidentialité des données une priorité et se mettre en conformité avec des réglementations telles que le règlement général sur la protection des données (RGPD) dans l'Union européenne (UE), ou la loi sur la portabilité et la responsabilité en matière d'assurance santé (HIPAA) aux États-Unis.
Cadre de gestion des risques liés à l'IA
L'Institut national des standards et de la technologie (NIST) des États-Unis a créé le cadre de gestion des risques liés à l'IA (AI RMF) à l'intention des organisations qui conçoivent, développent, déploient ou utilisent des systèmes d'IA, afin de gérer les risques et de promouvoir la confiance. L'AI RMF s'adresse aux organisations de tous types, quels que soient leur taille et leur secteur.
Selon le NIST, sans contrôle, l'IA peut « amplifier, perpétuer ou exacerber des résultats inéquitables ou indésirables », et le développement responsable privilégie une approche « centrée sur l'humain, la responsabilité sociale et le développement durable ».
Afin d'encourager l'IA responsable, l'AI RMF :
- Définit les risques et la fiabilité de l'IA en déterminant si elle est :
- Valable et fiable
- Sûre
- Sécurisée et résiliente
- Responsable et transparente
- Explicable et interprétable
- Respectueuse de la vie privée
- Équitable.
- Établit le cœur de l'AI RMF, qui explique comment les organisations doivent gérer le risque lié à l'IA. Les fonctionnalités de haut niveau du cœur du cadre sont les suivantes :
- Régir : cultiver une culture de gestion des risques
- Cartographier : comprendre votre contexte et ses risques
- Mesurer : évaluer, analyser et suivre les risques
- Gérer : hiérarchiser les risques et agir en conséquence
- Fournit de la documentation complémentaire sur les spécificités des risques liés à l'IA par rapport aux autres risques liés aux logiciels, sur l'interaction entre l'homme et l'IA, et d'autres sujets.
Loi européenne sur l'IA
Cette loi récente est le tout premier cadre juridique sur le sujet l'IA. Elle vise à « fournir aux acteurs du développement et du déploiement de l'IA des exigences et des obligations claires concernant les utilisations spécifiques de l'IA » tout en allégeant le fardeau qui pèse sur les entreprises. Selon le résumé de haut niveau fourni :
- La loi sur l'IA classe l'intelligence artificielle en fonction des risques qu'elle présente.
- La majorité des obligations incombent aux fournisseurs (développeurs) de systèmes d'IA à haut risque.
- Les utilisateurs sont les personnes physiques ou morales qui déploient un système d'IA à titre professionnel, et non les utilisateurs finaux affectés.
Le résumé fixe également des règles pour l'IA à usage général (GPAI), notamment :
- Les documents justificatifs à produire par les fournisseurs de GPAI
- Les exigences en matière de gestion des risques et des incidents pour les fournisseurs de GPAI
L'UE fournit un outil de vérification de la conformité permettant aux organisations de déterminer leurs obligations en matière d'IA.
L'IA chez Jamf
Jamf utilise le machine learning pour identifier les cybermenaces connues et inconnues. MI:RIAM, notre moteur de renseignement sur les menaces :
- Découvre des attaques zero-day
- Identifie de nombreux types d'attaques
- Bloque automatiquement les attaques sophistiquées
- Fonctionne seul ou avec d'autres outils pour appliquer les règles de sécurité
- Corrige automatiquement les menaces visant les terminaux
Dans le cadre du développement de la technologie Jamf AI, nous nous imposons les normes les plus élevées en matière de confidentialité et de résidence des données. Nous veillons ainsi à ce que les données personnelles soient protégées et que le développement des produits suive un cadre respectueux de toutes les réglementations pertinentes en matière d'IA. Cela s'étend aux collaborations avec nos partenaires stratégiques, qui sont des acteurs d'innovation de premier plan dans l'espace de l'IA.
Découvrez notre dernière contribution au monde de l'IA.
Lisez notre article de blog sur le plug-in de Jamf pour Copilot for Security, la solution de sécurité IA de Microsoft.