La régulation européenne de l’intelligence artificielle, connue sous le nom d’ “AI Act”, est une initiative historique de l’UE (Union européenne) visant à encadrer le développement et l’utilisation de l’intelligence artificielle (IA).
L’AI Act de l’Union européenne établit un cadre réglementaire détaillé pour les systèmes d’intelligence artificielle, en se concentrant principalement sur les systèmes à haut risque. Ces exigences de conformité sont essentielles pour assurer que les systèmes d’IA respectent les normes de santé, de sécurité et de droits fondamentaux.
Les systèmes d’IA à haut risque doivent démontrer une performance constante tout au long de leur cycle de vie, tout en répondant à un niveau approprié de précision, de robustesse et de cybersécurité. Ils doivent également être résilients face aux risques liés aux limitations du système et aux actions malveillantes susceptibles de compromettre leur sécurité. En outre, ces systèmes doivent respecter les exigences d’accessibilité et intégrer des mesures de conception appropriées pour garantir une accessibilité complète et équitable, y compris pour les personnes handicapées.
Les fournisseurs de systèmes d’IA à haut risque sont tenus d’établir un système de gestion de la qualité solide, de réaliser les procédures d’évaluation de la conformité requises, de rédiger la documentation pertinente et de mettre en place un système de surveillance robuste après la mise sur le marché. Cela inclut aussi la nomination d’un représentant autorisé dans l’Union européenne pour les fournisseurs établis en dehors de l’Union.
Pour les systèmes d’IA à haut risque, les évaluations de conformité sont essentielles. Elles comprennent la vérification et/ou la démonstration que le système respecte les exigences spécifiées par l’Act, comme un système de gestion des risques, la gouvernance des données, la documentation technique, la tenue de registres, la transparence et la fourniture d’informations, la supervision humaine, ainsi que la précision, la robustesse et la cybersécurité.
D’autres catégories d’IA, telles que les systèmes à faible risque et à risque minimal, ont des obligations moindres en termes de conformité. Les systèmes à faible risque doivent respecter certaines obligations de transparence, tandis que les systèmes à risque minimal ne sont pas couverts par les garanties et réglementations de l’Act.
Le non-respect des règles relatives aux usages interdits et à la gouvernance des données peut entraîner des amendes allant jusqu’à 30 millions d’euros ou 6 % du chiffre d’affaires mondial annuel, selon le montant le plus élevé. Pour les systèmes d’IA à haut risque, la limite supérieure est de 20 millions d’euros ou 4 % du chiffre d’affaires.
L’AI Act impose des exigences rigoureuses sur les systèmes d’IA à haut risque, notamment en termes d’évaluations de conformité, de documentation, de surveillance et de gestion des risques. Les fournisseurs de ces systèmes doivent être particulièrement vigilants pour garantir la conformité avec ces réglementations. Pour plus de détails, vous pouvez consulter les sources suivantes : European Parliament.