PQE Groupe: vue d’ensemble sur l’ EU AI Act

De: Luca Zanotti Fragonara, Advanced Technologies Competence Centre Lead @PQE Group

L'IA a été un sujet technologique brûlant au cours des deux dernières années, en commençant par la publication de ChatGPT et maintenant de GPT-4. La question est passée à un niveau complètement différent, provoquant soit une excitation énorme, soit une inquiétude sur ce que l'IA générative peut faire.

Les communautés scientifiques et industrielles ont des sentiments mitigés à l'égard de l'IA : en mars dernier, Yoshua Bengio, Stuart Russel et Elon Musk (pour ne citer que quelques-uns des initiateurs de la lettre ouverte Future of Life FLI_Pause-Giant-AI-Experiments_An-Open-Letter.pdf (futureoflife.org)) ont signé une lettre demandant d'interrompre les expériences d'IA géante et exprimant de sérieuses inquiétudes à l'égard de l'IA, et en particulier des outils d'IA générative tels que GPT-4.

Ils redoutent l'impact que l'IA générative pourrait avoir sur la désinformation et le remplacement des humains, et ils remettent en question l'objectif même de l'IA et les risques qu'elle pourrait présenter. D'autre part, Microsoft a intégré ChatGPT dans son moteur de recherche Bing, fournissant un accès gratuit à l'outil à une multitude d'utilisateurs, tandis qu'un autre des "pères de l'IA" - Yann Lecun - ne partage pas les mêmes inquiétudes concernant l'IA et les outils d'IA générative tels que ChatGPT (Meta scientist Yann LeCun says AI won't destroy jobs forever - BBC News).

AI Act_Site Banner

L'IA ne se limite pas à l'IA générative, mais peut être appliquée à une multitude de cas d'utilisation. Dans ce contexte, l'UE est la première à tenter de réglementer enfin l'IA dans le cadre de sa stratégie numérique (Stratégie numérique de l'UE). La législation sur l’intelligence artificielle (AIA) est un règlement qui propose de créer des règles harmonisées sur les systèmes d'IA, dans le but de réglementer les technologies d'IA. La législation devrait entrer en vigueur au début de l'année 2024.

L'AIA introduit la notion de risque dans les systèmes d'IA, en les classant en quatre niveaux possibles : Inacceptable, Élevé, Limité ou Minimal.

Le risque inacceptable est lié aux applications qui constituent une menace potentielle pour les personnes, par exemple la manipulation comportementale, la notation sociale ou les systèmes d'identification biométrique à distance (par exemple la reconnaissance faciale).

Les systèmes d'IA à haut risque sont ceux qui peuvent potentiellement affecter la sécurité et les droits fondamentaux, et peuvent être classés en deux catégories :

  1. Les systèmes d'intelligence artificielle utilisés dans des produits relevant de la législation européenne sur la sécurité des produits, notamment les jouets, l'aviation, les voitures, les appareils médicaux et les ascenseurs ; 
  2. Les systèmes d'IA qui relèvent de l'un des huit domaines spécifiques qui devront être enregistrés dans une base de données de l'UE : Identification biométrique et catégorisation des personnes physiques ; gestion et exploitation des infrastructures critiques ; éducation et formation professionnelle ; emploi, gestion des travailleurs et accès à l'emploi indépendant ; accès et jouissance des services privés essentiels et des services et prestations publics ; maintien de l'ordre ; gestion des migrations, de l'asile et des contrôles aux frontières ; aide à l'interprétation et à l'application de la loi.

L'AIA va introduire une obligation pour les systèmes d'IA à haut risque de créer et de maintenir une approche de gestion des risques pour l'ensemble du cycle de vie du système d'IA, en déterminant les mesures d'atténuation appropriées. Les systèmes d'IA devront être validés pour l'usage auquel ils sont destinés, avec des tests effectués sur des métriques définies comme prioritaires et validées sur des seuils de probabilité. Des contrôles de la gouvernance des données doivent être établis, y compris des ensembles de données de formation, de validation et de test qui sont complets, sans erreur et représentatifs du problème résolu. Une documentation technique détaillée, comprenant l'architecture du système, la conception algorithmique et les spécifications du modèle, doit être fournie. L'enregistrement automatique des événements pendant le fonctionnement du système et une transparence suffisante, de par sa conception, permettront aux utilisateurs d'interpréter les résultats. La supervision humaine doit être garantie par la conception à tout moment, en minimisant les risques pour la santé et la sécurité ou les droits fondamentaux.

Ces concepts sont bien connus par le groupe PQE, qui a 25 ans d'expérience dans le contexte de l'assurance qualité basée sur le risque dans le secteur très réglementé des sciences de la vie. Le groupe PQE fournit des solutions de conformité pour aider ses clients à atteindre leurs objectifs et maîtrise la gestion des approches d'assurance qualité basées sur le risque pour les systèmes numériques complexes. L'AIA constituera un facteur de motivation incroyable, car de nouveaux secteurs pourront également tirer parti des connaissances de PQE Group en matière d'assurance de la qualité dès la conception, de gestion et d'atténuation des risques dans les systèmes numériques, et de gouvernance numérique.

Vous souhaitez en savoir plus ?

Visitez notre page dédiée à la Digital Governance et planifiez votre stratégie numérique d'entreprise avec nos experts.

Contactez-nous