Selon le groupe d’experts de haut niveau sur l’IA de la Commission européenne, une IA digne de confiance doit être licite, éthique et robuste, tout en respectant les réglementations et en défendant des valeurs éthiques afin de garantir à la fois la fiabilité technique et la prise en compte de son impact social. Cette définition résume les fondamentaux et les caractéristiques essentielles de l’IA conformément aux Principes pour une IA digne de confiance tels que définis par l’OCDE (Organisation de coopération et de développement économiques). En tant que l’un des secteurs devant connaître une croissance majeure dans l’implémentation et le développement de l’IA, les entreprises des sciences de la vie doivent aller au-delà des exigences minimales afin de garantir que les systèmes qu’elles déploient et proposent soient non seulement conformes aux réglementations européennes actuelles mais également adaptables aux nouvelles réglementations à mesure qu’elles évoluent. Comme indiqué dans le règlement européen sur l’IA (Règlement (UE) 2024/1689), les fournisseurs de technologies d’IA doivent, parmi leurs nombreuses responsabilités, garantir que leur intelligence artificielle soit non seulement technologiquement fiable mais aussi éthiquement responsable, comme l’exigent les lignes directrices.
Traditional Human Validation vs. Human Validation + AI
L’utilisation de l’intelligence artificielle dans la recherche pharmaceutique et dans le domaine de la santé modifie la manière dont sont abordés les essais cliniques et le développement de médicaments, alors que nous entrons dans l’ère du développement de médicaments personnalisés alimenté par l’IA. Alors que les essais précliniques se sont historiquement appuyés sur des données issues de tests réalisés sur des modèles ressemblant à l’humain pour prédire l’efficacité et l’impact des médicaments et des dispositifs médicaux chez l’être humain, le rôle croissant de l’IA dans l’industrie pharmaceutique et la recherche biomédicale transforme profondément l’approche du secteur en matière de soins de santé et de stratégies de traitement spécifiques aux patients. Bien que l’adoption de l’IA puisse accélérer le traitement des données et réduire le temps nécessaire pour obtenir des résultats en analysant de grands ensembles de données et en utilisant des algorithmes d’apprentissage automatique pour identifier des biomarqueurs et prédire plus tôt les effets secondaires au cours du processus de fabrication, la maîtrise des risques liés à l’IA demeure un défi critique afin de garantir l’exactitude, la sécurité et l’utilisation éthique de l’IA. De nouveaux risques liés aux biais et à la fiabilité globale des modèles ont mis en évidence la nécessité d’une transparence accrue et de réglementations mises à jour afin de protéger la santé humaine et d’assurer la confiance dans les processus pilotés par l’IA.
Analyse bénéfices/risques de l’IA
Une approche fondée sur le risque est devenue la méthodologie dominante dans le cycle de développement des systèmes d’IA (SDLC). Un exemple significatif est le règlement européen sur l’IA, qui classe l’intelligence artificielle selon son niveau de risque. Les IA à haut risque incluent les systèmes de profilage des individus, l’automatisation du traitement des données personnelles, ainsi que les applications impliquées dans les infrastructures critiques, la santé, les transports, les forces de l’ordre et d’autres secteurs où la sécurité, la vie privée et les droits fondamentaux sont en jeu. Les IA classées dans cette catégorie sont soumises à des contrôles réglementaires plus stricts et à des exigences supplémentaires en matière de transparence et de responsabilité. Les IA à risque limité, bien qu’elles ne fassent pas l’objet d’un examen réglementaire aussi approfondi, doivent néanmoins rester transparentes et respecter les réglementations européennes, indépendamment de leur classification. Les chatbots et la plupart des technologies d’IA générative relèvent de cette catégorie. Étant donné que ces technologies peuvent être utilisées de manière malveillante ou pour usurper l’identité d’entités ou de personnes, les fournisseurs doivent informer les utilisateurs qu’ils interagissent avec une IA et non avec un individu, conformément au règlement. Comme indiqué dans les principes pour une IA digne de confiance, l’intelligence artificielle doit être au service de l’être humain et ne pas causer de préjudice. Cela est d’autant plus critique dans les sciences de la vie, où une mauvaise utilisation ou des erreurs issues de jeux de données biaisés ou corrompus peuvent avoir un impact direct sur la santé humaine et accroître les risques dans des opérations critiques telles que les essais cliniques et les soins aux patients. L’utilisation de l’IA dans la validation humaine doit donc toujours viser à garantir l’exactitude et la sécurité, en réalisant une validation rigoureuse des modèles et des tests d’algorithmes afin de préserver l’intégrité des systèmes d’IA et leur conformité aux normes éthiques et réglementaires.
De plus, les dispositifs médicaux intégrant de l’intelligence artificielle relèvent de la catégorie des IA à haut risque définie par le règlement européen sur l’IA, compte tenu de leur impact direct sur la santé et la sécurité humaines. Ces systèmes jouent un rôle crucial dans le diagnostic, les recommandations thérapeutiques et le suivi des patients, ce qui rend leur fiabilité et leur précision essentielles. Un cycle complet de validation est indispensable pour garantir la conformité réglementaire et soutenir les principes d’une IA fiable. Contrairement aux IA à risque limité, les dispositifs médicaux basés sur l’IA doivent faire l’objet de contrôles plus étendus afin de garantir leur fonctionnement dans des cadres éthiques et réglementaires, tout en fournissant des solutions de santé sûres, efficaces et non biaisées.
Supervision humaine : Human in the Loop (HITL) vs Human on the Loop (HOTL)
La supervision humaine des systèmes d’IA dans les sciences de la vie n’est pas simplement une recommandation, mais une nécessité, compte tenu de l’impact potentiel des décisions prises par l’IA sur la santé, la sécurité et le bien-être des personnes. Sachant que les systèmes d’IA diffèrent par leur objectif, leur complexité et leur classification, comme indiqué dans le règlement européen sur l’IA, il est logique d’appliquer un niveau de supervision adapté au niveau de risque et d’impact du système d’IA concerné. Les systèmes d’IA à haut risque utilisés dans des opérations critiques telles que les essais cliniques et les soins de santé nécessitent une intervention humaine plus importante, car les enjeux sont nettement plus élevés, des erreurs pouvant entraîner des conséquences graves telles que des diagnostics incorrects, des traitements inappropriés ou une atteinte à la sécurité des patients.
Ce type de supervision, appelé approche « Human in the Loop », exige que l’humain collabore activement et intervienne dans le processus décisionnel de l’IA afin d’analyser les décisions de l’IA et d’approuver ou de rejeter les résultats sur la base de son expertise. Dans des cas d’utilisation de l’IA moins critiques dans les soins de santé et les sciences de la vie, où l’IA reste néanmoins nécessaire, une approche plus souple peut être adoptée. Dans ce cas, l’humain surveille le système d’IA sans intervenir en temps réel sauf si nécessaire, afin de superviser et d’évaluer les réponses et résultats de l’IA sur une période donnée et de décider si des ajustements sont requis. Cette approche, appelée « Human on the Loop », peut être appliquée en recherche et développement pour réaliser des tâches telles que l’analyse de l’efficacité relative de molécules, les chercheurs examinant périodiquement les données pour déterminer les étapes suivantes. D’autres types de relations entre l’humain et la boucle existent, bien que HITL et HOTL demeurent les plus courants. Le règlement européen sur l’IA, approuvé en 2024 et qui entrera en application au cours des prochaines années, impose des exigences spécifiques en matière de supervision humaine pour les systèmes d’IA à haut risque. La personne responsable de la supervision doit être capable de comprendre les résultats fournis par le système d’IA, disposer de l’autorité et des droits système nécessaires pour invalider un résultat lorsque cela est requis, et être soutenue par une organisation fournissant l’autorité et les ressources nécessaires pour prendre les mesures appropriées.
Validation de l’IA, cas d’usage et maîtrise des risques
La validation de l’IA dans les sciences de la vie va au-delà des processus de validation traditionnels, car tous les éléments et considérations doivent être pris en compte afin de garantir que le système soit non seulement fiable, mais aussi éthique et efficace dans l’accomplissement de sa finalité. Bien que les modèles et systèmes d’IA soient souvent tenus pour responsables de leurs résultats, il convient de rappeler que les IA sont alimentées par des données fournies par des êtres humains. Si une IA est alimentée par des données erronées ou biaisées, elle produira des résultats biaisés et incorrects. Afin d’éviter ces erreurs coûteuses, les entreprises des sciences de la vie doivent appliquer des techniques robustes de validation des modèles d’IA et utiliser des procédures claires et transparentes pour atténuer les risques tels que les biais.
Les entreprises doivent mettre en place des processus solides de gouvernance des données, incluant par exemple une séparation correcte des données entre jeux d’entraînement, de validation et de test, ainsi que des critères documentés d’inclusion et d’exclusion des données. Afin d’assurer la transparence et la traçabilité dans la validation humaine de l’IA, le processus de développement des technologies d’IA doit être correctement documenté, notamment en ce qui concerne les résultats de tests, les critères d’acceptation et les indicateurs de performance cibles. Les entreprises doivent également déterminer si l’IA utilisée est un modèle statique ou un modèle qui apprend en continu.
Une autre question clé dans le développement et l’implémentation de l’IA dans l’industrie concerne la définition du cas d’usage prévu de la technologie ainsi que des utilisateurs visés, et la clarification dès le début du processus de tous les acteurs impliqués dans l’utilisation du système d’IA. Un modèle conçu pour détecter un cancer chez les femmes, par exemple, peut ne pas produire les mêmes résultats chez les hommes sans réentraînement et ajustements significatifs pour tenir compte des différences biologiques liées au genre. Cela rend la surveillance des modèles essentielle avant et après le déploiement afin de garantir l’efficacité et la fiabilité des systèmes d’IA dans le temps.
Plutôt que de considérer les modèles d’IA finalisés comme des projets terminés, les entreprises des sciences de la vie devraient adopter une approche d’évaluation continue et surveiller régulièrement les phénomènes de « dérive des données » (data drift), les nouvelles données pouvant affecter la performance des modèles. Il est donc important d’intégrer dans les processus de validation des stratégies de surveillance permettant d’identifier ces dérives, ainsi que des actions correctives telles que le réentraînement ou le développement de nouveaux modèles si nécessaire, afin de garantir que ces systèmes continuent de satisfaire aux exigences réglementaires et de sécurité et demeurent conformes.