Por qué las Ciencias de la Vida necesitan un uso responsable de la IA con validación humana

por Nelson De Paiva Bondioli, Advanced Technologies Competence Centre Specialist @PQE Group

La adopción de la Inteligencia Artificial en el sector de las Ciencias de la Vida está transformando no solo la forma en que se llevan a cabo la investigación, el diagnóstico y el desarrollo de fármacos, sino también las normas reguladoras de precisión, seguridad y cumplimiento. Mientras que la validación humana tradicional se ha basado en la experiencia y las pruebas clínicas para garantizar la precisión, la introducción de la IA y las herramientas de automatización basadas en datos entrenados presenta nuevos, retos no solo para las empresas, sino también para las autoridades reguladoras, que ahora deben adaptar los marcos de supervisión para tener en cuenta los sesgos algorítmicos y las limitaciones de los datos. La Unión Europea ha sido proactiva en lo que respecta a la Inteligencia Artificial, redactando una «Directriz Ética» ya en 2019 para determinar qué es y qué no es una “IA digna de confianza”. 

Responsible AI Use_Blog banner

Según el Grupo de Expertos de Alto Nivel sobre IA de la Comisión Europea, la IA digna de confianza debe ser legal, ética y robusta, al tiempo que cumple con las regulaciones y defiende los valores éticos para garantizar tanto la fiabilidad técnica como la consideración de su impacto social. Esta definición resume los fundamentos y las características básicas de la IA en consonancia con los Principios para una IA digna de confianza esbozados por la OCDE (Organización para la Cooperación y el Desarrollo Económicos). Como uno de los mayores sectores en los que se prevé un crecimiento de la implantación y el desarrollo de la IA, las empresas de las Ciencias de la Vida deben hacer un esfuerzo adicional para garantizar que los sistemas que implantan y ofrecen no solo cumplen la normativa vigente de la UE, sino que también se adaptan a las nuevas normativas a medida que evolucionan. Como se indica en la Ley de IA de la UE (Reglamento (UE) 2024/1689), los proveedores de tecnología de IA deben, entre sus muchas responsabilidades, garantizar también que su Inteligencia Artificial no solo sea tecnológicamente sólida, sino también éticamente responsable, como exigen las directrices establecidas. 

 

Validación humana tradicional frente a validación humana + IA 

El uso de la Inteligencia Artificial en la investigación farmacéutica y sanitaria está cambiando la forma de abordar los ensayos clínicos y el desarrollo de fármacos a medida que nos adentramos en la era del desarrollo de medicamentos personalizados impulsado por la IA. Mientras que los ensayos preclínicos se han basado históricamente en datos de investigación procedentes de pruebas con modelos similares a los humanos para predecir la eficacia y el impacto de fármacos y dispositivos médicos en seres humanos, el creciente papel de la IA en la industria farmacéutica y la investigación biomédica está transformando drásticamente el enfoque de la industria de la atención sanitaria y las estrategias de tratamiento específicas para cada paciente. Si bien la adopción de la IA puede acelerar el procesamiento de datos y el tiempo necesario para obtener resultados mediante el análisis de grandes conjuntos de datos y el uso de algoritmos de aprendizaje automático para identificar biomarcadores y predecir los efectos secundarios en una fase más temprana del proceso de fabricación, la mitigación de los riesgos de la IA sigue siendo un desafío crítico para garantizar la precisión, la seguridad y el uso ético de la IA, ya que los nuevos riesgos relacionados con el sesgo y la fiabilidad general del modelo han puesto de relieve la necesidad de una mayor transparencia y regulaciones actualizadas para salvaguardar la salud humana y garantizar la confianza en los procesos impulsados por la IA.   

 

Análisis de riesgos y beneficios de la IA

La Ley de IA de la UE clasifica la Inteligencia Artificial en función del nivel de riesgo. La IA de alto nivel de riesgo abarca desde sistemas que elaboran perfiles de personas y automatizan el tratamiento de datos personales hasta aplicaciones de IA que intervienen en infraestructuras críticas, sanidad, transporte, aplicación de la ley y otros sectores en los que están en juego la seguridad, la privacidad y los derechos fundamentales. Las IA clasificadas en esta categoría están sujetas a controles regulatorios más estrictos y a normativas más rigurosas, ya que deben cumplir requisitos adicionales de mayor transparencia y responsabilidad. Por otro lado, las IA de riesgo limitado, aunque no están sujetas a un amplio escrutinio y supervisión regulatoria, deben ser transparentes y cumplir la normativa de la UE con independencia de su clasificación. Los chatbots de IA y la mayoría de las tecnologías basadas en IA generativa entran en esta categoría, y dado que estas tecnologías aún pueden ser utilizadas por malos actores o para tergiversar entidades o individuos, los proveedores de esta tecnología deben hacer saber a los usuarios que están interactuando con una tecnología de IA y no con un individuo, tal y como estipula la ley. Como se indica en los Principios para una IA fiable, la Inteligencia Artificial debe estar al servicio de los seres humanos y no causar daño. Esto es aún más crucial cuando se trata de las Ciencias de la Vida, ya que el mal uso o los errores en los sistemas de IA, en gran parte derivados de conjuntos de datos corruptos y sesgados, pueden afectar directamente a la salud humana y elevar los riesgos en operaciones críticas como los ensayos clínicos y la atención al paciente. Por lo tanto, el uso de la IA en la validación humana debe centrarse siempre en garantizar la precisión y la seguridad, mediante la realización de rigurosas pruebas de validación de modelos y algoritmos para mantener la integridad de los sistemas de IA y su alineación con las normas éticas y regulatorias. 

Además, los productos sanitarios que incorporan inteligencia artificial entran en la categoría de IA de alto riesgo definida por la Ley de IA de la UE, dado su impacto directo en la salud y la seguridad humanas. Estos sistemas basados en IA desempeñan un papel crucial en el diagnóstico, las recomendaciones de tratamiento y el seguimiento de los pacientes, por lo que su fiabilidad y precisión son primordiales. Un ciclo completo de validación es esencial para garantizar el cumplimiento de los requisitos normativos y respaldar los principios de una IA fiable. A diferencia de las aplicaciones de IA de riesgo limitado, los productos sanitarios basados en IA deben someterse a controles más exhaustivos para garantizar que funcionan dentro de los marcos éticos y normativos, al tiempo que proporcionan soluciones sanitarias seguras, eficaces e imparciales.

 

Supervisión Humana: Humano en el Bucle (Human in the Loop, HITL) vs Humano sobre el Bucle (Human on the Loop, HOTL)  

La supervisión humana de los sistemas de IA en esta industria no es sólo una recomendación, sino una necesidad, dado el impacto potencial de las decisiones impulsadas por la IA sobre la salud, la seguridad y el bienestar humanos. Sabiendo que los sistemas de IA difieren en cuanto a su finalidad, complejidad y clasificación, como se indica en la Ley de IA de la UE, sólo tiene sentido aplicar una supervisión adecuada que se corresponda con el nivel de riesgo e impacto del sistema de IA. Los sistemas de IA de alto riesgo en operaciones críticas, como los ensayos clínicos y la asistencia sanitaria, requieren una mayor intervención humana, ya que lo que está en juego es mucho más importante, y los posibles errores pueden tener graves consecuencias, como diagnósticos incorrectos, tratamientos inadecuados o comprometer la seguridad del paciente.

Este tipo de supervisión, conocida como Human in the Loop, requiere que el ser humano colabore activamente e intervenga en el proceso de toma de decisiones de la IA para analizar las decisiones de la IA y aprobar o rechazar los resultados basándose en su experiencia. En los casos menos graves de uso de la IA en sanidad y en las Ciencias de la Vida, en los que la IA sigue siendo necesaria, se requiere un enfoque más relajado, en el que el humano supervisa el sistema de IA pero no interviene en tiempo real a menos que sea necesario, para supervisar y evaluar las respuestas y conclusiones de la IA durante un periodo de tiempo y decidir si es necesario realizar cambios. Este enfoque, conocido como Human on the Loop, puede aplicarse en investigación y desarrollo para ejecutar tareas como analizar qué moléculas son más eficaces, y los investigadores revisan periódicamente los datos para decidir el siguiente paso. Existen otros tipos de relaciones entre humanos y el bucle, aunque HITL y HOTL siguen siendo las más comunes. La Ley de Inteligencia Artificial de la UE, que se aprobó en 2024 y entrará en vigor en los próximos dos años, tiene requisitos específicos para la Supervisión Humana de los Sistemas de Inteligencia Artificial de Alto Riesgo (Human Oversight of High-Risk AI, HRAIs), que exigen que el funcionario encargado de la supervisión sea capaz de entender los resultados del sistema de IA, tenga la autoridad y los privilegios del sistema para anular cualquier resultado cuando sea necesario, y cuente con el apoyo de una organización que proporcione la autoridad y los recursos para tomar las medidas adecuadas. 

 

Validación de la IA, casos de uso y mitigación de riesgos

La validación de la IA en las Ciencias de la Vida va más allá de los procesos de validación tradicionales, ya que deben tenerse en cuenta todos los elementos y consideraciones para garantizar que el sistema no sólo sea fiable, sino también ético y eficaz a la hora de cumplir su propósito. Aunque a menudo se culpa a los modelos y sistemas de IA por sus resultados, lo que debemos recordar es que los seres humanos alimentan a las IA con datos, y si alimentas a una IA con datos erróneos y sesgados, tu modelo de IA te dará resultados sesgados e incorrectos. Para evitar estos costosos errores, las empresas de las Ciencias de la Vida deben emplear técnicas sólidas de validación de modelos de IA y utilizar procedimientos claros y transparentes para mitigar riesgos como la parcialidad. 

Las empresas en esta industria deben contar con procesos sólidos de gobernanza de datos, como demuestra, por ejemplo, la correcta división de los datos en conjuntos de datos de entrenamiento, validación y prueba, documentando criterios claros para la inclusión y exclusión de datos. Para garantizar la transparencia y la trazabilidad en la validación humana de la IA, el proceso de desarrollo de las tecnologías de IA debe estar bien documentado, especialmente en lo que respecta a los resultados de las pruebas, los criterios de aceptación y las métricas de rendimiento objetivo. Además, estas empresas deben determinar si la IA será un modelo estático o uno que aprende continuamente. 

Otra cuestión clave cuando se trata del desarrollo y la implantación de la IA en nuestro sector es determinar el caso de uso previsto de la tecnología, así como los usuarios previstos, teniendo una visión clara de todos los actores de la IA implicados en el uso del sistema en una fase más temprana del proceso. Un modelo diseñado para detectar el cáncer en las mujeres, por ejemplo, puede no dar directamente los mismos resultados cuando se utiliza en los hombres sin un reentrenamiento significativo y un ajuste fino para tener en cuenta las diferencias biológicas basadas en el género. Por ello, la supervisión de los modelos es un paso esencial antes y después de su despliegue para garantizar su eficacia y fiabilidad a lo largo del tiempo. 

En lugar de considerar que los modelos de inteligencia artificial comercializados o en uso son proyectos terminados, las empresas de las Ciencias de la Vida deben adoptar un enfoque de evaluación continua y supervisar y detectar periódicamente cualquier «desviación de datos», ya que las nuevas entradas de datos pueden afectar al rendimiento del modelo. Por lo tanto, es importante que incluyan estrategias de supervisión para identificar tales desviaciones, con acciones correctivas como el reentrenamiento o el desarrollo de nuevos modelos si es necesario, en sus procesos de validación para garantizar que estos sistemas sigan cumpliendo las normas regulatorias y de seguridad, y sigan manteniendo el cumplimiento. 

¿Quieres saber más?

PQE Group cuenta con expertos cualificados en equipos multidisciplinares, disponibles para dar soporte a tu empresa en la consecución de los más altos niveles de seguridad para tus sistemas.

Visita nuestra página Regulated Artificial Intelligence & Data Analytics para conocer más, o contáctanos para encontrar la solución más adecuada para tu empresa.

Contáctanos