Perché le scienze della vita necessitano di un uso responsabile dell'IA con validazione umana

di Nelson De Paiva Bondioli, Advanced Technologies Competence Centre Specialist @PQE Group

L’adozione dell’intelligenza artificiale nel settore delle scienze della vita sta trasformando non solo il modo in cui vengono condotte la ricerca, la diagnostica e lo sviluppo dei farmaci, ma anche gli standard normativi in termini di accuratezza, sicurezza e conformità. Se in passato la validazione umana si basava principalmente su competenze specialistiche e test clinici per garantire l’affidabilità dei risultati, l’introduzione dell’IA e degli strumenti di automazione, basati su dati di addestramento, pone nuove sfide non solo per le aziende ma anche per le autorità regolatorie. Queste ultime devono infatti adattare i propri modelli di supervisione per tenere conto di aspetti quali i bias algoritmici e i limiti intrinseci dei dati. L’Unione Europea ha adottato un approccio proattivo all’intelligenza artificiale, pubblicando già nel 2019 le Linee guida etiche per un’IA affidabile, con l’obiettivo di definire cosa possa essere considerato “trustworthy AI”.

Responsible AI Use_Blog banner-1

Secondo il Gruppo di esperti di alto livello della Commissione Europea sull’IA, un’IA affidabile deve essere legale, etica e robusta, nel rispetto delle normative vigenti e dei valori etici fondamentali, così da garantire sia l’affidabilità tecnica sia un’attenta considerazione dell’impatto sociale. Questa definizione riassume i principi cardine dell’IA ed è coerente con i Principi per un’IA affidabile delineati dall’OCSE (Organizzazione per la Cooperazione e lo Sviluppo Economico). Poiché il settore delle scienze della vita è tra quelli che si prevede registreranno la maggiore crescita nell’adozione e nello sviluppo dell’IA, le aziende devono fare uno sforzo ulteriore per assicurare che i sistemi implementati non siano soltanto conformi alle normative UE attuali, ma anche sufficientemente flessibili da adattarsi a quelle future. Come stabilito dall’AI Act (Regolamento (UE) 2024/1689), i fornitori di tecnologie di intelligenza artificiale hanno, tra le loro molte responsabilità, anche quella di garantire che i sistemi di IA non siano solo tecnologicamente solidi, ma anche eticamente responsabili.

 

Validazione umana tradizionale vs. validazione umana supportata dall’IA 

L’impiego dell’intelligenza artificiale nella ricerca farmaceutica e sanitaria sta modificando profondamente l’approccio alle sperimentazioni cliniche e allo sviluppo dei farmaci, aprendo la strada all’era dei trattamenti personalizzati basati sull’IA. Storicamente, le sperimentazioni precliniche si sono basate su dati derivanti da test condotti su modelli simili all’essere umano per prevedere l’efficacia e l’impatto di farmaci e dispositivi medici. Oggi, il ruolo sempre più centrale dell’IA nell’industria farmaceutica e nella ricerca biomedica sta trasformando l’intero approccio del settore all’assistenza sanitaria e alle strategie terapeutiche personalizzate. L’adozione dell’IA consente di accelerare l’elaborazione dei dati e ridurre i tempi necessari per ottenere risultati, grazie all’analisi di grandi volumi di dati e all’utilizzo di algoritmi di machine learning in grado di identificare biomarcatori e prevedere effetti collaterali già nelle prime fasi del processo di sviluppo. Tuttavia, la mitigazione dei rischi legati all’IA rimane una sfida cruciale. I problemi connessi ai bias dei dati e all’affidabilità complessiva dei modelli hanno evidenziato la necessità di una maggiore trasparenza e di un aggiornamento continuo delle normative, al fine di tutelare la salute umana e mantenere la fiducia nei processi decisionali supportati dall’IA.

 

Analisi del rapporto rischio-beneficio dell’IA

L’approccio basato sul rischio è diventato la metodologia dominante nel ciclo di vita di sviluppo dei sistemi di intelligenza artificiale (AI System Development Life Cycle – SDLC). Un esempio significativo è rappresentato dall’AI Act dell’Unione Europea, che classifica i sistemi di IA in base al livello di rischio. I sistemi di IA ad alto rischio includono, tra gli altri, quelli utilizzati per la profilazione degli individui e l’elaborazione automatizzata dei dati personali, nonché le applicazioni impiegate in settori critici quali infrastrutture, sanità, trasporti, forze dell’ordine e altri ambiti in cui sono coinvolti sicurezza, privacy e diritti fondamentali. Tali sistemi sono soggetti a requisiti normativi più stringenti e a controlli più rigorosi, con obblighi aggiuntivi in termini di trasparenza, tracciabilità e responsabilità. I sistemi di IA a rischio limitato, pur non essendo sottoposti allo stesso livello di supervisione, devono comunque rispettare le normative UE e garantire adeguati livelli di trasparenza. In questa categoria rientrano, ad esempio, i chatbot e molte tecnologie di IA generativa. Poiché tali strumenti possono essere utilizzati in modo improprio o per ingannare utenti e soggetti terzi, l’AI Act stabilisce che i fornitori debbano informare chiaramente gli utenti quando interagiscono con un sistema di intelligenza artificiale e non con una persona fisica.

Come previsto dai principi dell’IA affidabile, l’intelligenza artificiale deve essere al servizio dell’uomo e non arrecare danno. Questo aspetto è particolarmente critico nel settore delle scienze della vita, dove errori o usi impropri dei sistemi di IA — spesso dovuti a dataset distorti o di scarsa qualità — possono avere un impatto diretto sulla salute umana e aumentare i rischi in attività fondamentali come le sperimentazioni cliniche e la cura dei pazienti. Di conseguenza, l’impiego dell’IA nei processi di validazione deve sempre essere orientato a garantire accuratezza e sicurezza, attraverso rigorose attività di validazione dei modelli e di test degli algoritmi, in linea con gli standard etici e regolatori. I dispositivi medici che incorporano sistemi di intelligenza artificiale rientrano a pieno titolo nella categoria dei sistemi di IA ad alto rischio, dato il loro impatto diretto sulla salute e sulla sicurezza dei pazienti. Questi sistemi svolgono un ruolo cruciale nella diagnosi, nelle raccomandazioni terapeutiche e nel monitoraggio dei pazienti; pertanto, affidabilità e accuratezza sono requisiti imprescindibili. Un ciclo di validazione completo è essenziale per garantire la conformità normativa e supportare i principi di un’IA affidabile. A differenza delle applicazioni a rischio limitato, i dispositivi medici basati sull’IA devono essere sottoposti a controlli più approfonditi per assicurare che operino nel rispetto dei quadri etici e regolatori, fornendo soluzioni sanitarie sicure, efficaci e imparziali.

 

Supervisione umana: Human in the Loop (HITL) vs Human on the Loop (HOTL)  

La supervisione umana dei sistemi di intelligenza artificiale nelle scienze della vita non è semplicemente una buona pratica, ma una vera e propria necessità, considerato l’impatto potenziale delle decisioni supportate dall’IA sulla salute, la sicurezza e il benessere delle persone. Poiché i sistemi di IA differiscono per finalità, complessità e classificazione di rischio, è essenziale applicare livelli di supervisione adeguati al contesto di utilizzo.

I sistemi di IA ad alto rischio, impiegati in ambiti critici come le sperimentazioni cliniche e l’assistenza sanitaria, richiedono un elevato grado di intervento umano. In questi casi, errori anche minimi possono avere conseguenze gravi, come diagnosi errate, trattamenti inappropriati o compromissione della sicurezza dei pazienti.

Questo modello di supervisione è noto come Human in the Loop (HITL) e prevede che l’essere umano partecipi attivamente al processo decisionale dell’IA, analizzando i risultati prodotti dal sistema e approvandoli o respingendoli sulla base della propria competenza professionale.

In scenari meno critici, è possibile adottare un approccio più flessibile, denominato Human on the Loop (HOTL), in cui l’operatore umano monitora il funzionamento del sistema di IA senza intervenire in tempo reale, salvo necessità. Questo modello è particolarmente adatto ad attività di ricerca e sviluppo, come l’analisi dell’efficacia di molecole, dove i ricercatori esaminano periodicamente i risultati per orientare le fasi successive del lavoro.

Sebbene esistano diverse modalità di interazione tra esseri umani e sistemi di IA, HITL e HOTL rappresentano i modelli più diffusi. L’AI Act, approvato nel 2024 ed entrato in una fase di applicazione graduale, stabilisce requisiti specifici per la supervisione umana dei sistemi di IA ad alto rischio. In particolare, la persona responsabile della supervisione deve essere in grado di comprendere i risultati prodotti dal sistema, disporre dell’autorità e dei privilegi necessari per intervenire o annullare le decisioni dell’IA e operare all’interno di un’organizzazione che fornisca risorse e supporto adeguati.

 

Validazione dell’IA, casi d’uso e mitigazione dei rischi

La validazione dei sistemi di intelligenza artificiale nelle scienze della vita va oltre i tradizionali processi di validazione, poiché richiede di considerare una pluralità di elementi per garantire che il sistema sia non solo affidabile, ma anche etico ed efficace rispetto allo scopo previsto. Sebbene spesso si tenda ad attribuire ai modelli di IA la responsabilità dei risultati ottenuti, è fondamentale ricordare che tali sistemi si basano su dati forniti dagli esseri umani. Dataset incompleti, errati o distorti producono inevitabilmente risultati non affidabili.

Per evitare errori potenzialmente costosi e dannosi, le aziende del settore delle scienze della vita devono adottare solide metodologie di validazione dei modelli di IA e procedure chiare e trasparenti per la gestione e la mitigazione dei rischi, inclusi quelli legati ai bias.

Un elemento chiave è rappresentato da processi robusti di Data Governance, che includano, ad esempio, la corretta suddivisione dei dati in set di addestramento, validazione e test, nonché la definizione e la documentazione di criteri chiari per l’inclusione e l’esclusione dei dati. Per garantire trasparenza e tracciabilità, l’intero processo di sviluppo dell’IA deve essere adeguatamente documentato, con particolare attenzione ai risultati dei test, ai criteri di accettazione e alle metriche di performance attese. È inoltre fondamentale stabilire se il modello di IA sia statico o progettato per apprendere continuamente nel tempo.

Un altro aspetto cruciale riguarda la definizione del caso d’uso previsto e degli utenti finali del sistema, nonché l’identificazione di tutti gli attori coinvolti nell’utilizzo dell’IA sin dalle prime fasi del progetto. Un modello progettato, ad esempio, per individuare il cancro nelle donne potrebbe non fornire risultati affidabili se applicato a una popolazione maschile senza un adeguato riaddestramento e una calibrazione specifica che tenga conto delle differenze biologiche.

Per questo motivo, il monitoraggio dei modelli di IA rappresenta una fase essenziale sia prima sia dopo l’implementazione. Le aziende dovrebbero adottare un approccio di valutazione continua, monitorando nel tempo le prestazioni dei sistemi e individuando eventuali fenomeni di data drift, ovvero variazioni nei dati in ingresso che possono influire negativamente sull’accuratezza del modello. L’integrazione di strategie di monitoraggio e di azioni correttive — come il riaddestramento del modello o lo sviluppo di nuove soluzioni — è fondamentale per garantire che i sistemi di IA continuino a soddisfare i requisiti normativi, di sicurezza e di conformità nel lungo periodo.

 

Vuoi saperne di più?

Il personale di PQE Group è composto da professionisti altamente qualificati e di comprovata esperienza, organizzati in team multidisciplinari, pronti a supportare la tua azienda nel garantire i più elevati standard di sicurezza dei sistemi.

Visita la nostra pagina dedicata all'Intelligenza Artificiale regolamentata e all'Analisi dei Dati per saperne di più, o contattaci per trovare la soluzione più adatta alla tua azienda.

Connettiti con noi