Dlaczego nauki przyrodnicze potrzebują odpowiedzialnego wykorzystania sztucznej inteligencji z walidacją ludzką

przez: Nelson De Paiva Bondioli, Specjalista ds. Centrum Kompetencji Zaawansowanych Technologii w PQE Group @PQE Group

Dowiedz się, w jaki sposób walidacja sztucznej inteligencji, etyka i nadzór zapewniają bezpieczeństwo i skuteczność sztucznej inteligencji w naukach przyrodniczych zgodnie z unijną ustawą o sztucznej inteligencji. Wdrożenie sztucznej inteligencji w branży nauk przyrodniczych zmienia nie tylko sposób prowadzenia badań, diagnostyki i rozwoju leków, ale także standardy regulacyjne dotyczące dokładności, bezpieczeństwa i zgodności. Podczas gdy tradycyjna walidacja z udziałem człowieka opierała się na wiedzy specjalistycznej i testach klinicznych, aby zapewnić dokładność, wprowadzenie sztucznej inteligencji i narzędzi automatyzacji opartych na danych szkoleniowych, stwarza nowe wyzwania nie tylko dla firm, ale także dla organów regulacyjnych, które muszą teraz dostosować ramy nadzoru, aby uwzględnić błędy algorytmiczne i ograniczenia danych. Unia Europejska aktywnie działa w odniesieniu do sztucznej inteligencji, opracowując już w 2019 roku „Wytyczne etyczne”, aby określić, co jest, a co nie jest „wiarygodną sztuczną inteligencją”. 

Responsible AI Use_Blog banner

Według Grupy Ekspertów Wysokiego Szczebla ds. AI Komisji Europejskiej, godna zaufania AI musi być zgodna z prawem, etyczna i solidna, a jednocześnie zgodna z przepisami i wartościami etycznymi, aby zapewnić zarówno niezawodność techniczną, jak i uwzględnić jej wpływ społeczny. Definicja ta podsumowuje podstawy i główne cechy AI zgodnie z Zasadami Godnej Zaufania AI określonymi przez OECD ( Organizacja Współpracy Gospodarczej i Rozwoju). Jako jedna z największych branż, w której przewiduje się wzrost wdrażania i rozwoju AI, przedsiębiorstwa z branży nauk przyrodniczych muszą dołożyć wszelkich starań, aby zapewnić, że wdrażane i oferowane przez nie systemy były nie tylko zgodne z obowiązującymi przepisami UE, ale także dostosowywalne do nowych, etycznie zmieniających sie przepisów. Zgodnie z unijną ustawą o AI (Rozporządzenie (UE) 2024/1689), dostawcy technologii AI powinni, wśród swoich wielu obowiązków, również zapewnić, że ich sztuczna inteligencja jest nie tylko technologicznie solidna, ale także etycznie odpowiedzialna, zgodnie z wymogami wytycznych. 

 

Tradycyjna walidacja ludzka kontra walidacja ludzka + sztuczna inteligencja 

Wykorzystanie sztucznej inteligencji w badaniach farmaceutycznych i opieki zdrowotnej zmienia nasze podejście do badań klinicznych i rozwoju leków, ponieważ wkraczamy w erę spersonalizowanego rozwoju leków wspomaganego przez sztuczną inteligencję. Podczas gdy badania przedkliniczne historycznie opierały się na danych badawczych z testów z wykorzystaniem modeli ludzkich w celu przewidywania skuteczności i wpływu leków i wyrobów medycznych na ludzi, rosnąca rola sztucznej inteligencji w przemyśle farmaceutycznym i badaniach biomedycznych radykalnie zmienia podejście branży do opieki zdrowotnej i strategii leczenia dostosowane do potrzeb pacjenta. Chociaż wdrożenie sztucznej inteligencji może przyspieszyć przetwarzanie danych i skrócić czas potrzebny na uzyskanie wyników poprzez analizę dużych zbiorów danych i wykorzystanie algorytmów uczenia maszynowego do identyfikacji biomarkerów i przewidywania skutków ubocznych na wcześniejszym etapie procesu produkcyjnego, ograniczanie ryzyka związanego ze sztuczną inteligencją nadal pozostaje kluczowym wyzwaniem w zapewnieniu dokładności, bezpieczeństwa i etycznego wykorzystania sztucznej inteligencji, ponieważ nowe zagrożenia związane z błędami systematycznymi i ogólną niezawodnością modeli uwypukliły potrzebę większej przejrzystości i aktualizacji przepisów w celu ochrony zdrowia ludzkiego i zapewnienia zaufania do procesów opartych na sztucznej inteligencji. 

 

Analiza ryzyka i korzyści AI 

Podejście oparte na ryzyku stało się dominującą metodologią w cyklu rozwoju systemów sztucznej inteligencji (SDLC), czego znaczącym przykładem jest unijna ustawa o sztucznej inteligencji (AI Act), która klasyfikuje sztuczną inteligencję według poziomu ryzyka. AI wysokiego ryzyka obejmuje wszystko, od systemów profilujących osoby i automatyzujących przetwarzanie danych osobowych, po aplikacje AI wykorzystywane w infrastrukturze krytycznej, opiece zdrowotnej, transporcie, egzekwowaniu prawa i innych sektorach, w których zagrożone są bezpieczeństwo, prywatność i prawa podstawowe. AI sklasyfikowane w tej kategorii podlega bardziej rygorystycznym kontrolom regulacyjnym i przepisom, ponieważ musi spełniać dodatkowe wymogi dotyczące większej przejrzystości i rozliczalności. Z drugiej strony, od AI o ograniczonym ryzyku, choć nie podlegają one szczegółowej kontroli i nadzorowi regulacyjnemu, nadal oczekuje się przejrzystości i zgodności z przepisami UE, niezależnie od ich klasyfikacji. Chatboty AI i większość generatywnych technologii opartych na AI należą do tej kategorii, a ponieważ technologie te nadal mogą być wykorzystywane przez osoby o złych zamiarach lub do wprowadzania w błąd podmiotów lub osób, dostawcy tej technologii muszą uświadomić użytkownikom, że wchodzą w interakcję z technologią AI, a nie z osobą fizyczną, zgodnie z zapisami ustawy. Zgodnie z Zasadami godnej zaufania sztucznej inteligencji (Principles for Trustworthy AI), sztuczna inteligencja powinna służyć ludziom, a nie szkodzić. Jest to jeszcze ważniejsze w przypadku nauk biologicznych, ponieważ niewłaściwe użycie lub błędy w systemach sztucznej inteligencji, wynikające głównie z uszkodzonych i stronniczych zbiorów danych, mogą bezpośrednio wpływać na zdrowie ludzi i zwiększać ryzyko w kluczowych procesach, takich jak badania kliniczne i opieka nad pacjentem. Wykorzystanie sztucznej inteligencji w walidacji ludzkiej powinno zatem zawsze koncentrować się na zapewnieniu dokładności i bezpieczeństwa poprzez rygorystyczną walidację modeli i testowanie algorytmów w celu zachowania integralności systemów sztucznej inteligencji oraz ich zgodności ze standardami etycznymi i regulacyjnymi. 

Ponadto, wyroby medyczne wykorzystujące sztuczną inteligencję należą do kategorii AI wysokiego ryzyka, zgodnie z definicją zawartą w unijnej ustawie o AI, ze względu na ich bezpośredni wpływ na zdrowie i bezpieczeństwo ludzi. Te systemy oparte na AI odgrywają kluczową rolę w diagnostyce, zaleceniach terapeutycznych i monitorowaniu pacjentów, dlatego ich niezawodność i dokładność są niezwykle istotne. Pełny cykl walidacji jest niezbędny do zapewnienia zgodności z wymogami regulacyjnymi i wspierania zasad niezawodnej AI. W przeciwieństwie do zastosowań AI o ograniczonym ryzyku, wyroby medyczne oparte na AI muszą podlegać bardziej szczegółowym kontrolom, aby zapewnić ich działanie w ramach etyki i przepisów, a jednocześnie zapewniać bezpieczne, skuteczne i obiektywne rozwiązania w zakresie opieki zdrowotnej. 

 

Nadzór ludzki: człowiek w pętli (HITL) kontra człowiek w pętli (HOTL) 

Nadzór ludzki nad systemami sztucznej inteligencji w naukach przyrodniczych to nie tylko zalecenie, ale konieczność, biorąc pod uwagę potencjalny wpływ decyzji podejmowanych przez sztuczną inteligencję na zdrowie, bezpieczeństwo i dobro człowieka. Wiedząc, że systemy sztucznej inteligencji różnią się pod względem celu, złożoności i klasyfikacji, zgodnie z unijną ustawą o sztucznej inteligencji, sensowne jest stosowanie odpowiedniego nadzoru, który odpowiada poziomowi ryzyka i wpływowi systemu sztucznej inteligencji. Systemy sztucznej inteligencji o wysokim ryzyku w krytycznych operacjach, takich jak badania kliniczne i opieka zdrowotna, wymagają większej interwencji człowieka, ponieważ stawka jest znacznie wyższa, a potencjalne błędy mogą prowadzić do poważnych konsekwencji, takich jak błędna diagnoza, niewłaściwe leczenie lub zagrożenie bezpieczeństwa pacjenta. 

Ten rodzaj nadzoru, określany jako podejście „człowiek w pętli”, wymaga od człowieka aktywnej współpracy i interwencji w proces decyzyjny sztucznej inteligencji (AI), aby analizować decyzje AI i zatwierdzać lub odrzucać ustalenia na podstawie wiedzy specjalistycznej. W mniej poważnych przypadkach użycia AI w opiece zdrowotnej i naukach przyrodniczych, gdzie AI jest nadal wymagana, potrzebne jest bardziej elastyczne podejście, w którym człowiek monitoruje system AI, ale nie interweniuje w czasie rzeczywistym, chyba że jest to konieczne, aby nadzorować i oceniać odpowiedzi i ustalenia AI w określonym czasie oraz decydować o konieczności wprowadzenia zmian. To podejście, określane jako „człowiek w pętli”, można zastosować w badaniach i rozwoju do wykonywania zadań, takich jak analiza, które cząsteczki są bardziej skuteczne, przy czym naukowcy okresowo przeglądają dane, aby zdecydować o kolejnym kroku. Istnieją inne rodzaje relacji między ludźmi a pętlą, chociaż HITL i HOTL pozostają najpowszechniejsze. Ustawa UE o sztucznej inteligencji, która została zatwierdzona w 2024 r. i wejdzie w życie w ciągu kilku najbliższych lat, zawiera szczegółowe wymogi dotyczące nadzoru człowieka nad systemami sztucznej inteligencji wysokiego ryzyka (HRAI). Zgodnie z nimi urzędnik odpowiedzialny za nadzór musi być w stanie zrozumieć dane wyjściowe systemu sztucznej inteligencji, posiadać uprawnienia i przywileje systemowe pozwalające na  nadpisanie danych wyjściowych, gdy jest to konieczne, oraz być wspierany przez organizację, która zapewnia uprawnienia i zasoby do podejmowania odpowiednich działań. 

 

Walidacja sztucznej inteligencji, przypadki użycia i ograniczanie ryzyka 

Walidacja sztucznej inteligencji (AI) w naukach przyrodniczych wykracza poza tradycyjne procesy walidacji, ponieważ wszystkie elementy i czynniki muszą zostać uwzględnione, aby zapewnić nie tylko niezawodność systemu, ale także jego etyczność i skuteczność w realizacji jego celu. Chociaż modele i systemy AI często są obwiniane za swoje wyniki, należy pamiętać, że AI są zasilane danymi pochodzącymi od ludzi, a jeśli dostarczysz sztucznej inteligencji błędne i stronnicze dane, Twój model AI da stronnicze i niepoprawne wyniki. Aby uniknąć tych kosztownych błędów, firmy z branży nauk przyrodniczych powinny stosować solidne techniki walidacji modeli AI oraz jasne i przejrzyste procedury, aby zminimalizować ryzyko, takie jak stronniczość. 

Firmy z branży nauk przyrodniczych muszą posiadać solidne procesy zarządzania danymi (Data Governance), potwierdzone na przykład prawidłowym podziałem danych na zbiory danych szkoleniowych, walidacyjnych i testowych, a także dokumentowaniem jasnych kryteriów włączania i wyłączania danych. Aby zapewnić przejrzystość i identyfikowalność w procesie walidacji sztucznej inteligencji (AI), proces rozwoju technologii AI powinien być dobrze udokumentowany, szczególnie w odniesieniu do wyników testów, kryteriów akceptacji i docelowych wskaźników wydajności. Ponadto firmy z branży nauk przyrodniczych powinny określić, czy AI będzie modelem statycznym, czy też będzie się nieustannie uczyć. 

Kolejną kluczową kwestią w kontekście rozwoju i wdrażania sztucznej inteligencji (AI) w naszej branży jest określenie docelowego zastosowania technologii oraz docelowych użytkowników, mając jasny obraz wszystkich podmiotów AI zaangażowanych w system na wcześniejszym etapie procesu. Model zaprojektowany do wykrywania raka u kobiet, na przykład, może nie dawać takich samych rezultatów, gdy jest stosowany u mężczyzn, bez istotnego przekwalifikowania i dostrojenia uwzględniającego różnice biologiczne związane z płcią. To sprawia, że monitorowanie modelu jest niezbędnym krokiem przed i po wdrożeniu modelu AI, aby zapewnić skuteczność i niezawodność systemów AI w dłuższej perspektywie. 

Zamiast traktować gotowe modele AI dostępne na rynku lub w użyciu jako ukończone projekty, firmy z branży nauk przyrodniczych powinny zamiast tego stosować podejście ciągłej oceny i regularnie monitorować oraz wykrywać wszelkie „dryfowanie danych”, ponieważ nowe dane wejściowe mogą wpływać na wydajność modelu. Dlatego ważne jest, aby firmy z branży nauk przyrodniczych uwzględniały w swoich procesach walidacji strategie monitorowania w celu identyfikacji takich dryfów, a także, w razie potrzeby, działania korygujące, takie jak ponowne szkolenie lub opracowywanie nowych modeli, aby zapewnić, że systemy te nadal spełniają normy regulacyjne i bezpieczeństwa oraz pozostają zgodne z przepisami. 

Dowiedz się więcej

Personel PQE Group składa się z doświadczonych i wykwalifikowanych ekspertów w zespołach multidyscyplinarnych, którzy są gotowi wspierać Twoją firmę w osiąganiu najwyższych poziomów bezpieczeństwa dla Twoich systemów.

Odwiedź naszą stronę poświęconą Regulowanej Sztucznej Inteligencji i Analizie Danych, aby dowiedzieć się więcej, lub skontaktuj się z nami, aby znaleźć najbardziej odpowiednie rozwiązanie dla Twojej firmy.

Połącz się z nami