欧州委員会の「AIに関するハイレベル専門家グループ」によれば、信頼できるAIとは、法的・倫理的に適正であり、かつ技術的に堅牢であることが求められます。つまり、規制を遵守すると同時に、倫理的価値観を尊重し、社会的影響にも配慮する必要があるということです。この定義は、OECD(経済協力開発機構)が提唱する「信頼できるAIの原則(Principles for Trustworthy AI)」とも一致しており、AIの基本的なあり方とその特性を的確に示しています。ライフサイエンスは、今後AIの導入と開発が最も急速に進むと予測される主要産業の一つです。そのため、業界内の企業は、単に現在のEU規制に適合するだけでなく、将来の規制変更にも柔軟に対応できるシステム構築が求められます。
EU規則(Regulation (EU) 2024/1689)でも明示されているように、AI技術を提供する企業は、技術的な妥当性だけでなく、倫理的な責任も果たすことが義務付けられています。これは、信頼されるAIを社会に実装していくために必要不可欠な条件です。
従来の人によるバリデーション vs. 人によるバリデーション + AI
製薬・医療研究の分野において人工知能(AI)の活用が進む中、私たちの臨床試験や医薬品開発に対するアプローチは、AI主導の個別化医療(パーソナライズドメディスン)の時代へと大きく変わりつつあります。
従来の前臨床試験では、ヒトに類似したモデルを使った研究データをもとに、医薬品や医療機器がヒトに及ぼす効果を予測してきました。しかし、製薬業界やバイオ医療研究におけるAIの役割が急速に拡大している今、業界全体のヘルスケアや患者ごとの治療戦略に対する姿勢が根本から変化しつつあります。
AIを人によるバリデーションプロセスに組み込むことで、膨大なデータセットを処理し、機械学習アルゴリズムを活用してバイオマーカーを特定したり、副作用の予測を製造工程の初期段階で実施できるようになるなど、バリデーションのスピードと効率が飛躍的に向上することが期待されています。一方で、AI の正確性、安全性、倫理的使用を確保する上でAIリスクの軽減は引き続き重要な課題であり、バイアス(偏り)やモデル全体の信頼性といった新たなリスクが顕在化する中で、 AI 主導のプロセスへの信頼を確保するために、より一層の透明性の確保と、最新の規制への対応が求められています。
AIのリスク・ベネフィット分析
EUのAI法(AI Act)では、人工知能(AI)をそのリスクレベルに応じて分類しており、ハイリスクAIには、個人のプロファイリングや個人データの自動処理に関与するシステムから、重要インフラ、ヘルスケア、交通、法執行など、安全性・プライバシー・基本的人権に直接関わる分野で使用されるAIが含まれます。このカテゴリに分類されたAIは、透明性と説明責任を強化する追加要件を満たす必要があるためより厳格な規制とその管理の対象となります。一方、限定的リスク(リミテッド・リスク)AIに分類されるものについては、厳格な監査や規制の対象とはなりませんが、それでも透明性の確保とEU規制の遵守が求められます。たとえば、AIチャットボットや多くの生成AI技術はこのカテゴリに該当します。こうした技術は、悪意のある利用者によって使用される可能性があるほか、個人や組織の誤認・偽装に使われるリスクもあるため、AI Actに記載されているようにユーザーがAIと対話していることを明確に伝える義務がAI提供者には課されています。OECDが提唱する「信頼できるAIの原則(Principles for Trustworthy AI)」にもあるように、AIは人間にとって有益であり、害を及ぼしてはならないということが基本です。これは特にライフサイエンス分野において極めて重要であり、AIシステムの誤用やエラー(主に正しくないあるいはバイアスのあるデータセットによるものが多いが)が、臨床試験や患者ケアのような人の健康や生命に直接影響を及ぼすリスクがあるからです。したがって、ライフサイエンス分野でAIを人によるバリデーションに活用する際には、正確性と安全性の確保に焦点を当て、AIシステムのインテグリティを維持し、倫理的・規制的基準と整合した状態を保つためにAIシステムの厳格なモデルバリデーションやアルゴリズムのテストを実施する必要があります。
人による監視:Human in the Loop(HITL) vs Human on the Loop(HOTL) Oversight: Human in the Loop (HITL) vs Human on the Loop (HOTL)
ライフサイエンス分野におけるAIシステムの*人間による監視(Human Oversight)は、単なる推奨事項ではなく、人の健康・安全・福祉に影響を及ぼす可能性がある以上、不可欠な要素です。EU AI法(AI Act)で示されている通り、AIシステムはその目的・複雑性・リスク分類によって異なるため、リスクと影響度に応じた適切な監視方法を適用することが合理的です。たとえば、臨床試験や医療現場など、クリティカルな業務に使用される高リスクAIシステムでは、人による積極的な介入が必要です。なぜなら、誤った判断が誤診・不適切な治療・患者の安全性の損失など、重大な結果につながる可能性があるからです。このような監視アプローチは、Human in the Loop(HITL)と呼ばれ、人間がAIの意思決定プロセスに積極的に関与し、AIの出力を分析・評価して、専門知識に基づいて承認または却下するという形で実施されます。一方で、ライフサイエンスやヘルスケア分野におけるそれほど重大ではない用途においては、より緩やかな監視体制が適しています。この場合、人間はリアルタイムでの介入は行わず、AIシステムを定期的に監視・評価し、必要に応じて修正を加えるという方法が採られます。このアプローチはHuman on the Loop(HOTL)と呼ばれ、たとえば分子の効果を分析する研究開発(R&D)の現場で活用されます。研究者がAIによって処理されたデータを一定のタイミングで見直し、次のアクションを判断する形で適用されます。
2024年に採択されたEU AI法では、今後数年かけて段階的に施行される中で、高リスクAI(High-Risk AI, HRAI)に対する人間による監視に関する具体的な要件も明記されています。
その中では、監視責任者は以下を満たす必要があります:
• AIシステムの出力を理解できる能力があること
• 必要に応じて出力を上書き・停止できる権限とシステム上の操作権限を持つこと
• 適切な行動を行うための権限・リソースを提供する組織によってサポートさされていること
AIのバリデーション、ユースケース、およびリスク軽減
ライフサイエンスにおけるAIのバリデーションは、従来のバリデーションプロセスを超えたものであり、システムが単に信頼性が高いだけでなく、倫理的かつ効果的に目的を達成できることを保証するために、あらゆる要素や考慮事項を組み込む必要があります。AIモデルやシステムは、出力結果が批判されることが多いですが、忘れてはならないのは、AIは人間が提供したデータを基に学習しているという点です。もしも誤った、あるいは偏ったデータを与えれば、そのAIモデルは当然のように偏った誤った結果を返してしまいます。
こうした高コストの誤りを避けるために、ライフサイエンス企業は適切なAIモデルバリデーション技術を用い、リスク軽減のために明確かつ透明性のある手順を採用すべきです。具体的には、データを一括で扱うのではなく、ライフサイエンス企業はトレーニング用、バリデーション用、テスト用のグループに分け、それぞれに明確な包含・除外基準を設ける必要があります。また、AIの人間によるバリデーションの透明性と追跡可能性を確保するために、AI技術の開発過程を適切にドキュメント化し、ライフサイエンス企業はそのAIモデルが静的モデル(固定)か継続学習モデルかを事前に判断しておくべきです。
さらに、業界におけるAIの開発と導入における重要な課題の一つが、技術のユースケース(利用目的)を早期に明確化することです。例えば、女性のがん検出を目的に設計されたモデルは、性別に基づく生物学的差異を考慮して大幅な再学習や微調整を行わなければ、男性に対して同様の結果を出すことはできません。このため、モデルのモニタリングはAIモデルの開発前後を通じて不可欠なステップとなり、AIシステムの効果と信頼性を時間をかけて維持するために重要です。市場に出回っている、または実際に使用されている完成済みのAIモデルを「完成したプロジェクト」として扱うのではなく、ライフサイエンス企業は継続的評価(Continuous Assessment)のアプローチを取り入れ、定期的にモニタリングして「データドリフト(Data Drift)」を検知する必要があります。新しいデータの入力によってモデル性能が変動する可能性があるためです。そのため、ライフサイエンス企業はこれらのモニタリング戦略をバリデーションプロセスに含め、必要に応じて再学習や新モデルの開発といった是正措置を取ることで、AIシステムが規制基準と安全基準を引き続き満たし、コンプライアンスを保つことが重要となります。