Проверка алгоритмов обучения искусственного интеллекта в контексте GxP

Лука Занотти Фрагонара и Джованни Орландо

Проверка систем искусственного интеллекта и машинного обучения в рамках правил GxP жизненного цикла важна для соблюдения стандартов качества и безопасности регулируемой продукции. В этом блоге подчеркивается важность комплексных протоколов проверки для систем AI/ML в различных секторах, включая фармацевтику и медицинские устройства. В нем подчеркивается преобразующий потенциал систем AI/ML в анализе данных, распознавании образов, прогнозировании и поддержке принятия решений. В статье объясняется, что регулирующие органы, такие как FDA и EMA, ввели строгие требования, чтобы гарантировать безопасность и эффективность продуктов и услуг на основе ИИ. Эти требования охватывают качество данных, алгоритмическую стабильность, производительность модели, объяснимость и документацию. Чтобы соответствовать этим критериям, необходим процесс проверки, чтобы продемонстрировать соответствие нормативным требованиям и обеспечить целостность и точность моделей AI/ML с течением времени. В статье представлена стратегия, основанная на оценке рисков, разработанная PQE, которая включает в себя такие рекомендации, как ASME V&V 40-2018 и GAMP 5v2, для обеспечения соответствия требованиям. Мероприятия по валидации включают оценку рисков модели, планирование валидации, тестирование, документирование, управление изменениями и текущие оценки. В статье подчеркивается важность проверки данных и проектирования на протяжении всего процесса проверки. В целом, в нем подчеркивается важнейшая роль проверки систем AI/ML GxP для подтверждения их достоверности, надежности и признания регулирующими органами.

Введение

Системы искусственного интеллекта (ИИ) и машинного обучения (МО) обладают революционным потенциалом для многих отраслей, в том числе для фармацевтики и медицинских устройств. Эти системы могут анализировать большие объемы данных, выявлять закономерности и тенденции, а также делать прогнозы или поддерживать принятие решений, которые могут помочь улучшить результаты лечения пациентов и оптимизировать операции. В частности, несколько примеров применения AI/ML можно найти в:

  • Производство : анализ данных и улучшение процессов, выпуск партий в режиме реального времени, автоматические проверки качества (например, проверки таблеток).
  • Фармаконадзор : автоматизированный мониторинг нежелательных явлений.
  • Исследования : Открытие наркотиков, выбор популяции и стратификация.
  • Медицинские приборы : автоматизированная диагностика на основе компьютерного зрения.

Однако с ростом зависимости от ИИ и МО в этих областях крайне важно убедиться, что эти системы проверены и работают должным образом. Именно поэтому во втором издании Руководства GAMP 5 «Риск-ориентированный подход к компьютеризированным системам, соответствующим GxP» Приложения были расширены, чтобы охватить эти новые и развивающиеся концепции, которые оказывают значительное влияние на весь сектор наук о жизни.

AI Learning algorithms validation in the context GXP_Site Banner

Зачем проверять системы AI/ML GxP?

Обеспечение приемлемого уровня достоверности алгоритмов, управляемых данными, имеет первостепенное значение из-за присущей технологии низкой прозрачности. Следовательно, чтобы гарантировать адекватный уровень качества и снизить высокий риск получения неправильных или ненадежных результатов, регулирующие органы, такие как Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) и Европейское агентство по лекарственным средствам (EMA), установили высокие требования к для обеспечения безопасности и эффективности продуктов и услуг на основе ИИ.

Упомянутые выше требования в основном касаются:

  • Качество данных (т. е. качество данных, используемых для обучения и тестирования моделей ИИ и МО; данные должны быть репрезентативными для реальных условий и не должны содержать ошибок и погрешностей);
  • Алгоритмическая стабильность (т. е. гарантировать, что модели AI и ML стабильны и не дают существенно различающихся результатов при обучении или тестировании на разных наборах данных);
  • Производительность модели (необходимо провести оценку производительности моделей AI и ML, чтобы убедиться, что они точны и надежны);
  • Объяснимость (т. е. понять и задокументировать логику, которая ведет к процессу принятия решений ИИ и МО);
  • Документация и ведение записей (т. е. ведение обновленных записей и документации, связанной с валидацией).

Чтобы удовлетворить эти требования, необходим процесс валидации, демонстрирующий соответствие нормативным требованиям и поддерживающий целостность и точность любой модели AI или ML с течением времени.

О валидации систем AI/ML

Основываясь на самых последних правилах, которые были выпущены в отношении валидации AI/ML, Центр компетенций по передовым технологиям PQE разработал эффективную стратегию, основанную на оценке рисков, для достижения требуемого уровня соответствия:

  • ASME V&V 40-2018
  • ГАМП 5 на 2
  • ISO_IEC_38507_2022( ru ) — Управление ИТ — последствия ИИ
  • ISO_IEC_TS_4213_2022 ( en ) — Оценка производительности классификатора ML

Объединив содержание вышеупомянутых руководств с новым подходом Computer Software Assurance (CSA) и методологией Agile Development, эксперты группы PQE разработали специальную структуру, гарантирующую приемлемый уровень достоверности проверяемых алгоритмов.

1_Artificial Intelligence Learning algorithms validation in the context GXP

Рис. 1. Схема подхода CSA

2_Artificial Intelligence Learning algorithms validation in the context GXP

Рис. 2 Гибкая методология (Agile)

3_Artificial Intelligence Learning algorithms validation in the context GXP

Рис. 3. Жизненный цикл проверки модели

Действия по валидации, которые должны выполняться в модели AI/ML, всегда должны включать следующие действия:

  • Выполнение оценки рисков модели;
  • Создание плана проверки;
  • Выполнение мероприятий по валидации, включая тестирование;
  • Создание отчета о проверке;
  • Применение управления изменениями;
  • Выполнение текущих оценок для поддержания подтвержденного статуса модели до тех пор, пока не будет принято решение об ее отклонении.

Как уже упоминалось, процесс валидации также должен опираться на подход CSA, чтобы уменьшить предполагаемые усилия, предоставить больше места для фазы критического мышления и задач обеспечения, оптимизации деятельности по тестированию и сокращения документации.

В частности, ядром процесса является определение риска. Это приводит к достижению баланса в деятельности по валидации, гарантируя надлежащий уровень приемлемости со стороны регулирующих органов и разумный объем документации, которую необходимо создать и поддерживать.

Параллельно необходим процесс проверки данных, чтобы выполнить все требования к целостности и качеству данных.




4_Artificial Intelligence Learning algorithms validation in the context GXP

Рис. 4. Жизненный цикл данных , интегрированный с жизненным циклом модели

В частности, невозможно проверить алгоритм AI/ML, не позаботившись о формате данных и о процессе обработки данных в целом.

Таким образом, проверка систем GxP, включающих модели/алгоритмы AI/ML, является важным шагом в обеспечении качества и безопасности регулируемых продуктов. Важно учитывать такие факторы, как качество данных, алгоритмическую стабильность, производительность модели, объяснимость модели и документации, чтобы обеспечить надежность и эффективность этих моделей.

Команда PQE Advanced Technologies разработала надежную стратегию для достижения соответствия, сочетая основные этапы проверки с принципами CSA и Agile Methodologies. Это оптимизирует деятельность, уравновешивая объем документации, которая должна быть подготовлена, и получая, с другой стороны, надлежащий уровень нормативного признания, а также принимая во внимание рабочие процессы очистки данных и обработки данных, которые сильно влияют на эффективность и обслуживание модели.

Эксперты PQE поддержат вас, используя передовые технологии

Непрерывное тестирование систем, используя самые новые инструменты, доступные на рынке

 

Наши сервисы