近年、急速にAIがいろいろな場所で利用され始めている。GXPで使用されるシステムや機器についてもAIが使われていることもある。そのような中で2023年12月18日にAIに関する初のマネジメントシステム規格『ISO/IEC42001:2023』1) が発表された。そこにはAIを利用した製品やサービスを提供する組織が責任を持ってその役割を果たすための要求事項が示されている。以下はそのISO/IEC42001に関する概要の説明である。なお、医薬品業界用にはFDA 2) とWHO 3) が同様の文書を発表している。
1) SO/IEC42001:2023:
https://www.iso.org/standard/81230.html
2) Artificial Intelligence and Medical Products:
https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-device
3) Regulatory considerations on artificial intelligence for health:
https://iris.who.int/bitstream/handle/10665/373421/9789240078871-eng.pdf?sequence=1
**************************************************
本稿では、人工知能(AI)の急速な進歩がもたらす課題への対応として、ISO/IEC 42001規格の出現を探る。規格の主要な要求事項と既存のマネジメントシステム規格との互換性を包括的に検討することで、責任ある倫理的なAIの利用を促進する上での規格の意義を強調する。
透明性、説明責任、リスク軽減を強調することで、ISO/IEC 42001はAIマネジメントシステムのグローバルな枠組みを確立している。この記事は、ISO/IEC 42001への準拠を達成することの戦略的重要性と、この取り組みを支援するPQEグループのような組織の役割を強調して締めくくられている。