from Delivering responsible AI in the healthcare and life sciences industry.
COVID-19パンデミックは医療格差を明らかにし、特に黒人が白人よりも高い死亡率を示していることがNIHの報告で指摘されています。アクセス制約や政策の不備、共存疾患が格差の原因とされ、AIを利用した医療アドバイスがサービスの受けにくいコミュニティにとって重要になっています。しかし、AIが誤情報を出力するリスクがあるため、公平性と信頼性を確保するための議論が必要です。
AIのガバナンスには信頼性やセキュリティ、規制問題が重要であり、正確性や監査可能性、説明可能性、公平性、データプライバシー保護が信頼獲得のために必要です。責任ある運用にはイノベーションが役立ち、信頼性と透明性が重要です。公平な結果を実現するためには、組織内で責任を持つ個人を任命し、適切な権限とリソースを与えることが求められます。信頼できるデータソースの管理、高リスクモデルの監査と説明可能性、透明性の確保、AIモデル使用の通知、メタデータの提供、合成データの明示が必要です。
医療と生命科学におけるAIのインスティテューショナルイノベーションでは、FDAのようなシステム的変化が必要です。AIが公平で公正な結果をもたらすためには、信頼性と透明性の原則を実践し、責任ある個人を任命し、ドメインの専門家がデータソースを管理することが重要です。また、AIの出力が監査可能で説明可能であること、患者へのメタデータ提供、合成データの明示が求められます。