人間中心のAI開発において、透明性は責任あるAIの根幹をなし、利害関係者がAIの能力と限界を理解するために不可欠です。AIの影響を理解するためには、データとモデルの構造に関する透明性が求められます。AIによる損害を特定し軽減するためには、人間とAIの協力に基づくフレームワークや自動化ツールが用いられ、監査を促進するツールも開発されています。AIの損害を減らすためには、モデルの出力に潜むリスクを特定し、測定することが重要であり、そのためには測定の妥当性を確保することが必要です。UXデザインは、ユーザーエクスペリエンスを向上させるためにモデルの動作を理解する透明性を必要とし、責任あるAIにおいて重要な役割を担います。最終的に、透明性はAIシステムの信頼性を確保し、人間とAIの協力を深めるために、そしてAIが日常生活において重要な役割を果たすにつれて、ますます重要になっています。
from Advancing transparency: Updates on responsible AI research.