GLOSSARY
説明可能性
AIシステムが特定の出力を生成した理由を、人が監査可能な形で明確化する能力。規制対象の貿易判断において、説明可能性は、防御可能な判断と罰則対象となる判断を分ける決定的要素である。
AIにおける説明可能性とは、モデルがその出力を生成した理由を、忠実かつ理解可能な形で説明できる特性を指す。貿易実務者にとって「忠実」とは、その説明がモデルの意思決定過程に実際に対応していること、つまり事後的な合理化ではないことを意味する。「理解可能」とは、データサイエンティストだけでなく税関監査官にも理解できることを意味する。
なぜ重要か
EU AI Act、BISのモデルリスクに関する監督上の期待、GDPR Article 22は、いずれも同一の要件に収斂している: AIシステムが法的効果を伴う決定を行う場合(制裁スクリーニングのヒットをクリアする、HSコードを分類する、与信枠を却下するなど)、その結論に至った過程を説明可能でなければならない。説明できなければ、守れない。
関連用語
- モデルリスク管理
- 監査証跡
- 高リスクAIシステム
- Human-in-the-Loop