GLOSSARY
可解釋性
以人類可稽核的方式闡明 AI 系統為何產生特定輸出的能力。對受監管的貿易決策而言,可解釋性是區分可辯護的決策與可能招致罰款的決策的關鍵。
在 AI 中,「可解釋性」指的是能夠忠實且可理解地說明模型為何產生其輸出之屬性。對貿易實務人員而言,「忠實」意指解釋實際對應到模型的決策過程,而非事後的合理化;「可理解」則是讓海關稽核人員也能看懂,而不僅是資料科學家。
EU AI Act、BIS 對模型風險的監理期待,以及 GDPR 第 22 條在要求上收斂一致:當 AI 系統做出具法律效力的決策——例如清除制裁名單比對、歸類 HS code、拒絕信用額度——你必須能解釋其決策過程。缺乏可解釋性,就缺乏防禦基礎。
- 模型風險管理
- 稽核軌跡
- 高風險 AI 系統
- 人在迴路