GLOSSARY
高風險 AI 系統
根據歐盟 AI 法案,若 AI 系統的預期用途或使用情境符合附件三所列情形,即屬高風險。高風險系統需履行合規評估、文件紀錄、監督,以及上市後監測等義務。
所謂歐盟《AI 法》下的「高風險 AI 系統」,是指其預期用途出現在附件三(八大高風險領域,包括關鍵基礎設施、就業、基本服務與執法),或屬於受管制產品的安全元件。高風險系統必須符合第 9–15 條:風險管理、資料治理、技術文件、紀錄保存、透明性、人為監督、準確性/穩健性/資安,以及在投放市場前完成合規評估。
為何重要
就貿易領域的 AI 而言,用於海關風險評分、邊境管理或關鍵基礎設施營運的系統可能屬高風險。這將引發與貼有 CE 標誌的醫療器材相同等級的合規負擔——遠重於一般 SaaS 部署,也是為何必須從第一天就把可解釋性與模型風險管理設計進去的關鍵原因。
相關術語
- EU AI Act
- Conformity Assessment
- Human Oversight
- Annex III