Reevol

GLOSSARY

高风险AI系统

根据欧盟《人工智能法案》(EU AI Act),若AI系统的预期用途或使用情境符合Annex III所列情形,则被视为高风险。高风险系统需履行符合性评估、技术文档、监督与上市后监测等义务。

根据欧盟《人工智能法案》(EU AI Act),若AI系统的预期用途列于Annex III(八类高风险领域,例如关键基础设施、就业、基本服务与执法),或该系统作为受监管产品的安全组件,则属于高风险AI系统。高风险系统在投放市场前必须满足第9至15条的要求:风险管理、数据治理、技术文档、记录保存、透明度、人工监督、准确性/稳健性/网络安全,以及符合性评估。

为什么重要

在贸易AI场景中,用于海关风险评分、边境管理或关键基础设施运行的系统可能被认定为高风险。这将触发与加贴CE标志的医疗器械相同的合规负担,其要求远高于典型的SaaS部署,也是从第一天起就必须将可解释性模型风险管理内建于系统的关键原因。

相关术语

  • EU AI Act
  • 符合性评估
  • 人工监督
  • Annex III

延伸阅读