GLOSSARY
고위험 AI 시스템
EU AI Act에서 Annex III에 따라 의도된 사용 또는 맥락상 고위험으로 분류되는 AI 시스템. 고위험 시스템에는 적합성 평가, 문서화, 감독, 시판 후 모니터링 의무가 부과된다.
EU AI Act에 따라 고위험 AI 시스템은 의도된 목적이 Annex III에 열거되어 있거나(핵심 인프라, 고용, 필수 서비스, 법 집행 등 8개 고위험 영역) 규제 대상 제품의 안전 구성요소인 시스템을 말한다. 고위험 시스템은 제9조부터 제15조까지의 요구사항을 충족해야 한다: 리스크 관리, 데이터 거버넌스, 기술 문서, 기록 보존, 투명성, 인간의 감독, 정확성·견고성·사이버보안, 그리고 시장 출시 이전의 적합성 평가.
왜 중요한가
특히 무역 분야의 AI의 경우 세관 위험평가, 국경 관리, 핵심 인프라 운영에 사용되는 시스템은 고위험에 해당할 수 있다. 이는 CE 마크가 부착된 의료기기와 동일한 규제 준수 부담을 야기한다. 일반적인 SaaS 배포보다 훨씬 무겁고, 설명가능성과 모델 리스크 관리를 처음부터 설계에 내재화해야 하는 핵심 이유다.
연관 용어
- EU AI Act
- 적합성 평가
- 인간의 감독
- Annex III