Reevol

GLOSSARY

نظام ذكاء اصطناعي عالي المخاطر

بموجب EU AI Act، هو نظام ذكاء اصطناعي يجعل المقصود من استخدامه أو سياقه عالي المخاطر وفق Annex III. تتحمل الأنظمة عالية المخاطر التزامات تقييم المطابقة، التوثيق، الإشراف، ورصد ما بعد التسويق.

النظام المصنّف كـ"نظام ذكاء اصطناعي عالي المخاطر" بموجب EU AI Act هو الذي يَرِد غرضه المقصود في Annex III (ثمانية مجالات عالية المخاطر تشمل البنية التحتية الحرجة، التوظيف، الخدمات الأساسية، وإنفاذ القانون) أو يكون مكوّن سلامة في منتج منظّم. يجب على الأنظمة عالية المخاطر الامتثال للمواد 9–15: إدارة المخاطر، حوكمة البيانات، الوثائق الفنية، حفظ السجلات، الشفافية، الإشراف البشري، الدقة والمتانة والأمن السيبراني، وتقييم المطابقة قبل طرحها في السوق.

لماذا يهم

بالنسبة للذكاء الاصطناعي في التجارة تحديداً، يمكن أن تُعد الأنظمة المستخدمة في تصنيف مخاطر الجمارك، وإدارة الحدود، أو عمليات البنية التحتية الحرجة عالية المخاطر. وهذا يستتبع عبء امتثال مماثلاً لجهاز طبي يحمل علامة CE، أثقل بكثير من نشر SaaS نموذجي، وهو سبب رئيسي لضرورة تضمين قابلية التفسير وإدارة مخاطر النماذج في التصميم منذ اليوم الأول.

مصطلحات ذات صلة

  • EU AI Act
  • تقييم المطابقة
  • الإشراف البشري
  • Annex III

للقراءة المتعمقة