Reevol

GLOSSARY

قانون الذكاء الاصطناعي للاتحاد الأوروبي

اللائحة (EU) 2024/1689: أول لائحة أفقية للذكاء الاصطناعي. تصنّف أنظمة الذكاء الاصطناعي حسب المخاطر: محظورة، عالية المخاطر، محدودة المخاطر، مخاطر دنيا. عمليات نشر الذكاء الاصطناعي في التجارة التي تمس الجمارك أو العقوبات تُعد على الأرجح عالية المخاطر.

دخل EU AI Act (Regulation (EU) 2024/1689) حيز النفاذ في 1 أغسطس 2024 مع تطبيق مرحلي. يصنّف أنظمة الذكاء الاصطناعي حسب طبقة المخاطر ويفرض التزامات تبعا لذلك: تُحظر الممارسات المحظورة كليا مثل التصنيف الاجتماعي؛ وتخضع الأنظمة عالية المخاطر لمتطلبات تقييم المطابقة والشفافية والإشراف البشري؛ ويجب على الأنظمة محدودة المخاطر الإفصاح عن استخدام الذكاء الاصطناعي.

لماذا يهم

بالنسبة لمشغلي التجارة، يمكن أن يقع استخدام الذكاء الاصطناعي في تقييم مخاطر الجمارك، أو فحص العقوبات، أو البنية التحتية الحرجة ضمن فئة المخاطر العالية (Annex III)، مما يستتبع التزامات على غرار وضع علامة CE. يبدأ إنفاذ المتطلبات على الأنظمة عالية المخاطر اعتبارا من 2 أغسطس 2026. هذا هو أفق التخطيط لأي خارطة طريق للذكاء الاصطناعي في التجارة لعامي 2025/2026.

مصطلحات ذات صلة

  • نظام ذكاء اصطناعي عالي المخاطر
  • إشراف بشري
  • إدارة مخاطر النماذج
  • قابلية التفسير

للقراءة الإضافية