سامي
سامي الغامدي
مستشار Fyntralink · متاح الآن
مدعوم بالذكاء الاصطناعي · Fyntralink

CVE-2026-7712: ثغرة Pickle في MindsDB تهدد منصات AI لبنوك SAMA

ثغرة جديدة في منصة MindsDB تستغل آلية Pickle لتنفيذ كود ضار عبر نماذج الذكاء الاصطناعي المخصصة. تحليل تقني وتوصيات لبنوك SAMA من فنترالينك.

F
FyntraLink Team

في الرابع من مايو 2026، كُشف عن ثغرة CVE-2026-7712 في منصة MindsDB — أحد أكثر محركات الذكاء الاصطناعي شعبية في القطاع المالي — تتيح تنفيذ كود برمجي عن بُعد عبر آلية Pickle. الثغرة لا تستهدف خادماً تقليدياً، بل تستهدف نماذج التعلّم الآلي ذاتها، وهو نمط هجوم بدأ يفرض نفسه ضمن مخاطر AI/ML التي أشار إليها البنك المركزي السعودي مؤخراً ضمن إطار CSCC.

تفاصيل الثغرة التقنية في MindsDB

الثغرة تصيب الإصدارات حتى 26.01 من MindsDB، وتحديداً في مكوّن Pickle Handler عبر استدعاء الدالة pickle.loads(). يستغل المهاجم خاصية BYOM (Bring Your Own Model) التي تسمح للمستخدمين برفع نماذج تعلّم آلي مخصصة. عند إدراج كائن خبيث يحتوي على دالة __reduce__() معدّلة في مرحلة تدريب النموذج، يُحفظ هذا الكائن داخل ملف Pickle. لاحقاً، عند استدعاء النموذج للتنبؤ، تُحمَّل البيانات تلقائياً عبر pickle.loads() فينفّذ الكود الخبيث بصلاحيات الخدمة. صُنّفت الثغرة بدرجة CVSS 6.3 لكن تأثيرها التشغيلي يفوق هذا التصنيف بكثير في البيئات المالية.

لماذا تُعدّ هجمات Pickle خطراً وجودياً على منصات AI

آلية Pickle في Python ليست تنسيق بيانات بل تنسيق كود قابل للتنفيذ. أي عملية pickle.loads() على ملف غير موثوق تكافئ تنفيذ سكربت بصلاحيات العملية. هذا يجعل سلسلة توريد نماذج التعلّم الآلي (MLflow، Hugging Face، MindsDB، PyCaret) سطح هجوم خطير تجاهلته معظم برامج DevSecOps. الأسوأ أن أدوات الفحص التقليدية مثل antivirus وSAST لا ترصد حمولات Pickle لأنها تبدو كبيانات تسلسلية عادية. حتى أداة PickleScan الشهيرة كُشفت فيها ثلاث ثغرات zero-day مؤخراً تسمح بتجاوز فحوصاتها.

التأثير على المؤسسات المالية الخاضعة لرقابة SAMA

البنوك السعودية وشركات التمويل تعتمد بشكل متزايد على منصات ML في كشف الاحتيال (Fraud Detection)، ومكافحة غسل الأموال (AML Transaction Monitoring)، والتقييم الائتماني، وKYC الآلي. استغلال CVE-2026-7712 يمكّن المهاجم من السيطرة على بيئة inference، والتلاعب بنتائج التنبؤ (مثل تمرير معاملات احتيالية)، وسرقة بيانات التدريب الحساسة، أو زرع backdoor دائم. هذا يخالف مباشرة متطلبات SAMA CSCC في المجالات: 3.3.5 (Application Security)، و3.3.10 (Cryptography)، و3.3.14 (Third-Party Cybersecurity). كما يتعارض مع متطلبات NCA ECC-2 في الضابط 2-10 المتعلق بحماية البرمجيات وسلسلة التوريد، وقد يُعدّ خرقاً لمبادئ نظام حماية البيانات الشخصية PDPL إذا تضمنت بيانات التدريب معلومات عملاء.

التوصيات والخطوات العملية للحماية

  1. التحديث الفوري إلى آخر إصدار مرقّع من MindsDB، ومراجعة جميع منصات ML أخرى (MLflow وKubeflow وSageMaker) للتأكد من عدم وجود نقاط Pickle مكشوفة.
  2. منع تحميل ملفات Pickle من مصادر غير موثوقة، واعتماد بدائل آمنة مثل ONNX أو SafeTensors لتسلسل النماذج بدلاً من Pickle.
  3. تطبيق ML-BOM (Machine Learning Bill of Materials) على كل نموذج يدخل بيئة الإنتاج، مع توقيع رقمي للنماذج وتحقق من التوقيع قبل التحميل.
  4. عزل بيئة inference في حاويات مقيدة (gVisor أو seccomp profiles) دون صلاحيات شبكة خارجية، مع تطبيق مبدأ Least Privilege على حساب الخدمة.
  5. إضافة ضوابط Threat Detection خاصة بـ AI/ML في SOC ترصد سلوكيات شاذة مثل استدعاءات نظام غير معتادة من عمليات Python داخل بيئة inference.
  6. إجراء اختبار اختراق متخصص في AI/ML (AI Red Teaming) كل ستة أشهر، يشمل سيناريوهات تسميم النموذج وحقن Pickle، وفقاً لإطار MITRE ATLAS.
  7. تضمين نماذج ML ضمن نطاق إدارة مخاطر الأطراف الثالثة (TPRM) إذا كانت مستوردة من مزودين خارجيين، وفقاً للمجال 4 من SAMA CSCC.

الخلاصة

ثغرة CVE-2026-7712 ليست مجرد خلل في منصة واحدة، بل ناقوس خطر يكشف هشاشة سلسلة توريد نماذج الذكاء الاصطناعي في القطاع المالي السعودي. مع توسع SAMA في تبني الذكاء الاصطناعي ضمن البرنامج الوطني، يجب أن يصبح أمن نماذج ML ركيزة أساسية في برنامج الأمن السيبراني، لا ملحقاً ثانوياً.

هل مؤسستك مستعدة؟ تواصل مع فريق فنترالينك لتقييم مجاني لمدى النضج السيبراني وفق SAMA CSCC، يشمل مراجعة منصات AI/ML في بيئتك.