سامي
سامي الغامدي
مستشار Fyntralink · متاح الآن
مدعوم بالذكاء الاصطناعي · Fyntralink

هجمات التزييف العميق بالذكاء الاصطناعي: أزمة احتيال بـ 40 مليار دولار تستهدف القطاع المالي السعودي

كشفت أحدث التقارير أن خسائر الاحتيال بالذكاء الاصطناعي قد تتجاوز 40 مليار دولار بحلول 2027. هجمات التزييف العميق تتصاعد بوتيرة غير مسبوقة وتستهدف أنظمة التحقق من الهوية في البنوك السعودية.

F
FyntraLink Team

لم يعد التزييف العميق (Deepfake) مجرد تقنية ترفيهية — فقد تحوّل اليوم إلى سلاح احتيال متطور تستخدمه عصابات الجريمة الإلكترونية ضد المؤسسات المالية. تشير أحدث التقارير إلى أن خسائر الاحتيال الممكّن بالذكاء الاصطناعي قد تصل إلى 40 مليار دولار بحلول عام 2027، فيما ارتفعت هجمات التزييف العميق في قطاع التكنولوجيا المالية بنسبة 700% خلال عام واحد فقط. البنوك والمؤسسات المالية السعودية في مواجهة مباشرة مع هذا التهديد الناشئ.

كيف يعمل الاحتيال بالتزييف العميق في القطاع المالي

تعتمد هجمات التزييف العميق على نماذج الذكاء الاصطناعي التوليدي لإنشاء مقاطع صوت أو فيديو مزيفة لا يمكن تمييزها عن الأصل بالعين المجردة. تتخذ هذه الهجمات عدة أشكال في البيئة المالية: انتحال صوت المدير التنفيذي لتفويض تحويلات مالية ضخمة، والتلاعب بأنظمة التحقق من الهوية بالوجه (Face Liveness) لفتح حسابات وهمية، وإنشاء هويات اصطناعية كاملة تجمع بيانات حقيقية مسرّبة مع صور وأصوات مزيفة. وفقاً لبحث نشرته شركة Cyble، فإن "Deepfake-as-a-Service" أصبح متاحاً في المنتديات المظلمة بأسعار تبدأ من 20 دولاراً للمقطع الواحد، ما جعل هذه الأداة في متناول أي مجرم إلكتروني.

من تقليد الصوت إلى اختراق مراكز العمليات

سجّلت مؤسسات مالية عالمية عدة حوادث موثّقة خلال الأشهر الماضية. في واحدة من أبرز الحالات، تمكّن مهاجمون من انتحال صوت الرئيس التنفيذي لشركة مقاولات أوروبية خلال مكالمة هاتفية، وأقنعوا موظف المحاسبة بتحويل 35 مليون دولار إلى حسابات وهمية. أما في القطاع المصرفي تحديداً، تُشير تقارير أبريل 2026 إلى أن جماعات منظمة بدأت باستخدام عملاء الذكاء الاصطناعي (AI Agents) لتنفيذ عمليات استحواذ على الحسابات بشكل آلي، مما خفّض تكلفة هجمات التصيد الاحتيالي بنسبة تزيد على 95% وحافظ على معدلات نجاح مساوية للحملات اليدوية المعقدة.

التأثير على المؤسسات المالية الخاضعة لرقابة SAMA

تطرح هجمات التزييف العميق تحديات مباشرة على الإطار التنظيمي السعودي. إطار SAMA CSCC يُلزم المؤسسات المالية بضمان سلامة عمليات المصادقة والتحقق من الهوية، وأي اختراق لهذه الآليات يُعدّ إخفاقاً تنظيمياً صريحاً. كذلك تستوجب لوائح PDPL حماية بيانات العملاء الشخصية — وهي البيانات ذاتها التي تغذّي نماذج التزييف العميق عبر مخازن البيانات المسرّبة. أما إطار NCA ECC فيتطلب ضوابط صارمة حول إدارة الهوية والمصادقة متعددة العوامل. المؤسسة التي لا تواجه هذا التهديد بأدوات متخصصة قد تجد نفسه في خضم خرق تنظيمي كامل دون أي إنذار مسبق.

التوصيات والخطوات العملية

  1. راجع فوراً أنظمة KYC/eKYC: تحقّق من قدرة موردي التحقق البيومتري على اكتشاف هجمات Liveness الجديدة المدعومة بالذكاء الاصطناعي. اطلب شهادات ISO 30107-3 على مستوى PAD Level 2.
  2. طبّق بروتوكول التحقق خارج النطاق (Out-of-Band Verification): لأي تحويل مالي يتجاوز حداً محدداً، يجب التحقق عبر قناة ثانية مستقلة — لا تعتمد على المكالمة الهاتفية أو البريد الإلكتروني وحدهما.
  3. نشر أدوات اكتشاف التزييف العميق: دمج حلول مثل Sensity AI أو Reality Defender في سير عمل المصادقة والفيديو، خاصة في جلسات عمل مجلس الإدارة والتوثيق عن بُعد.
  4. تدريب موظفي خطوط المواجهة الأولى: أجرِ محاكاة دورية لهجمات انتحال الصوت والفيديو. 60% من الضحايا وقعوا في فخ التصيد الآلي لأنهم لم يتلقوا تدريباً كافياً على التهديدات الجديدة.
  5. راجع ضوابط SAMA CSCC المتعلقة بالهوية الرقمية: تحديداً ضوابط إدارة الهوية والوصول (IAM) والتحقق متعدد العوامل للمعاملات الحساسة.
  6. أسّس عملية اكتشاف مخاطر الطرف الثالث: التحقق من أن موردي خدمات KYC والتحقق عن بُعد يلتزمون بمتطلبات NCA ECC الخاصة بالموردين الخارجيين.

الخلاصة

التزييف العميق ليس تهديداً مستقبلياً — إنه يُستخدم الآن ضد بنوك حقيقية، وموظفين حقيقيين، وأموال حقيقية. الفارق بين مؤسسة تنجو من هذا الهجوم وأخرى تقع ضحيته يكمن في مدى جاهزيتها التقنية والتنظيمية اليوم. الجمع بين أدوات الكشف المتخصصة وبروتوكولات التحقق الصارمة والتوافق مع متطلبات SAMA وNCA هو الرد الأمثل على هذا الجيل الجديد من التهديدات.

هل مؤسستك مستعدة؟ تواصل مع فريق فنترالينك لتقييم مجاني لمدى النضج السيبراني وفق SAMA CSCC، يشمل مراجعة آليات التحقق من الهوية ومواجهة تهديدات الذكاء الاصطناعي.