سامي
سامي الغامدي
مستشار Fyntralink · متاح الآن
مدعوم بالذكاء الاصطناعي · Fyntralink

تقرير FBI IC3 2025: خسائر 20.9 مليار دولار واحتيال AI يهدد بنوك SAMA

كشف تقرير FBI IC3 الصادر في أبريل 2026 عن خسائر سيبرانية قياسية بلغت 20.9 مليار دولار خلال 2025، مع ظهور فئة جديدة للاحتيال بالذكاء الاصطناعي بقيمة 893 مليون دولار. ماذا يعني هذا لبنوك SAMA؟

F
FyntraLink Team

أصدر مكتب التحقيقات الفيدرالي الأمريكي (FBI) عبر مركز شكاوى الجرائم الإلكترونية IC3 تقريره السنوي 2025 في أبريل 2026، كاشفاً عن خسائر تاريخية بلغت 20.9 مليار دولار بزيادة 26% عن العام السابق. الأخطر من الرقم نفسه: ظهور فئة مستقلة جديدة للاحتيال المُمكَّن بالذكاء الاصطناعي بقيمة 893 مليون دولار و22,000 شكوى — وهو جرس إنذار مباشر لكل CISO في بنك سعودي خاضع لرقابة SAMA.

أرقام التقرير: ماذا يقول FBI IC3 2025 فعلياً؟

تجاوز إجمالي الشكاوى المسجلة لدى IC3 في 2025 حاجز المليون شكوى للمرة الأولى، مقارنة بـ859,000 شكوى في 2024. تصدّرت قائمة الخسائر فئة الاحتيال الاستثماري بأكثر من 8.6 مليار دولار، يليها الاحتيال عبر اختراق البريد المؤسسي (BEC) بـ3 مليارات دولار، ثم احتيال الدعم الفني بـ2.1 مليار دولار، فاختراقات البيانات الشخصية بـ1.3 مليار دولار. هذه الأرقام تعكس انتقالاً واضحاً من هجمات السلع البرمجية إلى عمليات احتيال هندسية اجتماعية مدعومة آلياً.

القفزة النوعية: الذكاء الاصطناعي يدخل التقرير لأول مرة

أضاف IC3 لأول مرة قسماً مخصصاً للاحتيال المُمكَّن بـAI، يغطي حالات استخدام أدوات الذكاء الاصطناعي لتزوير الوثائق، استنساخ الأصوات، وإنتاج فيديوهات Deepfake لانتحال شخصيات تنفيذيين. القيمة الإجمالية للخسائر — 893 مليون دولار — تمثل البداية فقط، لأن غالبية ضحايا الـDeepfake لا يدركون أنهم تعرضوا لاحتيال مدعوم بـAI ويصنّفون البلاغ ضمن BEC تقليدي. تقارير القطاع المالي تشير إلى أن 47% من المؤسسات المالية تعرضت لهجمات تصيّد أو Deepfake مدعومة بـAI خلال آخر 12 شهراً.

التأثير على المؤسسات المالية السعودية

التهديدات التي رصدها IC3 لا تتوقف عند الحدود الأمريكية. أنماط الاحتيال — استنساخ صوت الرئيس التنفيذي لتفويض حوالات، انتحال شخصية المُورِّد لتغيير IBAN في أمر دفع، تزوير وثائق KYC ببصمات Deepfake — تنطبق حرفياً على بيئة بنوك SAMA. يفرض إطار SAMA Cyber Security Framework Maturity Level 3 على البنوك بناء قدرات كشف الاحتيال متعدد الطبقات، فيما تُلزم ضوابط الـSAMA CSCC بتطبيق التحقق متعدد العوامل على المعاملات الحساسة. ضوابط NCA ECC-2:2024 تُضيف طبقة تتعلق بحماية البيانات البيومترية، بينما يُلزم نظام PDPL بحماية أصوات وصور الموظفين والعملاء كبيانات شخصية حساسة. أي ثغرة في عملية تأكيد الحوالات الكبيرة عبر مكالمة صوتية أصبحت اليوم ثغرة امتثالية وليست تشغيلية فقط.

التوصيات والخطوات العملية

  1. اعتماد بروتوكول "Callback Channel" منفصل: لا يُنفَّذ أي تفويض مالي بناءً على مكالمة واردة فقط، بل تتم إعادة الاتصال على رقم مُسجَّل مسبقاً في نظام HRIS وليس مذكور في الإيميل أو المكالمة.
  2. دمج كلمة سرّ شفهية (Voice Passphrase) للمعاملات فوق سقف معين، تُغيَّر دورياً وتُحفظ في خزنة كلمات السر للموظفين التنفيذيين فقط.
  3. تشغيل أدوات كشف Deepfake الصوتي في مراكز الاتصال — مثل Pindrop وReality Defender — لرصد بصمات استنساخ الصوت في الزمن الحقيقي.
  4. توسيع برامج التدريب الإلزامي لتشمل سيناريوهات Deepfake محاكاة لـCEO Fraud وVendor Impersonation، مع قياس Click Rate وReport Rate ربع سنوياً.
  5. تحديث سياسة BEC وأمر الدفع الكبير (High-Value Payment): اشتراط موافقة شخصين عبر قنوات منفصلة (إيميل + Microsoft Teams داخلي + توقيع رقمي) لأي حوالة فوق 500,000 ريال.
  6. مراجعة سياسة المُوردين: إدراج بند عقدي يلزم المُورّد بإشعار البنك خلال 24 ساعة عند أي تغيير في بيانات IBAN أو جهة الاتصال المعتمدة، مع تحقق Out-of-Band عبر مسؤول مفوض.
  7. تطوير Use Case في SOC مخصص لرصد محاولات Spear-Phishing مولدة بـAI عبر مؤشرات لغوية وسلوكية (LLM Watermarking, Stylometric Analysis).

الخلاصة

لم يعد الذكاء الاصطناعي تهديداً مستقبلياً في تقارير المحللين، بل خانة مستقلة في تقرير FBI الرسمي بقيمة 893 مليون دولار. بنوك SAMA التي بنت دفاعاتها على افتراض أن الاحتيال الصوتي والتزييف "نظري" أو "نادر" تواجه فجوة تشغيلية وامتثالية في آنٍ واحد. الانتقال إلى نموذج Zero Trust للهوية الصوتية والمرئية — وليس فقط الرقمية — هو الخطوة المُلحَّة في 2026.

هل مؤسستك مستعدة؟ تواصل مع فريق فنترالينك لتقييم مجاني لمدى النضج السيبراني وفق SAMA CSCC.