آخر الأخبار

تجنب الاحتيال الصوتي بالذكاء الاصطناعي

حذّر خبير الأمن السيبراني ومكافحة الجرائم الإلكترونية، الدكتور محمد محسن رمضان، من أساليب احتيال جديدة تعتمد على تقنيات الذكاء الاصطناعي، أبرزها “استنساخ الصوت” لتقليد صوت مدير العمل أو مسؤول كبير، ما قد يدفع الضحية إلى تنفيذ أوامر وهمية دون التحقق من مصدرها.

وأوضح الخبير المصري، في تصريحاته ، أن المحتالين باتوا يستخدمون الذكاء الاصطناعي لتقليد الأصوات، وانتحال هوية المتصلين باستخدام أرقام هاتف مألوفة، مثل أرقام شركات اتصالات محلية أو جهات حكومية أو حتى أقارب الضحية، ما يزيد من صعوبة كشف الخدعة.

وأضاف أن عمليات الاحتيال تطورت لتشمل استهداف الأفراد عبر المكالمات الهاتفية، ومواقع التواصل الاجتماعي، وسجلات البيانات المسربة، وتوظيف تلك المعلومات في تصميم محاولات احتيالية مخصصة بدقة لكل ضحية، بناءً على تاريخه الطبي أو سفره أو تعاملاته البنكية.

وكشف الدكتور محسن رمضان عن أربع وسائل فعّالة للحماية من هذا النوع من الاحتيال:

  1. الذكاء الاصطناعي ضد الذكاء الاصطناعي: تستخدم شركات الاتصالات تقنيات متقدمة لتحليل أنماط المكالمات واكتشاف الأصوات المُزيفة الناتجة عن التزييف العميق.
  2. أنظمة تصفية المكالمات الاحتيالية: مثل خدمات Call Protect وScam Shield وCall Filter، والتي تساهم في حظر المكالمات المشبوهة قبل وصولها للمستخدم.
  3. تقنية STIR/SHAKEN: وهي نظام تشفير يُستخدم في الولايات المتحدة للتحقق من شرعية هوية المتصل ومنع انتحال الأرقام.
  4. القياسات الحيوية الصوتية (Voice Biometrics): تقنية تعتمد على أكثر من ألف خاصية صوتية لتحديد هوية المتصل بدقة، وتُستخدم من قبل بعض البنوك وشركات الاتصالات كخط دفاع أخير ضد الأصوات المُزيفة.

ودعا الخبير إلى توعية الأفراد بضرورة التحقق من أي مكالمات تطلب معلومات شخصية أو تحويلات مالية، وعدم الوثوق الكامل بالصوت وحده مهما بدا مألوفاً.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى