نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
مكالمة واحدة تكفي.. الذكاء الاصطناعي يفتح عصرًا جديدًا من الاحتيال الصوتي - المصدر 7, اليوم الاثنين 10 نوفمبر 2025 10:46 مساءً
المصدر 7 - حتى وقت قريب، كان تطوير نظام ذكاء اصطناعي قادر على إجراء محادثة هاتفية طبيعية مهمة معقدة تتطلب إدماج أدوات متعددة لتعرّف الصوت ومعالجة اللغة وتوليد الكلام، وكل ذلك عبر برمجيات اتصال هشة.
لكن هذا الواقع تغيّر جذريًا مع ظهور نماذج الذكاء الاصطناعي الصوتية التي تعمل بنحو فوري في الزمن الحقيقي، مثل واجهة RealTime API من شركة OpenAI، التي أُطلقت العام الماضي، لتجعل بناء نظام متكامل للمحادثة الصوتية ممكنًا خلال دقائق معدودة.
وبفضل الأكواد المتاحة علنًا، يمكن الآن ربط هذه النماذج بخط هاتف مباشر، حتى “يستمع” الذكاء الاصطناعي ويحلّل ويستجيب فورًا بصوت اصطناعي قادر على التفاعل بطلاقة والتصرّف بعفوية تحاكي البشر بنحو لافت.
لكن هذا التقدّم التقني فتح الباب أمام شكل جديد من الاحتيال، وهو الاحتيال الصوتي المدعوم بالذكاء الاصطناعي “AI-enabled voice phishing” أو ما يُعرف بـ “vishing”.
وشهد العام الماضي حادثة بارزة خُدعت فيها شركة التكنولوجيا البريطانية Arup وسُرق منها 25 مليون دولار باستخدام تقنية “التزييف العميق للصوت”، كما تعرّضت شركة Cisco لهجوم مشابه مكّن المهاجمين من استخراج بيانات من نظام إدارة علاقات العملاء السحابي.
لقد ألغت النماذج الصوتية آخر الحواجز التقنية أمام الاحتيال الصوتي الفوري، وأصبح إنشاء نظام يقلّد موظفًا في قسم الموارد البشرية أو موظف احتيال مصرفي لا يتطلب سوى بضعة أسطر من التعليمات. ويتميّز هذا النوع من الأنظمة بقدرته على التفكير والتكيّف مع المحادثة في الزمن الحقيقي، مما يجعله أكثر إقناعًا وخطورة.
ومع أن التقنية نفسها تمتلك استخدامات مشروعة في مجالات مثل الرعاية الصحية وخدمة العملاء والتعليم اللغوي، فإن سهولة الوصول إليها جعلت استغلالها أمرًا في متناول الجميع؛ إذ يمكن لبرنامج واحد نظريًا تنفيذ مئات آلاف المكالمات الاحتيالية يوميًا، كلٌّ منها مخصص للضحية المستهدفة.
ويزيد خطورة هذا الاتجاه انتشار منصّات مثل ElevenLabs و Cartesia التي تمكّن استنساخ الأصوات بدقة عالية من خلال عينات صوتية قصيرة. وفي حالة الشخصيات العامة، يصبح جمع ساعات من التسجيلات الصوتية أمرًا سهلًا، مما يسمح بتوليد نسخة واقعية من صوتهم دون علمهم، وهو ما حذّر منه مكتب التحقيقات الفيدرالي الأمريكي (FBI) بعد أن رُصدت بالفعل هجمات استخدمت أصوات مسؤولين حكوميين مزيفة.
ومع هذا التصاعد، أصبحت أنظمة التحقق الصوتي التي تعتمد على بصمة المتحدث مصدر خطر أكثر من كونها وسيلة أمان، إذ بات من الضروري اعتماد أساليب تحقق متعددة العوامل، خاصة في العمليات الحساسة والمعاملات المالية الكبرى.
وفيما يتعلق بالمستخدمين العاديين، فالدرس واضح: الصوت على الطرف الآخر من الخط لم يعد دليلًا على هوية المتحدث. وكما تعلم العالم الحذر من الرسائل الإلكترونية المشبوهة، يجب أن يتعلم اليوم الشك في الأصوات البشرية “المقنعة”. وقد يصبح من الضروري مستقبلًا تطوير “علامات مائية صوتية” أو “توقيعات رقمية” تضمن أصالة الكلام.
موضوعات ذات صلة: استنساخ الأصوات بالذكاء الاصطناعي.. كيف تُميز المقاطع الصوتية المزيّفة؟
نسخ الرابط تم نسخ الرابط















0 تعليق