“ساعديني يا أمي”.. تزايد القلق من عمليات الاحتيال عبر استنساخ الصوت بالذكاء الاصطناعي

ذكاء اصطناعي
هناك مخاوف بشأن استخدام الذكاء الاصطناعي في التلاعب والاحتيال (رويترز)

تثير عمليات احتيال هاتفية حديثة باستخدام أدوات النسخ الصوتي، المُستندة إلى الذكاء الاصطناعي المتاحة بسهولة عبر الإنترنت، قلق السلطات الأمريكية.

ويشير الخبراء إلى أن الخطر الأبرز للذكاء الاصطناعي يتمثّل في قدرة هذه التقنية على تبديدها تقريبًا الخط الفاصل بين الحقيقة والخيال، وتزويد المجرمين بأدوات فعالة وغير مكلفة.

وانتاب امرأة قلق بعدما سمعت صوت كريمتها وهي تبكي في مكالمة هاتفية يزعم رجل فيها أنه خطف الفتاة ويطالب بفدية.

لم تكن نبرة صوت الابنة حقيقية بل مُبتكرة بواسطة تقنية الذكاء الاصطناعي في محاولة للقيام بعملية احتيال، وهي مسألة مُقلقة تبرز مع هذه التكنولوجيا التي تشهد ازدهارًا في المرحلة الراهنة.

وتسمع جينيفر ديستيفانو، وهي أم تقيم في أريزونا، عبر الهاتف صوتًا يقول “ساعديني يا أمي، أرجوكِ ساعديني”، وصدقت الوالدة أن ذلك صوت ابنتها البالغة 15 عامًا التي خرجت لممارسة التزلج.

وقالت الأم لمحطة تلفزيونية محلية “كان الصوت مطابقًا لصوت ابنتي مع طريقة بكائها نفسها”، مضيفةً “لم أشكّ لحظة في أنها قد لا تكون هي”.

وطلب المحتال الذي اتصل بالوالدة من رقم مجهول، الحصول على مليون دولار لقاء إطلاق سراح الفتاة.

وتخضع هذه الحادثة التي وصلت إلى نهايتها سريعًا بعدما تمكّنت ديستيفانو من التواصل مع ابنتها، إلى تحقيق من السلطات المختصة حاليًّا، وكان لها دور في تسليط الضوء على عمليات الاحتيال المحتملة بفعل استخدام مجرمي الإنترنت برامج الذكاء الاصطناعي.

تزييف عميق مقنع

ويؤكّد المدير التنفيذي لشركة “بلاكبيرد. أيه آي” وسيم خالد، في حديث لوكالة الصحافة الفرنسية، أن “النسخ الصوتي عبر الذكاء الاصطناعي الذي أصبح من شبه المستحيل تمييزه من الصوت البشري، يتيح للأشخاص السيّئي النية كالمحتالين الحصول على معلومات ومبالغ من الضحايا بأسلوب أكثر فعالية ممّا يعتمدون في العادة”.

وتتيح تطبيقات كثيرة مجانية ومُتاحة عبر الإنترنت بدرجة كبيرة، استنساخ الصوت الفعلي لشخص ما عبر برنامج للذكاء الاصطناعي يستند إلى تسجيل قصير لصوت هذا الشخص. ويمكن المحتال أن يحصل على تسجيلات مماثلة من محتويات منشورة من الضحية عبر الإنترنت.

ويقول خالد “من خلال تسجيل صوتي قصير، يمكن استخدام استنساخ صوتي أُنشئ استنادًا إلى الذكاء الاصطناعي، لترك رسائل ومقاطع صوتية يُزعم أنها للضحية. وقد يُستخدم الصوت المُستنسخ أيضًا كصوت مُعدَّل أثناء المكالمات الحية”.

ويضيف أن “المحتالين يستخدمون لهجات متنوّعة، ويقلدون الطريقة التي تتحدث بها الضحية”، مؤكدًا أن هذه التكنولوجيا “تتيح إنشاء عمليات تزييف عميق مقنعة”.

وأظهر استطلاع شمل نحو 7 آلاف شخص في 9 دول بينها الولايات المتحدة، أن شخصًا من كل 4 استُهدف بمحاولة احتيال صوتي عبر الذكاء الاصطناعي، أو يعرف شخصًا تعرض لعملية مماثلة.

وأشار 70% ممّن شملهم الاستطلاع إلى أنهم لم يكونوا متأكدين من قدرتهم على التمييز بين الصوت الحقيقي وذلك المستنسخ، وفق الاستطلاع الذي نشرته شركة “ماك أفي لابز” الشهر الماضي.

وحذرت السلطات الأمريكية أخيرًا من تزايد “عمليات احتيال تصل إلى الأجداد”.

وقالت لجنة التجارة الفدرالية في تحذيرها “تتلقون مكالمة يُسمَع فيها صوت حفيدكم وهو مذعور، يقول إنه في ورطة كبيرة عقب تعرضه لحادث سير واحتجازه من الشرطة، لكنّكم قادرون على مساعدته من خلال إرسال الأموال إليه”.

وفي التعليقات التي كُتبت تحت تحذير اللجنة الأمريكية، يشير عدد كبير من المسنّين إلى أنّهم خُدعوا بهذه الطريقة.

احتيال متزايد

واقتنع جدٌّ تعرض لعملية احتيال بما سمعه لدرجة أنه بدأ يجمع الأموال وفكر في رهن منزله، قبل أن يتبين أن الأمر ليس سوى احتيال صوتي.

ويقول الأستاذ في كلية المعلومات بجامعة كاليفورنيا في بيركلي هاني فريد، إن السهولة التي يتسم بها استنساخ الصوت تعني أن “كل مستخدم للإنترنت معرض للخطر”. ويشير إلى أن “عمليات الاحتيال هذه آخذة في الازدياد”.

وقد تعين على شركة “إيليفن لابس” الناشئة الاعتراف بأن أداتها الناسخة للصوت من خلال الذكاء الاصطناعي يمكن استخدامها لأهداف مسيئة، بعدما نشر عدد من مستخدمي الإنترنت مقطعًا مزيفًا للممثلة إيما واتسون وهي تقرأ مقاطع من كتاب “كفاحي” لأدولف هيتلر.

ويقول غال تال-هوشبيرغ، وهو مسؤول في شركة “تيم 8” المتخصصة في الاستثمارات التكنولوجية، “نقترب بسرعة من المرحلة التي لن يعود بإمكاننا فيها الوثوق بالمحتوى المنشور عبر الإنترنت، والتي سيتعين علينا خلالها الاستعانة بتقنيات جديدة لنتأكد من أن الشخص الذي نعتقد أننا نتحدث معه (عبر الهاتف) هو بالفعل من نتواصل معه”.

المصدر : الفرنسية

إعلان