دراسة تكشف ما يغذي تصاعد عمليات الاحتيال الصوتي عبر الإنترنت
آخر تحديث GMT 23:11:46
المغرب اليوم -

دراسة تكشف ما يغذي تصاعد عمليات الاحتيال الصوتي عبر الإنترنت

المغرب اليوم -

المغرب اليوم - دراسة تكشف ما يغذي تصاعد عمليات الاحتيال الصوتي عبر الإنترنت

الإنترنت
لندن - المغرب اليوم

حذر خبراء من أن تقنية الذكاء الاصطناعي تغذي انفجارا في عمليات احتيال باستنساخ الصوت.

ويمكن للمحتالين الآن تقليد صوت الضحية باستخدام مقتطف صوتي مدته ثلاث ثوان فقط، وغالبا ما يتم سرقته من ملفات تعريف الوسائط الاجتماعية.

ثم يتم استخدامه للاتصال بصديق أو أحد أفراد الأسرة لإقناعهم بأنهم في مأزق وبحاجة ماسة إلى المال.

ويقول واحد من كل أربعة بريطانيين إنه أو شخصا يعرفه قد استُهدف بعملية الاحتيال هذه، وفقا للمتخصصين في الأمن السيبراني McAfee.

ومن المقبول تصديق أن غالبية المتضررين اعترفوا بأنهم فقدوا أموالا نتيجة لذلك، مع تكبد حوالي ثلث الضحايا أكثر من 1000 جنيه إسترليني.

وقال تقرير صادر عن الشركة إن الذكاء الاصطناعي قد "غير اللعبة بالفعل لمجرمي الإنترنت''، مع توفر الأدوات اللازمة لتنفيذ عملية الاحتيال مجانا عبر الإنترنت.

ويقود الخبراء والأكاديميون والرؤساء من جميع أنحاء صناعة التكنولوجيا الدعوات لتشديد التنظيم على الذكاء الاصطناعي لأنهم يخشون أن يخرج القطاع عن السيطرة.

وقال تقرير McAfee عن "الدجال الاصطناعي" إن استنساخ صوت شخص ما أصبح "أداة قوية في ترسانة مجرمي الإنترنت'' - وليس من الصعب العثور على الضحايا.

ووجدت دراسة استقصائية أجريت على أكثر من 1000 بالغ في المملكة المتحدة أن نصفهم شاركوا بياناتهم الصوتية عبر الإنترنت مرة واحدة على الأقل في الأسبوع على وسائل التواصل الاجتماعي أو الملاحظات الصوتية.

وكشف التحقيق عن أكثر من اثنتي عشرة أداة لاستنساخ الصوت بالذكاء الاصطناعي متاحة علنا على الإنترنت، والعديد منها مجاني ولا تحتاج إلا إلى مستوى أساسي من الخبرة لاستخدامها.

وفي إحدى الحالات، كانت ثلاث ثوان فقط من الصوت كافية لإنتاج تطابق بنسبة 85%، بينما لم تواجه مشكلة في تكرار اللهجات من جميع أنحاء العالم.

ومع صوت الجميع المعادل المنطوق لبصمة الإصبع الحيوية، اعترف 65% من المستجيبين بأنهم غير واثقين من قدرتهم على تحديد النسخة المستنسخة من الشيء الحقيقي.

وقال أكثر من ثلاثة من كل 10 إنهم سيردون على بريد صوتي أو رسالة صوتية يزعم أنها من صديق أو شخص عزيز في حاجة إلى المال - لا سيما إذا اعتقدوا أنها من شريك أو طفل أو أحد الوالدين. والرسائل التي من المرجح أن تستدعي الرد هي تلك التي تدعي أن المرسل قد تورط في حادث سيارة أو تعرض للسرقة أو فقد هاتفه أو محفظته أو احتاج إلى المساعدة أثناء السفر إلى الخارج.

وقال واحد من كل 12 شخصا إنهم استُهدفوا شخصيا من خلال نوع من الاحتيال الصوتي بالذكاء الاصطناعي، وقال 16% آخر إنه حدث لشخص يعرفونه.

ويمكن أن تكون تكلفة الوقوع في عملية احتيال الصوت بالذكاء الاصطناعي كبيرة، حيث يعترف 78% من الأشخاص بأنهم فقدوا أموالا لهم. 

قد يهمك ايضاً

سناب شات تُطلق خاصية محادثة الذكاء الاصطناعي لجميع المستخدمين خلال أسابيع

رئيس شركة غوغل يُحذر من مخاطر الذكاء الاصطناعي المحتملة

almaghribtoday
almaghribtoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

دراسة تكشف ما يغذي تصاعد عمليات الاحتيال الصوتي عبر الإنترنت دراسة تكشف ما يغذي تصاعد عمليات الاحتيال الصوتي عبر الإنترنت



اللون الأسود سيطر على إطلالات ياسمين صبري في عام 2024

القاهرة - المغرب اليوم

GMT 03:07 2025 الثلاثاء ,07 كانون الثاني / يناير

الولايات المتحدة تسجل أول وفاة بشرية بسبب إنفلونزا الطيور
المغرب اليوم - الولايات المتحدة تسجل أول وفاة بشرية بسبب إنفلونزا الطيور

GMT 07:09 2018 الإثنين ,29 كانون الثاني / يناير

مستحضرات تجميل تساعدك في تكبير شفتيك خلال دقائق

GMT 03:29 2019 الخميس ,21 تشرين الثاني / نوفمبر

ديكورات ثلاجات يُمكن أن تستوحي منها إطلالة مطبخك

GMT 01:08 2018 الأربعاء ,17 تشرين الأول / أكتوبر

عطيات الصادق توضح كيفية التعامل مع أهل الزوج

GMT 00:10 2018 الخميس ,11 تشرين الأول / أكتوبر

التشكيلي رشيد بنعبد الله يحتفي بالفرس في معرض فردي

GMT 07:30 2018 الإثنين ,03 أيلول / سبتمبر

مصممة تضفي لمسة جمالية على منزل قديم في إنجلترا
 
almaghribtoday

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

almaghribtoday almaghribtoday almaghribtoday almaghribtoday
almaghribtoday almaghribtoday almaghribtoday
almaghribtoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
almaghrib, Almaghrib, Almaghrib