خبراء يؤكدون أن التزييف العميق أسهل وأخطر من برامج تحرير الصور
آخر تحديث GMT 11:11:23
المغرب اليوم -
عطل فني يجبر طائرة روسية على الهبوط اضطراريًا في مطار شرم الشيخ الدولي هيئة الطيران المدني تعلن إعادة تأهيل كاملة لمطاري حلب ودمشق لاستقبال الرحلات من كافة أنحاء العالم رهينة اسرائيلية توجه رسالة لـ نتننياهو وتُحذر من أن بقاءها على قيد الحياة مرتبط بانسحاب جيش الإحتلال الديوان الملكي السعودي يُعلن وفاة الأميرة منى الصلح والدة الأمير الوليد بن طلال بن عبدالعزيز آل سعود الإدارة الجديدة في سوريا تفرض شروطاً جديدة على دخول اللبنانيين إلى أراضيها الجيش الأميركي يبدأ بتجهيز معسكر جدي في محافظة حلب شمال سوريا الجيش الإسرائيلي يعلن تدمير حي بالكامل شمال قطاع غزة الجيش الروسي يعترض ثمانية صواريخ أميركية الصنع أطلقتها أوكرانيا وبسيطر على قرية جديدة في مقاطعة لوجانسك ارتفاع حصيلة الشهداء في قطاع غزة إلى 45,717 منذ بدء عدوان الاحتلال الإسرائيلي في السابع من أكتوبر 2023 مستشار النمسا يعلن تنحيه عن منصبه وترشيح وزير الخارجية لخلافته
أخر الأخبار

خبراء يؤكدون أن "التزييف العميق" أسهل وأخطر من برامج تحرير الصور

المغرب اليوم -

المغرب اليوم - خبراء يؤكدون أن

النجم الأمريكي توم كروز
واشنطن _ المغرب اليوم

حققت سلسلة من مقاطع الفيديو، التي تم إعدادها بتقنية التزييف العميق "دييبفيك" deepfake للنجم الأميركي توم كروز، ملايين المشاهدات على منصة "تيك توك" منتصف الأسبوع الماضي، بحسب ما ذكرته صحيفة "نيويورك بوست" New York Post.واعتبر الخبراء سلسلة المقاطع المزيفة الأخيرة أحد أكثر الأمثلة الواقعية المثيرة للقلق حتى الآن جراء الآثار السلبية لخدعة التكنولوجيا الفائقة "دييبفيك"، حيث وصف بروفيسور هاني فريد، الأستاذ بجامعة كاليفورنيا في بيركلي، مقاطع الفيديو بأنها تم إعدادها بإتقان "بشكل لا يصدق"، وهو نفس رأي خبراء آخرين أدلوا بتصريحات مماثلة لمجلة "فورشن" الأميركية. كما غردت راشيل توباك، الرئيس التنفيذي لشركة "سوشيال بروف" للأمن عبر الإنترنت، قائلة إن مقاطع الفيديو أثبتت أن الأمر وصل إلى

مرحلة من "التزييف العميق الذي لا يمكن اكتشافه" تقريبًا.وأضافت أنه "لمجرد تصور أن الشخص يمكنه تحديد الفرق بين الوسائط التركيبية والأصلية بشكل فردي، فإنه لا يعني أن الأمور على ما يرام". وقالت توباك: "ستؤثر تقنية التزييف العميق على ثقة الجمهور وتوفر غطاءً وإنكارًا معقولاً للمجرمين أو المسيئين الذين يتم ضبطهم من خلال تسجيل مقاطع فيديو أو صوت، كما أنه سيمكن أن يتم استخدامها للتلاعب بالآخرين وإذلالهم وإيذائهم" أو ابتزازهم.وشرحت توباك أن تقنية التزييف العميق يمكن استغلالها بشكل سلبي وخطير للتأثير السياسي وهو ما سيضر بالمجتمعات ككل، مناشدة شركات التكنولوجيا بسرعة الانتهاء من ابتكار تقنيات "للكشف عن الوسائط الاصطناعية أو [مقاطع الفيديو] المُتلاعب بها". وفي تقرير نشرته مجلة "سايبر سيكيورتي" Ciber Security

الأميركية، وأعدته كاليب تاونسيند، تم إبراز أن معدلات تداول مقاطع الفيديو تشهد نموًا متزايدًا مع استمرار السماح بتوزيع برامج كمبيوتر وتطبيقات إلكترونية للتزييف العميق.وحذر التقرير من أن إنشاء مقاطع الفيديو المزيفة بات من أسهل الممارسات، مثل برامج فوتوشوب لتحرير وإدخال تعديلات على الصور الفوتوغرافية، موضحًا أن السبب يرجع إلى تزييف مقاطع الفيديو يعتمد إلى حد كبير على تقنية التعلم الآلي بدلاً من مهارات التصميم اليدوي، علاوة على أن مثل هذه البرامج والتطبيقات تكون عادةً بما يجعله في متناول الكثير من المستخدمين العاديين. إن أكثر عواقب عمليات التزييف العميق خطورة هي قدرتها على جعل الجمهور العادي يتساءل عما يراه، وكلما زادت مقاطع الفيديو المزيفة قل الثقة في التمييز بين الحقيقي والمزيف.وتقول تاونسيند إن من

المؤكد أن التلاعب بالفيديو ليس بالأمر الجديد على الإطلاق. كان الناس يتلاعبون بمقاطع الفيديو لخداع الجماهير للاعتقاد بأن شيئًا ما حقيقي منذ ظهور الفيلم. ولكن أدخلت تقنية التزييف العميق مستوى جديدًا من الدقة في المعادلة. لقد أصبح من الصعب أكثر من أي وقت مضى معرفة الفرق بين مقاطع الفيديو المزيفة هذه والمقاطع الحقيقية. ولا شك في أن عدم القدرة على اكتشاف التزييف العميق سيستخدم في عدد من الأغراض الشريرة أو الإجرامية بهدف تقويض الحقيقة والعدالة ونسيج المجتمعات.في عالم اليوم الذي يمتلئ بمنصات التواصل الاجتماعي والمواقع والصفحات والتطبيقات الإلكترونية المتنوعة، يمكن يزداد احتمال وقوع الأشخاص ضحية لتضليل أو استقطاب بخاصة عندما يتم دمج مقطع فيديو مزيف إلى سلسلة من الأكاذيب أو الأخبار الوهمية.

وبالتالي، يمكن لهذا التضليل أو التلاعب التأثير على الرأي العام من خلال استهداف شخصيات سياسية بإنشاء لقطات مزيفة لهم وهم يقولون أشياء لم ترد على ألسنتهم قط، أو يرتكبون أفعالا لم يتم اقترافها من قبل. سيتم القصف والتشهير بالمشاهير والقادة وأصحاب الشركات والمرشحين للرئاسة والشخصيات الدينية وقادة الفكر والثقافة وغيرهم باستخدام تقنية التزييف العميق على مدار السنوات القادمة، في حين سيقع على عاتق المواطن العادي أن يميز بنفسه بين ما هو حقيقي أو مزيف. ومن المحتمل جدًا أن يتم الادعاء من جانب أي شخص مشهور أو غير معروف يتعرض لفضيحة عامة بقول: "لقد كنت ضحية فيديو مزيف عميق مستهدف".ويشير تقرير "سايبر سيكيورتي" إلى أن الأرقام المخزية التي تدعي أن مقطع فيديو حقيقي مزيف هو سيناريو معقول

للغاية. مع عدم وجود أي دافع أخلاقي يمنع الجهات السيئة من استغلال نقاط الضعف في قدرة الإنسان على فك تشفير المحتوى المزيف. إن مصداقية الشخصيات العامة ليست مكمن الخطر الوحيد الناجم عن التزييف العميق، ففي الواقع، يوجد مجموعة متنوعة من الطرق التي يمكن أن تتسبب بها مقاطع الفيديو المزيفة في إحداث أضرار.إن عمليات البث لمقاطع فيديو مزيفة في حالات الطوارئ وشن حملات التضليل الانتخابية والدعاية الإرهابية ليست سوى مجرد غيض من فيض من السيناريوهات التي ستزداد سوءًا مع الاستمرار في عدم تجريم استخدام تقنية التزييف العميق. وفي المرحلة الحالية، لا يزال من السهل معرفة ما إذا كان الفيديو مزيفًا بتقنية "دييبفيك". وتعتبر حركات الفم غير الطبيعية إلى حد ما والظلال غير المتناسقة أو المنطقية وعدم وجود

وميض للعين من المؤشرات الشائعة التي يتم من خلالها تبين أن مقطع الفيديو ليس حقيقيًا.ولكن يتم تطوير وتحسين تقنية التزييف مع بمرور الوقت. لذا يجب على مطوري التكنولوجيا الإسراع بإنشاء أنظمة تقفي وكشف للتزييف مثل تلك المستخدمة في مختبرات الطب الشرعي، على غرار طريقة التثبت من تزييف الصور الفوتوغرافية عبر عدد وحدات البكسل المستخدمة. كما يمكن تطوير مصنفات التعلم العميق، التي يمكنها توظيف الذكاء الاصطناعي لفحص الميزات الأولية لمقاطع الفيديو للإشارة إلى مدى أصالتها عبر العلامات المائية للفيديو البيومتري، على الرغم من أنه يبدو أن السباق سيكون طويلًا وشاقًا لأنه سيمكن أيضا تدريب برامج تعلم آلي لتخطي وتجنب مثل هذه الأدلة الجنائية. في مواجهة انعدام الثقة المثير للقلق في وسائط التواصل، والتي

ربما سيمكن التغلب عليها بشكل تقني مستقبلًا، وإلى حين أن يتم إعداد برامج مضادة لتقنيات التزييف العميق، أورد تقرير مجلة "سايبر سيكيورتي" الأميركية عددا من النصائح والخطوات التي يمكن للعامة اتباعها:1- الالتزام بمبدأ الشك الصحي للوصول إلى اليقين. ومراعاة عدم مشاركة أي محتوى أو معلومات عنه على الفور قبل التحقق من مصداقيته. 2- يعد التحقق من مصادر متعددة خطوة مهمة أيضا. ويمكن بعض التمهل والتفكر في مصدر مقطع الفيديو ولأي غرض، يكون خطوة ذكية أيضا. إن المحتوى من مصدر واحد لا يمكن التحقق منه، مثل المحتوى من مصادر متعددة، لذا يفضل أن يتم تجاهل أي مقطع من مصدر واحد.3-نشر التوعية بين المقربين وإن أمكن أن يتم تعليمهم كيفية تحديد ومعالجة مصداقية المعلومات هي أمر مهم أن يقوم به كل فرد.4-

يجب سرعة اللجوء إلى تقديم بلاغات للسلطات المحلية واستشارة محامٍ في حالة التعرض لأي حالة تزييف عميق. 5-يجب أن تستخدم الصحافة الإجراءات التكنولوجية المضادة لأغراض التدقيق والتأكد من مصداقية أي مقاطع فيديو قبل إعادة نشرها.6-يجب أن تستثمر الشركات والبرامج الحكومية في حملات التوعية ضد التزييف العميق.إن الأمر يتطلب مزيجًا من الدفاع التكنولوجي والمسؤولية والوعي البشري لمكافحة هذا الطوفان الجديد من الأخبار المزيفة، التي تهدد نسيج المجتمعات.ويجب أن يتم تعميم وتوعية المواطنين في كل مناسبة بمخاطر وسبل التصدي للتزييف العميق بالطريقة نفسها التي يتم بها التعامل مع مخاطر برامج الفدية أو خرق البيانات فيما سيعد خطوة أولى نحو مكافحة المعلومات المضللة وحماية الأسر والمجتمعات.

قد يهمك ايضا

بطل «مهمة مستحيلة» يتحصن في قاعدة عسكرية هرباً من كورونا

استقالة طاقم عمل "المهمة المستحيلة" بعد خلاف مع توم كروز

almaghribtoday
almaghribtoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

خبراء يؤكدون أن التزييف العميق أسهل وأخطر من برامج تحرير الصور خبراء يؤكدون أن التزييف العميق أسهل وأخطر من برامج تحرير الصور



اللون الأسود سيطر على إطلالات ياسمين صبري في عام 2024

القاهرة - المغرب اليوم

GMT 06:52 2025 السبت ,04 كانون الثاني / يناير

أفكار هدايا لتقديمها لعشاق الموضة
المغرب اليوم - أفكار هدايا لتقديمها لعشاق الموضة

GMT 11:58 2025 السبت ,04 كانون الثاني / يناير

وجهات سياحية مناسبة للعائلات في بداية العام الجديد
المغرب اليوم - وجهات سياحية مناسبة للعائلات في بداية العام الجديد

GMT 07:04 2025 السبت ,04 كانون الثاني / يناير

نصائح بسيطة لإختيار إضاءة غرف المنزل
المغرب اليوم - نصائح بسيطة لإختيار إضاءة غرف المنزل

GMT 01:28 2025 الأحد ,05 كانون الثاني / يناير

الجيش الإسرائيلي يعترض عن صاروخ أطلق من اليمن
المغرب اليوم - الجيش الإسرائيلي يعترض عن صاروخ أطلق من اليمن

GMT 08:37 2025 الأحد ,05 كانون الثاني / يناير

شذى حسون تكشف عن أحدث أعمالها الغنائية “قلبي اختار”
المغرب اليوم - شذى حسون تكشف عن أحدث أعمالها الغنائية “قلبي اختار”

GMT 03:11 2024 الخميس ,19 كانون الأول / ديسمبر

روما يضرب موعداً مع الميلان في ربع النهائي

GMT 19:51 2019 الأربعاء ,23 كانون الثاني / يناير

الإطاحة بخليجيين وعاهرات داخل "فيلا" مُعدّة للدعارة في مراكش

GMT 03:53 2019 الإثنين ,22 إبريل / نيسان

نجلاء بدر تُنهي تصوير 75% من مسلسل "أبوجبل"

GMT 05:39 2019 الثلاثاء ,22 كانون الثاني / يناير

الحبيب المالكي ينقلُ رسالة الملك لرئيس مدغشقر الجديد

GMT 05:34 2019 الجمعة ,18 كانون الثاني / يناير

وجهات رومانسية لقضاء شهر عسل يبقى في الذاكرة

GMT 19:09 2018 الأحد ,23 كانون الأول / ديسمبر

أياكس ينتزع فوزًا صعبًا من أوتريخت في الدوري الهولندي

GMT 11:00 2018 الخميس ,20 كانون الأول / ديسمبر

إيدي هاو يُقلّل من أهمية التقارير التي تحدثت عن ويلسون

GMT 09:56 2018 الأحد ,16 كانون الأول / ديسمبر

نصيري يؤكّد صعوبة تحويل الأندية إلى شركات

GMT 02:29 2018 الثلاثاء ,04 كانون الأول / ديسمبر

هاشم يدعم قضية تطوير المنظومة التعليمة في مصر

GMT 17:53 2018 الجمعة ,30 تشرين الثاني / نوفمبر

تعرفي على أفضل مطاعم العاصمة الأردنية "عمان"

GMT 23:05 2018 الثلاثاء ,13 تشرين الثاني / نوفمبر

الجيش الفرنسي يسخّر من ترامب بعد رفضه زيارة المقبرة التذكارية

GMT 05:40 2018 الجمعة ,09 تشرين الثاني / نوفمبر

وفاة الأميركية كيتي أونيل أسرع امرأة في العالم عن 72 عامًا

GMT 22:39 2018 الإثنين ,05 تشرين الثاني / نوفمبر

"سيدات طائرة الأهلي" يواجه الطيران الأربعاء

GMT 05:29 2018 الخميس ,01 تشرين الثاني / نوفمبر

موقف المدارس الخصوصية من التوقيت الجديد في المغرب

GMT 08:33 2018 الأربعاء ,31 تشرين الأول / أكتوبر

تعرفي علي تصاميم غرف معيشة عصرية وأنيقة إعتمديها في منزلك

GMT 11:38 2018 الثلاثاء ,23 تشرين الأول / أكتوبر

ملكة جمال المغرب العربي تستعد لكشف مجموعة من المفاجآت

GMT 21:31 2018 الإثنين ,08 تشرين الأول / أكتوبر

روايات عسكرية تكشف تفاصيل استخدام الجيش الأميركي للفياغرا
 
almaghribtoday

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

almaghribtoday almaghribtoday almaghribtoday almaghribtoday
almaghribtoday almaghribtoday almaghribtoday
almaghribtoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
almaghrib, Almaghrib, Almaghrib