الأمن والحمايةتقارير أمنية

الجيش الأمريكي يعمل على إيقاف تقنية DeepFakes لفبركة الفيديوهات

الجيش الأمريكي يعمل على إيقاف تقنية

DeepFakes تقنية لفبركة الفيديوهات
حذر الخبراء والباحثون في الفترة الأخيرة من نوع جديد من تقنيات الذكاء الاصطناعي

يُستخدم في تزييف مقاطع الفيديو والذي أطلق عليه اسم ديب فيكس DeepFakess

حيث أن هذا النوع من مقاطع الفيديو المزيفة يمكن أن يكون واقعيًا بما يكفي للتلاعب بالانتخابات السياسية المستقبلية.

وظهرت مؤخرًا فيديوهات مزيفة باستخدام تقنية DeepFakes لبعض من قادة العالم.

بما في ذلك الرئيس الأمريكي دونالد ترامب والرئيس الروسي فلاديمير بوتين والرئيس الأمريكي السابق باراك أوباما.. وغيرهم

وقد أثار ذلك الكثير من القلق لـ وكالة مشاريع أبحاث الدفاع المتقدمة الأمريكية

“داربا” –(Defense Advanced Research Projects Agency (DARPAلتقوم وزارة الدفاع الأمريكية بتمويل مشروع سيحاول تحديد ما إذا كان يمكن التمييز بين مقاطع الفيديو والصوت الحقيقية

ومقاطع الفيديو والصوت المزيفة عن طريق الذكاء الاصطناعي حتى لو تم الاعتماد على نظام ذكاء اصطناعي آخر.

خلال هذا الصيف ستمول وكالة مشاريع أبحاث الدفاع المتقدمة الأمريكية “داربا” مسابقة يُشارك فيها خبراء التحاليل الجنائية الرقمية الرائدين في العالم.

ليتنافسوا فيها على إنتاج صور وتسجيلات صوتية ومقاطع فيديو مزيفة باستخدام تقنيات الذكاء الاصطناعي

وسيحاولون أيضًا تطوير أدوات يمكنها التعرف على هذه المقاطع المزيَّفة وتمييزها تلقائيًا.

ووفقًا لمجلة MIT Technology Review كلفت وكالة الأبحاث الأمريكية أيضًا المتسابقين بمهمة تطوير

وسائل متقدمة جديدة من شأنها الكشف عن المحتوى المزيف والذي أصبح أقرب للحقيقي نظرًا لتطور

خوارزميات الذكاء الاصطناعي المستخدمة في إنتاجه.

ستشمل المسابقة تقنية التزييف الشهيرة DeepFakes التي تُستخدم في تزييف مقاطع الفيديو عن طريق

تثبيت وجه شخص ما على جسم شخص آخر. وقد تم استخدام هذه التقنية بالفعل في إنتاج عدد من

مقاطع الفيديو الإباحية المزيفة للمشاهير.

وأعرب خبراء وكالة الأبحاث الأمريكية DARPA عن قلقهم بشكل خاص من تقنية الذكاء الاصطناعي الجديدة

نسبيًا والمعروفة باسم شبكات التعارض التوليدية GANs التي قد تجعل من المستحيل تقريبًا التعرف بشكل

تلقائي على المواد المزيفة باستخدام الذكاء الاصطناعي. حيث يمكنها إنتاج صور مزيفة لا يمكن تفريقها عن

الحقيقة.

يقول ديفيد غونينغ مدير برنامج وكالة الأبحاث الأمريكية DARPA والمسؤول عن المشروع: “من الناحية

النظرية إذا أعطيت تقنية GAN الجديدة جميع التقنيات التي نعرفها لاكتشافها ستفعل ذلك، حتى الآن لا

نعرف ما إذا كان هناك حد  لهذه التقنية أم لا”.

تقنية GAN هي فئة من خوارزميات الذكاء الاصطناعي المستخدمة في التعلم الآلي غير الخاضع للإشراف،

والتي تعمل بنظام يتكون من شبكتين عصبيتين تتنافسان معًا، وكلتا الشبكتين مدربتان على المجموعة

نفسها من البيانات. حيث تحاول الشبكة الأولي والمعروفة باسم الممثل Actor تعلم الأنماط الإحصائية في

مجموعة البيانات المدخلة لها مثل مجموعة من الصور أو مقاطع الفيديو ثم إنتاج مقاطع تركيبية من هذه

البيانات تبدو حقيقة.

أما الشبكة الثانية والمعروفة باسم الناقد Critic فتحاول التمييز بين المقاطع الحقيقية والمزيفة حيث يُطلب

منها تحديد ما إذا كان المثال الذي تراه مشابه للصور التي سبق وتدربت عليها، أم أنها صورة زائفة أنتجتها

الشبكة الأولى.

ردود الفعل من شبكة الناقد Critic تمكن شبكة الممثل Actor من تقديم محتوى مزيف يتعذر تمييزه عن

المحتوى الحقيقي ولأن تقنية GANs مصممة لتخطي أنظمة الذكاء الاصطناعي بالفعل، فمن غير الواضح ما

إذا كان بإستطاعة أى نظام آلي الإمساك بها.

عادة ما يتضمن كشف التزوير الرقمي ثلاث خطوات. الأولى هي فحص الملف الرقمي بحثًا عن علامات

تشير إلى أنه تم ربط صورتين أو مقاطع فيديو معًا. والثانية هي فحص الإضاءة وغيرها من الخواص الفيزيائية

للصور للبحث عن وجود شيء ما خاطئ.

والثالثة هي أصعب ما يمكن فعله تلقائيًا – هو النظر في التناقضات المنطقية مثل حالة الطقس الغير

متناسبة مع التاريخ، أو الخلفية غير الصحيحة للموقع المفترض.

يقول والتر شيرير خبير التحاليل الجنائية الرقمية في جامعة نوتر دام الأمريكية والمشارك في مشروع وكالة

الأبحاث الأمريكية DARPA: “إن هذه التكنولوجيا قد قطعت شوطًا طويلاً بشكل مفاجئ منذ إطلاقها قبل

عامين، نحن بالتأكيد في سباق للحاق بها”.

يقول هاني فريد الأستاذ في كلية دارتموث المتخصص في التحاليل الجنائية الرقمية: “في حين أنه كان من

الممكن لفترة طويلة لخبير رسومات ماهر أن ينتج عمليات تزوير تبدو مقنعة، فإن الذكاء الاصطناعي سيجعل

التقنية أكثر سهولة في الوصول إليها، لقد انتقلت من الممثلين الذين ترعاهم الدولة ومن هوليود إلى أي

شخص عادي يملك جهاز حاسوب ذا إمكانيات جيدة”.

تستخدم DeepFakes تقنية تعلم آلي معروفة باسم التعلم العميق لدمج وجه جديد تلقائيًا في مقطع فيديو

آخر. عندما يتم تغذية كميات كبيرة من البيانات إلى شبكة عصبية كبيرة أو تتضمن محاكاة عميقة يمكن

للكمبيوتر أن يتعلم أداء جميع أنواع المهام المطلوبة مثل التعرف على الوجه بدقة شديدة. لكن نفس

الأسلوب يجعل التلاعب بالفيديو المزيف أسهل أيضًا.

تتيح لك تقنية DeepFakes التي تم إصدارها عبر الإنترنت لأي شخص لديه خبرة تقنية متواضعة إنتاج أعمال

جديدة، وقد قال مبتكر تقنية DeepFakes لموقع ماذربورد  التقني إن هناك إصدارًا جديدًا أكثر سهولة في

الاستخدام وهو قيد التنفيذ حاليًا.

المشكلة بطبيعة الحال تمتد إلى أبعد من تبادل الأوجه في مقاطع الفيديو حيث يقول الخبراء إنه قبل فترة

طويلة قد يكون من الصعب معرفة ما إذا تم إنشاء صورة أو مقطع فيديو أو مقطع صوتي بواسطة جهاز.

والجدير بالذكر أن جوجل طورت مؤخرًا أداة تسمى Duplex تستخدم تقنيات الذكاء الاصطناعي لتزييف مكالمة هاتفية.

يخشى أفيف أوفاديا كبير الخبراء في مركز مسؤولية الإعلام الاجتماعي في جامعة ميتشيغان من أن

تقنيات الذكاء الاصطناعي التي يتم تطويرها الآن يمكن استخدامها لإلحاق الضرر بسمعة شخص ما، أو التأثير في الانتخابات، أو ما هو أسوأ من ذلك.

كما قال أوفاديا خلال مشاركته في حدث 15 مايو الذي نظمته بلومبرج: “يوجد  بالفعل صور معدلة يتم استخدامها لإحداث عنف حقيقي في جميع أنحاء العالم النامي وهذا خطر حقيقي على المجتمع”.

إذا لم يكن بالإمكان استخدام التكنولوجيا لإكتشاف التزييف والمعلومات الخاطئة فقد يكون هناك دافع لاستخدام القانون بدلاً من ذلك لمنع الاستخدامات الضارة لتقنيات الذكاء الاصطناعي. في الواقع أقرت ماليزيا قوانين ضد الأخبار المزورة في شهر أبريل الماضي ومع ذلك يقول فريد الأستاذ في كلية دارتموث إن هذا الأمر بحد ذاته قد يكون مشكلة لأن الحقيقة هي نفسها موضوع معقد. “كيف تعرف الأخبار المزيفة؟ إنه ليس أمرًا سهلاً كما تظن.

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى
إغلاق