الارشيف / تكنولوجيا / البوابة العربية للأخبار التقنية

هل يمكنك منع تقنية DeepFakes من استخدام وجهك في فيديوهات مسيئة؟

تشهد تقنيات الذكاء الاصطناعي تطورًا كبيرًا كل يوم ومع هذا التطور تظهر الكثير من التحذيرات عن الجانب المظلم لهذه التقنيات ومدى خطورتها على البشر.

وها هي إحدى المخاوف التي تم التحذير منها قد بدأت بالظهورمؤخرًا، حيث انتشرت مقاطع فيديو- تبدو واقعية ولكنها مزيفة- لبعض المشاهير من ممثلي هوليوود تظهرهم في مشاهد فيديو إباحية اعتمادًا على تقنيات الذكاء الاصطناعي، والتي يمكنها تبديل الوجوه بإتقان وجودة عالية، وهذا الأمر يعد من أبشع أنواع سرقة الهوية.

يتم إنشاء مقاطع الفيديو المزيفة باستخدام تقنية DeepFakes  من خلال برنامج يُسمى FakeApp، والذي يعتمد على تقنيات التعلم العميق Deep Learning في تبديل الوجوه، وهي أحدث تقنيات مجال الذكاء الاصطناعي.

منذ ظهوره لأول مرة الشهرالماضي، تمكن برنامج FakeApp من إنشاء مجتمع كبير من المستخدمين وتحقيق مئات الآلاف من التنزيلات، وقد لوحظ أن عددًا من مستخدميه قد قاموا بتحميله من أجل استخدامات مشكوك فيها.

والجدير بالذكر أن إنشاء فيديو مزيف أو تركيب الوجوه ليس شيئًا جديدًا، ولكنه في السابق كان يتطلب وجود أجهزة بمواصفات خاصة وخبراء وكثير من المال. ولكن الآن أصبح هذا متاحًا باستخدام جهاز كمبيوتر يعمل  ببطاقة رسوميات مناسبة وذاكرة وصول عشوائي ذات سعة جيدة.

ما هي قدرات وحدود تقنية DeepFakes ؟

تقنية DeepFakes ليست سحرًا وإنما هي مجرد رياضيات بحتة حيث تستخدم تطبيقات التعلم العميق مما يعني أنها تعتمد على الشبكات العصبية لأداء وظائفها. والشبكات العصبية الاصطناعية Artificial Neural Networks، هي عبارة عن تقنيات حسابية مصممة لمحاكاة الطريقة التي يؤدي بها الدماغ البشري مهام معينة.

فعندما نقوم بتغذية شبكة عصبية بعينات عديدة من نوع معين من البيانات، مثل صور شخص ما ستتعلم تلك الشبكة العصبية القيام بوظائف مثل: اكتشاف وجه ذلك الشخص في الصور ولكن  في حالة DeepFakes يمكنها استبدال وجه شخص آخر به.

ومع ذلك تعاني تقنية DeepFakes من بعض المشاكل التي تتعرض لها تطبيقات التعلم العميق: وأهم هذه المشاكل أنها تعتمد بشكل كبير جدًا على البيانات التي يتم تغذيتها بها.

لإنشاء فيديو مزيف بدقة يحتاج مستخدمي تقنية DeepFakes إلى العديد من صور وجه الشخص الموجود في الفيديو الأصلي وصور وجه الشخص الذي سيتم وضع وجهه في الفيديو النهائي على أن تكون الصور من زوايا مختلفة وبجودة عالية. هذا يعني أنه سيكون من الصعب أن يتم تزييف صور شخص ما  بشكل عشوائي لأن الأمر يتطلب جمع الآلاف من الصور لوجه هذا الشخص، وهذا يجعل من المشاهير والسياسيين والرياضيين وغيرهم من الأشخاص الذين يظهرون بانتظام على شاشات التلفزيون أو ينشرون الكثير من الصور ومقاطع الفيديو عبر الإنترنت ضحية سهلة لمستخدمي هذه التقنية.

مستقبل عمليات التزوير باستخدام تقنيات الذكاء الاصطناعي:

بعد فترة قصيرة من انتشار برنامج FakeApp، ظهرت الكثير من الأفلام الإباحية المزورة التي تضم مشاهير ونجوم سينمائيين وسياسيين بسبب وفرة الصور ومقاطع الفيديو المتاحة لهم عبر الإنترنت. وأحدثت هذه المقاطع رد فعل عنيف في وسائل الإعلام وفي المناقشات التي أجراها الخبراء والمشرعين، لتقدم لنا تصورًا للفوضى والتشويش التي سيسببها التزوير المعتمد على تقنيات الذكاء الاصطناعي في المستقبل القريب.

عندما تضع DeepFakes إلى جانب الأدوات الأخرى التي تعمل بالذكاء الاصطناعي والتي يمكنها تجميع الصوت البشري (Lyrebird and Voicery) والكتابة اليدوية ونمط المحادثة، سيكون التأثير السلبي لهذه التقنيات مرعبًا.

ويقدم لنا الفيديو المفبرك للرئيس الأمريكي السابق أوباما تصورًا عما يمكن أن يحدثه تطور تقنية DeepFakes، ولقد رأينا من قبل كيف أثرت الأخبار المزيفة Fake News سلبًا على الانتخابات الرئاسية الأمريكية في عام 2016.

فالأمر قد لا يقتصر على بعض الفيديوهات التشهيرية أو المسيئة، وإنما قد يصل لاختراق خصوصية المستخدمين بسبب صورهم المنتشرة على الإنترنت وشبكات التواصل الاجتماعي، مما يعني أن أي مقطع فيديو تراه قد لا يكون حقيقًا بل مزيفًا بواسطة DeepFakes، وهذا ينطبق أيضًا على رسائل البريد الإلكتروني أو المحادثات النصية التي قد يتم تزويرها بواسطة معالجة اللغات الطبيعية والخوارزميات التي تَعلمت تقليد أسلوب الكتابة للمرسل بدقة، كما يمكن أيضًا تزوير أي رسالة صوتية بواسطة خوارزميات الذكاء الاصطناعي. هذا يعني أنك ستفقد الثقة في كل ما تراه أو تقرأه حتى تتمكن من إثبات صحته.

إذًا كيف نواجه التزوير المعتمد على تقنيات الذكاء الاصطناعي؟

كيف يمكننا إثبات صحة مقاطع الفيديو وضمان الاستخدام الآمن لأدوات الذكاء الاصطناعي؟ يقترح بعض الخبراء أن زيادة الوعي سيكون خطوة أولى مهمة. حيث سيكون تثقيف الناس وتعريفهم بقدرات خوارزميات الذكاء الاصطناعي إجراءًا جيدًا لمنع الاستخدامات السيئة لبرامج مثل FakeApp التي لها تأثير واسع النطاق على الأقل في المدى القصير.

أما الخطوة الثانية تتمثل في التدابير القانونية، لا توجد حاليًا أي ضمانات جادة لحماية الأشخاص من التسجيلات الصوتية المزورة. ولكن فرض عقوبات صارمة على هذه الممارسات ستساهم في الحد من إنتاج ونشر (أو استضافة) مواد مزيفة وسيعمل كرادع ضد الاستخدامات السيئة للتكنولوجيا.

لكن هذه الإجراءات لن تكون فعالة إلا إذا تمكن البشر من التمييز بين الإعلام المزيف والواقعي. فبمجرد نضج التكنولوجيا سيكون من شبه المستحيل إثبات أن مقطع فيديو أو تسجيل صوتي معين قد تم تزويره بواسطة خوارزميات الذكاء الاصطناعي.

تكنولوجيا للتعامل مع التزوير باستخدام الذكاء الاصطناعي:

نحتاج أيضًا إلى اتخاذ تدابير تكنولوجية لدعم إجراءاتنا الأخلاقية والقانونية ضد تقنيات DeepFakes، وأشكال التزوير الأخرى المعتمدة على الذكاء الاصطناعي. ومن المفارقات أن أفضل وسيلة للكشف عن المواد المزيفة بالذكاء الاصطناعي هي استخدام الذكاء الاصطناعي نفسه. مثلما تتعلم خوارزميات التعلم العميق زرع وجه شخص ما على جسم شخص آخر في الفيديو، يمكن تدريبها أيضًا على اكتشاف العلامات الواضحة التي تشير إلى استخدام الذكاء الاصطناعي في معالجة هذه الصورة أو الفيديو أو الملف الصوتي.

ولكن في مرحلة ما قد يصبح التزييف حقيقيًا لدرجة أنه حتى الذكاء الاصطناعي لن يتمكن من اكتشافه، ولهذا السبب سنحتاج إلى وضع تدابير خاصة للتسجيل والتحقق من موثوقية ملفات الفيديو والصوت والنصوص.

اقترح موقع Lawfare طرح خدمة تتبع تحركات الأشخاص وأنشطتهم لإعداد فهرس بالأدلة التي يمكن استخدامها للتحقق من صحة المواد المنشورة عن هؤلاء الأشخاص.

على سبيل المثال إذا نشر شخص ما مقطع فيديو يُظهر أنك كنت في موقع معين في وقت معين أو قمت بفعل شيء مشكوك فيه فستتمكن من التحقق من ذلك بواسطة هذه الخدمة التي تستطيع تأكيد ما إذا كان هذا الفيديو حقيقيًا أو مزيفًا وذلك استنادًا إلى بياناتك المسجلة بهذه الخدمة.

ومع ذلك أشار موقع Lawfare  إلى أن تسجيل الكثير من بياناتك قد يؤدي إلى مخاطر أكبر تتعلق بالأمان والخصوصية ، خاصة إذا تم جمعها وتخزينها بواسطة شركة واحدة، فقد يؤدي ذلك إلى سرقة بياناتك كلها لتجد نفسك ضحية إختراق مثل اختراق بيانات شركة إكويفاكس Equifax إحدى الوكالات الائتمانية الأمريكية الشهيرة في العام الماضي، أو قد ينتهي  بك الأمر كضحية لقضية تسريب بيانات مشابهة لقضية “كامبريدج أناليتيكا” التي استولت على بيانات 87 مليون من مستخدمي فيسبوك لأهداف سياسية.

وهنا يبرز الحل المثالي وهو استخدام تقنية بلوك تشين Blockchain، التي تُمكنك من تخزين بياناتك عبر الإنترنت دون الحاجة إلى خوادم مركزية. فمن خلال البلوك تشين يتم نسخ كل سجل على العديد من أجهزة الكمبيوتر وربطه بزوج من مفاتيح التشفير أحدهما عام والآخر خاص، وسيكون صاحب المفتاح الخاص هو المالك الحقيقي للبيانات وليس أجهزة الكمبيوتر التي تخزنها.

في الوقت الحالي من الواضح أن تقنيات الذكاء الاصطناعي قد تصبح تهديدًا خطيرًا، لذلك يجب أن نبحث عن نهج مناسب وفعال يضمن منع الاستخدامات الضارة لتقنيات الذكاء الاصطناعي مع ترك مساحة للابتكار، وحتى ذلك الحين فإن الحياة الحقيقية هي المساحة الوحيدة التي يمكنك الوثوق بها حقًا، بعيدًا عن الإنترنت وشبكات التواصل الاجتماعي.

اشترك فى النشرة البريدية لتحصل على اهم الاخبار بمجرد نشرها

تابعنا على مواقع التواصل الاجتماعى