الخبر المصطنع.. التهديد الأكبر للمصداقية!

الخبر المصطنع.. التهديد الأكبر للمصداقية!
تقنية | 19 فبراير 2020

تنتشر حالياً وبكثرة مقاطع الفيديو المزيفة التي تنتجها خوارزميات الذكاء الصنعي وتصبح أكثر إقناعاً يوماً بعد يوم. تعرف معنا على ماهية ذاك المحتوى المزيف ولماذا يعتبر تهديداً حقيقياً للمصداقية وللإعلام الحر.

 

الزيف العميق، إنه الشكل الحديث والعصري لمفهوم تعديل المحتوى لإنتاج مقاطع فيديو تدور حول أحداث لم تقع أبداً ومزيفة بشكل كامل. يستخدم الزيف العميق شكلاً متطوراً من أشكال الذكاء الصنعي يسمى التعلم العميق وذلك لصنع مشاهد الأحداث المختلقة وغير الحقيقية، ومن هنا جاء الاسم المستحدث "الزيف العميق".

هل تود جعل أحد السياسيين يتفوه بالكلمات التي تريد، أو أن تقول نجمة هوليوود المفضلة لديك الجمل التي تود سماعها وبصوتها؟ إننا في عصر يمكّنك فيه التقدم التكنولوجي من لعب هذه اللعبة المدمرة والخطيرة للغاية.

لا يتعلق الأمر فقط بمقاطع الفيديو بل يمكن أن تنشئ تقنية الزيف العميق صوراً خيالية وأحداث وهمية مقنعة للغاية وكل ذلك انطلاقاً من بعض المحتوى العشوائي وبعض التفاصيل التي قد تبدو مهملة. يمكن أيضاً للصوت أن يكون هدفاً لهذه التقنية الحديثة. فقد أصبح من الشائع إنشاء ملفات تعريف صوتية أو نسخ صوتية للشخصيات العامة والمؤثرة، لتوظيفها لاحقاً في إحداث الاضطرابات وأمواج القلقلة المجتمعية. فيمكن مثلاً لإرسال تسجيلات صوتية مزيفة بالكامل أن يتسبب بالكثير من العصف في قطاعي الأعمال والتجارة وفي العديد من قطاعات الخدمات الاجتماعية أيضاً.

كيف يُصنع الزيف العميق؟

 

للباحثين الأكاديميين والعاملين في مجال المؤثرات الخاصة الدور الأكبر في دفع عجلة هذه الصناعة قدماً، وذلك من خلال تطوير أدوات جديدة كلياً للتلاعب بالصورة والصوت معززة بالخوارزميات المتقدمة للذكاء الصنعي.

أحد أشهر الطرق والإجرائيات لصنع الزيف العميق ما يسمى بـ "شبكة النزاع المولِّد" والتي يتم من خلالها تحريض خوارزميتي ذكاء صنعي ضد بعضهما البعض. يتم تغذية الخوارزمية الأولى والمعروفة باسم المولِّد بضجيج عشوائي لإنتاج صورة وجه معين. ثم يتم إضافة هذه الصورة المصطنعة إلى مجموعة من الصور الحقيقية للشخصية المستهدفة من عملية التزييف.

ليتم بعدها تغذية المجموع الكلي للصور كدخل للخوارزمية الثانية، المعروفة باسم المميِّز. في البداية، لن تبدو الصورة المركبة الناتجة قريبة من صورة الشخص الهدف، لكن كحال أي إجرائية تعلم آلي، كرر العملية عدد معين من المرات، مع استخلاص إشارات تغذية راجعة لتحسين أداء كل من المولد والمميز، وستبهرك النتائج حتماً.

ستنتج لك خوارزمية المولد صورة مطابقة تماماً للشخصية الهدف مع إمكانية وضع جميع التعابير والانفعالات والتحكم بجميع الأنشطة التي ستقوم بها تلك الشخصية المركبة. الآن فقط يمكنك جعل الناس ينطقون تماماً بالكلمات التي تريد وبالأسلوب الذي تود.

من يستخدم الزيف العميق!

 

في الواقع، الجميع يمكنه توظيف واستخدام الزيف العميق. من الباحثين الأكاديميين والعاملين في استوديوهات المؤثرات البصرية وصولاً إلى بعض الهواة. وتوظف بعض الحكومات أيضاً هذه التكنولوجيا كجزء من استراتيجيتها الموسعة لحربها ضمن العالم الافتراضي ضد المعارضين أو المجموعات المتطرفة أو لتحقيق اتصال بأفراد محددين ضمن نطاق الحرب على الإرهاب.

اقرأ أيضاً: الهاشتاغ.. مفتاح انتشار المحتوى

 

ما هي التكنولوجيا التي يتطلّبها إنتاج الفيديو المضلل..

 

من الصعب حقيقةً إنتاج زيف عميق احترافي باستخدام الحاسب التجاري المعياري والمتوفر لدى الجميع تقريباً. وإنما يتم إنشاء معظم مقاطع الفيديو المضللة عالية المستوى والمقنعة إلى حد كبير، باستخدام أجهزة حاسب متطورة، ذات قدرات حوسبة هائلة ومزودة ببطاقات معالجة رسومات قوية للغاية.

العديد من المنتجين أيضاً في الوقت الراهن يقومون بتسخير قوة الحوسبة السحابية لتقليل وقت المعالجة من أيام وأسابيع إلى ساعات. ولكن الأمر لا يتوقف عند توفر قدرات الحوسبة العالية بل يتطلّب الخبرة التصميمية أيضاً، ليس أقلها القدرة على إنتاج مقاطع فيديو متكاملة وخالية من وميض العيوب البصرية.

على كل حال، أصبح من المتوفر الآن على شبكة الإنترنت العديد من الأدوات المساعدة في صنع الزيف العميق. وستقوم العديد من الشركات حالياً بإعداده لك وتنفيذ جميع إجراءات الحوسبة في السحابة. لتضمن حصولك على الفيديو المضلل في أسرع وقت ممكن وضمن نطاق الزمن الحقيقي.

كيف يمكن كشفه!

 

إن مقاطع فيديو الزيف العميق الرديئة يسهل اكتشافها. فمن الممكن أن يكون تزامن حركة الشفاه سيئاً أو أن لون البشرة غير متناسق. كما يمكنك في بعض الفيديوهات المركبة ملاحظة أن وميض المجوهرات أو الأسنان يظهر بشكل سيء، بالإضافة إلى ظهور بعض تأثيرات الإضاءة الغريبة والانعكاسات غير المبررة على قزحية العين.

لكن تكمن المشكلة الحقيقية ويصبح الأمر أكثر تعقيداً مع دخول التكنولوجيا المتقدمة. فما أن يتم اكتشاف عيب معين أو خلل معين من قبل من يتصدى للزيف العميق، حتى يقوم الطرف الآخر بتدريب وتعليم خوارزميات الذكاء الصنعي لمعالجة هذا الخطأ وتجنبه في إنتاج الفيديو التالي. وهكذا وبعد حد معين يصبح من الصعب جداً الكشف عن الزيف العميق، وهنا تبرز الخطورة الحقيقية لهذه اللعبة المقيتة في طرح الإجراء والإجراء المضاد.

تعرّف معنا على المزيد: انستغرام.. والتعلم الآلي!

 

تموّل حالياً العديد من الحكومات والجامعات وشركات التكنولوجيا أبحاثاً متعددة لكشف المحتوى المزيف. وفي الوقت الراهن تدعم مايكروسوفت وفيسبوك وأمازون معاً نشاطاً دولياً يشمل فرق بحثية من جميع أنحاء العالم، يتنافسون فيما بينهم للتفوق في محاربة خوارزميات الزيف العميق.

هل سيعصف الزيف العميق الفوضى في عالمنا!

 

يمكننا وبكل تأكيد توقع أن الزيف العميق سيؤدي إلى مزيد من المضايقات والترهيب والدماء وتقويض للأمن وزعزعة للاستقرار. لكن هل سيؤدي مقطع فيديو مزيف إلى كارثة دولية كبرى؟ الوضع هنا يصبح في الواقع أكثر غموضاً وأكثر ضبابية.

يجب ألا يتسبب فيديو منتشر لزعيم عالمي يضغط على زر الأسلحة النووية بنهاية العالم. ولا أن تتسبب صور مزيفة للأقمار الصناعية تظهر قوات متجمعة على حدود بلد ما في إحداث حرب عالمية. فمن المفترض أن معظم الدول لديها أنظمة المراقبة الأمنية الموثوقة.

هل سيقوض الزيف العميق الثقة والمصداقية!

 

لا شك أن الأثر الأعمق والأشد غدراً للزيف العميق والأخبار المضللة، هو إنتاج مجتمعات خالية من الثقة. عندها لن يتمكن الناس من التمييز بين الحقيقة والباطل. وعندما تتآكل المصداقية في المجتمعات، يصبح من السهل إثارة الشكوك حول الأحداث الحقيقية.

قد لا تكون المشكلة الفعلية هي تمييز الفيديو الحقيقي من المزيف، بقدر ما أن المعضلة ستكون هي الواقع الحقيقي الذي سيصبح أكثر قابلية للإنكار وهذا منحى بحد ذاته خطير ومرعب للغاية.

ما هي الحلول؟

 

من المفارقات العجيبة أن الحل قد يكون هو الذكاء الصنعي نفسه. إذ تساعد خوارزميات التعلم الآلي بالفعل في اكتشاف مقاطع الفيديو المزيفة. لكن العديد من أنظمة الكشف الموجودة حالياً لديها نقطة ضعف، إنها تعمل بشكل فعال فقط لفيديوهات المشاهير، لأنها تتدرب على الساعات الطويلة من اللقطات المتاحة بوفرة على شبكة الإنترنت وضمن وسائل التواصل الاجتماعي. لكن لحسن الحظ، تعمل شركات التقنية الآن على تطوير أنظمة كشف أكثر تقدماً لتشمل الجميع وليس فقط المشاهير.

هناك مقاربة أخرى للكشف تعتمد على تكنولوجيا بلوكتشين وتركز على معرفة المصادر الحقيقية للفيديوهات والصور. والعمل على إنشاء سجل مقاوم للعبث لمقاطع الفيديو والصور والملفات الصوتية، بحيث يمكن دائماً التحقق من أصولها وضمان عدم التلاعب بمحتواها.


نحن نستخدم ملفات تعريف الارتباط "الكوكيز" لنمنحك أفضل تجربة مستخدم ممكنة. موافق