بعد تحذير الإفتاء منها.. ما هي تقنية DeepFake؟

تقارير وحوارات

DeepFake
DeepFake

في الساعات الأخيرة، أكدت دار الإفتاء أنه لا يجوز شرعًا استخدام تقنية (DeepFake: التزييف العميق) لتَلْفِيق مقاطع مَرْئية أو مسموعة للأشخاص باستخدام الذكاء الاصطناعي لإظهارهم يفعلون أو يقولون شيئًا لم يفعلوه ولم يقولوه في الحقيقة؛ لأنَّ في ذلك كَذِبًا وغِشًّا وإخبارًا بخلاف الواقع، وفي الحديث: "مَنْ غَشَّنَا فَلَيْسَ مِنَّا" (رواه مسلم)، وهو نَصٌّ قاطعٌ صريحٌ في تحريم الغِشِّ بكل صوره وأشكاله. 
وتابعت: الإسلامُ إذ حثَّ على الابتكار والاختراع؛ فقد جَعَله ليس مقصودًا لذاته، بل هو وسيلة لتحقيق غَرَضٍ ما؛ لذا أحاط الإسلامُ الابتكاراتِ العلمية بسياجٍ أخلاقيٍ يقوم على أساس التقويم والإصلاح وعدم إلحاق الضرر بالنفس أو الإضرار بالغير، فمتى كان الشيء الـمُخْتَرع وسيلة لأمرٍ مشروعٍ أخذ حكم المشروعية، ومتى كان وسيلة لأمر منهيٍّ عنه أخذ حكمه أيضًا. 

واختلاق هذه المقاطع بهذه التقنية فيه قَصْدٌ الإضرار بالغير، وهو أمر منهي عنه في حديث النبي صلى الله وعليه وآله وسلم: «لَا ضَرَرَ وَلَا ضِرَارَ»، إضافة لما فيها من الترويع والتهديد لحياة الناس، والشريعة الإسلامية جعلت حفظ الحياة من مقاصدها العظيمة وضرورياتها المهمة؛ حتى بالغت في النهي عن ترويع الغير ولو بما صورته المُزْاح والترفيه.

وهو أيضًا جريمة قانونية يُعاقَب عليها وَفْق القانون رقم (175) لسنة 2018م، الخاص بمكافحة جرائم تقنية المعلومات؛ فقد جَرَّم المُشَرِّع المصري في هذا القانون نشر المعلومات المُضَلِّلة والمُنَحرِّفة، وأَوْدَع فيه مواد تتعلق بالشق الجنائي للمحتوى المعلوماتي غير المشروع.

والديب فيك هو تقنية من تقنيات الذكاء الاصطناعي، والتي تستخدم لإنتاج فيديو أو التعديل على محتواه بشكل كامل ليستعرض شيئًا لم يكن موجودًا فيه بالأصل.

وتعود تسمية هذه التقنية إلى حساب في موقع التواصل الاجتماعي ريديت Reddit وكان الحساب يحمل اسم deepfakes، واستخدام تقنيات الذكاء الاصطناعية للتعلم العميق من أجل العبث بوجوه النجوم والمشاهير وإدخال وجوههم في فيديوهات لا علاقة لهم فيها، ولذلك، فإنّ التسمية جاءت لتجمع بين تقنيات التعلم العميق والتزييف.

ويتم إنشاء فيديو الديب فيك باستخدام نظامين من أنظمة الذكاء الاصطناعي؛ هما المولد والمميز، فعندما يقوم نظام المولد بإنشاء فيديو جديد يتم إرساله لنظام المُميّز ليحدّد ما إذا كان هذا الفيديو حقيقيًا أو مزيفًا، وإذا تأكد أنه حقيقي سيقوم المولد بتعلم إنشاء فيديو قابل للتصديق أكثر وهكذا.

ويشكل هذان النظامان معًا ما يمكن تسميته شبكة الخصومة التوليفية أو GNN وتحتاج هذه التقنية إلى إمدادها بمخزون من الفيديوهات لتتعلم كيفية التعديل عليها وتحديد المنطقي من المزيف، حيث في البداية سيكون طرف المولد من التقنية ضعيف ويحتاج إلى التدريب المستمر وعندما يصل إلى درجة مقبولة من الجودة يبدأ بإرسال فيديوهاته إلى المُميّز، وكلما زاد ذكاء المولد يزداد ذكاء المُميّز، وبهذه الطريقة سوف نصل في النهاية إلى فيديو معدل بشكل كامل وقابل للتصديق للعين البشرية.