يغزو مواقع التواصل الاجتماعي كم هائل من الفيديوهات المعدّة بتقنية التّزييف العميق، وبين محتويات أنتجت بغرض التسلية وأخرى لغايات مجهولة، بدأ خطر التلاعب بالهويّات وتلفيق تصريحات أو أفعال غير صحيحة لشخصيات عمومية ومستخدمين عاديين للإنترنيت قد يكون للأمر تداعيات سلبية، حسب الأستاذة المساعدة بالمدرسة الوطنية العليا للذكاء الاصطناعي بسيدي عبد الله، الدكتورة حياة سعدي، التي حذرت في حديثها للنصر، من خطر استخدام «الديب الفايك»، قائلة بأن وفرة المعلومات وعدم تأمين الحسابات زاد حجم التزييف، مقدمة طرقا تساعد على التحقق من صحة الفيديو. «الديب فايك» أو التزييف العميق، تقنيات بالذكاء الاصطناعي أنشأت في الأساس من أجل أغراض إيجابية أو للتسلية بعيدا عن أدية أي كان، إلا أن البعض راح لاستغلالها مؤخرا من أجل التلاعب ونشر المعلومات المضللة بشكل سريع، اعتمادا على برامج استنساخ الأصوات والصور والتلاعب بها من أجل الاحتيال، بما جعلها تأخذ منحى خطيرا وحول العلماء للعمل على ضبط تقنية، أكدوا أن برامجها يصعب كشفها لتفوقها على أجهزة الكشف بدرجة عالية. «الديب فايك» تقنية أنشأت لمساعدة الأشخاص والترفيه وتعرف الأستاذة المساعدة بالمدرسة الوطنية العليا للذكاء الاصطناعي بسيدي عبد الله، الدكتورة حياة سعدي، في حديثها للنصر، التزييف العميق على أنه نوع من الوسائط الاصطناعية أو تقنية تعمل على خوارزميات الذكاء الاصطناعي وتقنية تعليم الآلة، بحيث تقوم على تركيب أصوات مزيفة على شخصية معينة من أجل نشر معلومات مغلوطة، موضحة أنها تقنية تحمل الكثير من المخاطر خاصة فيما يتعلق بنشر الأكاذيب وانتهاك خصوصية الأشخاص أو التغطية على الجرائم، بعد أن خرج عن الغاية الأساسية منه لإنتاج محتوى قريب من الحقيقة من أجل أهداف تتعلق بالتسلية. وتقول الأخصائية للنصر، إنه تقنية تعمل بالمولّد عبر شبكة تعمل على صناعة المحتوى المزيف وفقا لمعلومات تكتسبها أصلا من معلومات يتم تخزينها مسبقا، ليقوم بعملية المعالجة الأولى قبل انتقالها إلى المميّز الذي يمثل شبكة ثانية تقارن المحتوى المزيّف بالمحتوى الحقيقي، بما يعني أن «الديب فايك» قادر على اكتشافه، وأوضحت الدكتورة سعدي أن هذه التقنية اكتشفت سنة 2017 من خلال نشر أول فيديو كان للرئيس الأمريكي آنذاك براك أوباما، ومن هنا بدأ خطر التزييف العميق، بعد أن أنشأ بأهداف بعيدا عن التسلية كالصناعة الترفيهية كالأفلام والشخصيات التاريخية أو صناعة مشاهد حقيقية، أو الترجمة لتعديل حركة الشفاه، أو استعمالها في التعليم ببعض المدارس أو التدريبات في شكل محاكاة أو استخدامها في الطب، والرسم، والفن والإبداع وحتى ألعاب الفيديو، أين تساعد التقنية على جعل الشخصيات أكثر واقعية وغيرها من المجالات التي تساعد بها التقنية بشكل إيجابي. وفرة المعلومات وعدم تأمين الحسابات زاد حجم التزييف أما عن الجزء الأسود للتقنية، فأكدت الأستاذة الجامعية أنه يعد أمرا خطيرا ومؤديا عبر العالم، خاصة بالنسبة للشخصيات العمومية كرؤساء الدول أو المشاهير من الفنانين، في حال تلفيق تهم لهم من خلال نشر تصريحات كاذبة أو غير أخلاقية، بما يشكل جرائم تنسب لهم في حين أنهم لم يقوموا بها من الأساس، أو نشر شائعات أو معلومات خاطئة، وهذا ما أكدت أنه يوصل للتلاعب الاجتماعي والسياسي مثلا بسبب انتخابات أو حملات دعائية وغالبا ما يكون هؤلاء الأشخاص أهدافا سهلة للمتلاعبين، بما يفقد الثقة بينهم وبين الجمهور أو الشعب. واعتبرت المختصة الاعتماد على هذه الخوارزميات للتضليل مجرد تلاعب على القانون والأمن وكذا الأخلاقيات، مشيرة في ذلك إلى وصول التزييف حتى للأشخاص العاديين بعد أن طال شخصيات عمومية، محذرة من خطر استعمال ذلك خاصة في الأمور غير الأخلاقية بالنسبة للأشخاص الذين نشروا صورا كثيرة لهم، معتبرة أن التطور الهائل للتكنولوجيا و الخوارزميات جعلت الأفراد تأخروا عنها، وأن الكثيرين لا يعون حجم الخطر الناتج عنها، و تنصح بأهمية حماية الأشخاص لأنفسهم وعدم الثقة في الشبكة العنكبوتية حتى بالنسبة للمستخدمين العاديين، في انتظار التوصل إلى صيغة قانونية دولية تحمي مستخدمي الإنترنيت الذي يعد اليوم وأكثر من أي وقت مضى سلاح ذو حدين. هكذا يمكن اكتشاف «الديب فايك» وللتأكد من صحة الفيديو من عدمه، توصي الدكتورة سعدي بالتأكد من مصدره بالدرجة الأولى، مشددة على ضرورة التبليغ عن المعلومة المضللة في حال الشك فيها، و بذلك يحمي المستخدم نفسه كما يحمي المجتمع المحيط به، و بذلك يساعد على التقليل من المحتويات المزيفة، أما عن الطرق البسيطة للتفريق بين الصواب والمزيف، أكدت أن تعابير الوجه تشكل نقطة فاصلة يمكن جدا أن تكشف الحقيقة، أيضا العينين، وحواف الصورة، نبرة الصوت، كما يمكن استعمال التقنية في حد ذاتها للتمييز، بينما يبقى الحذر و الحرص في نشر المعلومات والصور الشخصية أفضل من إثبات الحقيقة بعد وقوع الخطر، حتى بالنسبة لمستخدمي الإنترنيت العاديين الذين يقعون اليوم هم أيضا تحت خطر من يعملون لنشر مثل هذه الفيديوهات.