هذه رزنامة امتحاني البيام والبكالوريا    مكسب جديد للأساتذة والمعلمين    تعيين نواب من العهدات السابقة في اللجنة الخاصة    سوناطراك: حشيشي يستقبل الأمين العام لمنتدى لدول المصدرة للغاز    عجّال يبحث سبل تعزيز التعاون مع سفير جنوب إفريقيا    تطبيق رقمي لتحديد التجّار المُداومين في العيد    الرجال على أبواب المونديال    2150 رحلة إضافية لنقل المسافرين عشية العيد    التبرع بالدم.. سمة جزائرية في رمضان    الحماية المدنية تدعو إلى الحيطة    فرنسا.. العدوانية    هذا موعد ترقّب هلال العيد    الجيش الوطني الشعبي: القضاء على إرهابيين و خمسة آخرون يسلمون أنفسهم خلال أسبوع    صحة : السيد سايحي يترأس اجتماعا لضمان استمرارية الخدمات الصحية خلال أيام عيد الفطر    معركة جبل بشار... حدث هام يحمل دلالات تاريخية كبيرة    الجزائر توقع اتفاقيات بقيمة مليار دولار خلال معرض الصناعات الغذائية بلندن    تساقط الثلوج على مرتفعات وسط وشرق البلاد ابتداء من مساء السبت المقبل    قطاع الصحة يتعزز بأزيد من 6000 سرير خلال السداسي الأول من السنة الجارية    إحياء ليلة القدر: تكريم المتفوقين في مختلف المسابقات الدينية بجنوب البلاد    الرئيس الصحراوي يدعو الى التعبئة من أجل فضح السياسات القمعية للاحتلال المغربي بحق السجناء السياسيين    الجزائر تشارك في الطبعة ال 12 من الصالون الدولي للسياحة بكرواتيا    بلمهدي يستقبل المتوجين في المسابقة الوطنية لحفظ القرآن والمسابقة التشجيعية لصغار الحفظة    كأس الجزائر (الدور ربع النهائي): اتحاد الحراش أول المتأهلين إلى نصف النهائي    فلسطين: الكيان الصهيوني يواصل عدوانه على طولكرم ومخيمها لليوم ال60 على التوالي    قسنطينة/ مكافحة السكن الهش : توزيع مفاتيح 1226 وحدة سكنية    المرصد الأورومتوسطي: استشهاد أكثر من 103 فلسطينيا واصابة 223 اخرين يوميا منذ استئناف العدوان على غزة    اللقاء بسفير المملكة لدى الجزائر فرصة لتأكيد "ضرورة تعزيز التعاون والشراكة"    فوز المنتخب الوطني على الموزمبيق "رسالة واضحة للمشككين"    عرض فيلم زيغود يوسف    محرز فخور    صادي سعيد    حلوى "التمر المحشي" على رأس القائمة    "الطلاق" موضوع ندوة علمية    ملابس العيد.. بين بهجة الموديلات ولهيب الأسعار    الجمعية الوطنية لتربية المائيات تطالب بلقاء الوصاية    دورية تفتيشية لمكاتب صرف منحة السفر    سوريا تواجه تحديات أمنية وسياسية خطيرة    "أطباء بلا حدود" تطالب بمرور المساعدات الإنسانية لفلسطين    خط السكة العابر للصحراء.. شريان تنموي وثقل إقليمي    تشياني يصبح رئيسا لجمهورية النيجر رئيسا لدولة    الفساد يستشري في المغرب ويهدّد مفاصل الدولة    حققنا فوزا مهما لكننا لم نضمن التأهل بعد    برامج ومسلسلات ومنوعات اختفت    أغلب رواياتي كتبتها في رمضان    حساب رسمي لوزارة الدفاع الوطني على "إنستغرام"    الأرجنتين تدكّ شباك البرازيل برباعية    بيتكوفيتش: لم نتأهل بعد إلى المونديال وراض عن الأداء    رفع مستوى التنسيق لخدمة الحجّاج والمعتمرين    حج 2025: برايك يشرف على اجتماع تنسيقي مع وكالات السياحة والأسفار    عيد الفطر: ليلة ترقب هلال شوال السبت القادم    طوابع بريدية تحتفي بالزي النسوي الاحتفالي للشرق الجزائري    الجزائر تندد    استشهاد 17 فلسطينيا خلال استهداف منازل وخيام لنازحين    فرسان صغار للتنافس بمساجد قسنطينة    الدعاء في ليلة القدر    المعتمرون ملزمون بالإجراءات التنظيمية    غزة تُباد..    هؤلاء حرّم الله أجسادهم على النار    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



التكنولوجيا تنذر بحرب عالميةٌ ثالثة
نشر في أخبار اليوم يوم 26 - 12 - 2018


تحذيرات من الفبركة العميقة
**
في مقطع فيديو مصوّر يعود للعام 2017 بثته قناة CNN الأمريكية قبل ساعات يظهر الرئيس الروسي فلاديمير بوتين في اجتماع سري مع المرشح للرئاسي الأمريكي (آنذاك) دونالد ترامب.. تبدو الصورة مشوشةً نوعاً ما إلا أن صوتهما واضحٌ جداً! حوارهما يؤكد بما لا يدع مجالاً للشك أنهما يتفقان على دعم روسيا لترامب في السباق الانتخابي الأمريكي نظير تغيير رجل الأعمال السبعيني لسياسة بلاده الخارجية تجاه قضايا مختلفة بعد فوزه بالانتخابات بمساعدة الروس.
وكما يوضّح الفيديو الذي حصلت عليه CNN وبثته يتفق الرجلان على تسريب أجهزة المخابرات الروسية مقاطع فيديو حقيقية ومفبركة تُضعف من شعبية منافِسة ترامب في الانتخابات هيلاري كلينتون.
الفيديو المسرّب يتسبب في أكبر أزمة واجهتها السياسة الأمريكية منذ تأسيس الجمهورية الحزب الديمقراطي يدعو لخلع ترامب ومحاكمته بتهم التخابر والغش والتزوير. شوارع الولايات الديموقراطية تغصّ بالمتظاهرين والمحكمة الدستورية تجتمع للنظر في الأمر.
تقارير إخبارية تفيد أن قيادات الجيش الأمريكي عقدوا اجتماعاً طارئاً بدعوة من قيادات الديموقراطيين والجمهوريين في مجلس الشيوخ للنظر في مصير ترامب.
في المقابل يحشد الروس قواتهم المتاخمة لمناطق حلف شمال الأطلسي ويرفعون حالة التأهب استعداداً للأسوأ. والعالم يبدو وكأنه على شفا حرب لا تُبقي ولا تذر!
لكن مهلاً كل ما قرأتَه أعلاه لم يحدث بالفعل. ليس سوى سيناريو تخيُّلي يمكن أن تنفيذه باستخدام تقنية الفبركة العميقة للفيديوهات والمقاطع المصوّرة والتي يتوقع العلماء أن تقطع أشواطاً طويلةً في التطور وتسبب فوضى عارمة خلال عامين.
موقع Daily Star Online نشر عن ادّعاء المدافعين عن نظرية المؤامرة المتعلق بتزوير الصين هبوطها الأخير على سطح القمر باستخدام صور منشأة بالحاسوب.
وحذر أحد الخبراء من أن التغييرات التكنولوجية ستؤدي إلى نهاية العالم بسبب النهاية المروعة لمثل هذه التطبيقات الخطيرة المعتمدة على الذكاء الاصطناعي للآلة.
ما هي تقنية الفبركة العميقة للفيديوهات؟
تشكل عملية التزييف العميق _ Deep Fake (أو التزييف الاحترافي وهو مصطلح يدمج بين التعلم المتعمق deep learning والزيف وهو استخدام الذكاء الاصطناعي في عملية التزييف) تشكل حالياً مصدر قلق كبيراً للنواب الأمريكيين إذ يخشون أن تشكل مقاطع الفيديو المُعدلة باستخدام الذكاء الاصطناعي والتي تصور الناس وهم يقولون أو يفعلون ما لم يقولوه أو يفعلوه خطراً على الأمن القومي.
قضى الأستاذ المشارك في علوم الكمبيوتر بجامعة ألباني الأمريكية ليو سيوي سنوات في العمل على إنشاء برنامج صممه لاكتشاف ما يسمى فبْركة الفيديوهات وهي عبارة عن مقاطع فيديو تبدو مقنعة للغاية يتم فيها استخدام رأس شخص في فيديو آخر لجعله يبدو كما لو كان يقول ويفعل أشياء لم يفعلها في الأصل. وتعد بعض مقاطع الفيديو متطورة للغاية بحيث يمكنها محاكاة أشكال الوجه وتعابيره على غرار عملية الرَّمش.
لقد أثارت القوة المحتملة لتكنولوجيا فبركة الفيديوهات العديد من الهواجس بشأن احتمال استخدام القادة العدائيين إياها لأغراض دعائية. كما أن هناك مخاوف من إمكانية استخدام هذه التكنولوجيا لابتزاز الناس على غرار فبركة أشرطة فيديو إباحية أو المساومة بغية الحصول على تسجيلات أخرى.
فلا تتعجب إذن إن وجدت مقطع فيديو لك وأنت تقول أو تفعل أشياء لا تعرف عنها شيئاً فقد تكون ضحية لتقنية التزييف العميق الجديدة.
وعبّر سيوي في مقابلة لصحيفة Daily Star البريطانية عن مخاوفه الجديّة بخصوص التقنية المرعبة.
إنه تطبيق أو برنامج.. لكنه خطير للغاية
لقد شهدت تكنولوجيا فبركة الفيديوهات بالإضافة إلى تطبيقات على غرار FakeApp تطوراً كبيراً حيث باتت هذه التكنولوجيا تسمح لأي شخص لديه إمكانية الاتصال بالإنترنت بارتكاب عمليات احتيال من السهل تصديقها.
فبعض مقاطع الفيديو الحقيقية التي نشرتَها على حساباتك بالشبكات الاجتماعية قد تكون كافية لعمل نسخة أو نموذج لك يبدو حقيقياً ويورّطك في كلام وأفعال لا تعرف عنها شيئاً!
نقطة تحوّل هائلة ومخيفة!
أصبح من الصعب حتى بالنسبة للخبراء أنفسهم على غرار د. ليو التعرف على مقاطع الفيديو المزيفة.
وقد شرح د. ليو السبب الذي يجعله يؤمن بأننا نقترب من نقطة تحوُّل في هذا المجال حيث لن يتمكن أي شخص بعد الآن من تصديق أي فيديو يشاهده على الإنترنت.
وقد طوّرت جامعة ستانفورد تقنية وجهاً لوجه القادرة على تركيب تعابير وجه شخص لآخر مباشرة عبر الكاميرا فيما يشبه البث المباشر لشخص آخر ونجح باحثون بجامعة ألاباما في تصنيع الأصوات بتغيير نبرة صوت المتكلم واستبداله بشخص آخر مباشرةً مثل هذا المقطع.
وسيبدو الأمر حقيقياً جداً
وفي هذا الصدد قال ليو إن مُعِدّ مقاطع الفيديو المزوَّرة الذي يتمتع بمهارة عالية في عمله يمكنه إعداد فيديو مزيف يبدو كأنه حقيقي للغاية بمساعدة هذه الأدوات التي تعتمد على الذكاء الاصطناعي .
ويتابع قائلاً تستمر التكنولوجيا التي تهتم بتجميع مقاطع الفيديو في التطور حيث سنبْلغ مرحلة بالمستقبل القريب لنقُل من 2 إلى 4 سنوات تصبح فيها مقاطع الفيديو المزيفة أكثر واقعية ويمكن أن تنطلي بسهولة على الأشخاص المبتدئين. لذلك هناك حاجة مُلحّة لاستخدام التقنيات المعتمدة في الأدلة الجنائية لمساعدة المستخدمين على التحقق من صحة هذه المقاطع .
وسيصعب علينا التحقق أكثر
وفي عصر الشبكات الاجتماعية الذي يصعب فيه التحقق من الشائعات الكثيرة المتداولة تبدو الخطورة مضاعفة خاصة أن كثيرين لا يبذلون جهداً للتحقق مما يقرأونه أو يشاهدونه على الشبكة العنكبوتية والأدهى أن التقنية الجديدة ستفاقم الأمر بشدة وتجعل من التحقق عملية أكثر تعقيداً بكثير.
و نظراً إلى ضيق الوقت الذي نقضيه كمستخدمين للهواتف المحمولة والإنترنت في التثبت من صحة معظم مقاطع الفيديو إلى جانب نقص الموارد المخصصة لذلك من المرجح للغاية أن تضللنا هذه المقاطع المزيفة يضيف ليو.
وبالعودة لقصة الانتخابات الأمريكية التخيلية فقد يستغرق الكشف عن حقيقة الفيديو المفبرك وقتاً يكفي لحدوث اضطرابات وفوضى كبيرة في الولايات المتحدة _ بل في العالم بأسره _ قبل كشف الحقيقة!
يجب توخي الحذر من الآن
ويضيف د. ليو في مقابلته مع Daily Star لم تبلغ التكنولوجيا المستخدمة في الوقت الراهن تلك المرحلة بعد .
وعندما سئل عما إذا كان ينبغي للمستخدمين في الوقت الراهن عدم الوثوق بكل فيديو يشاهدونه على الإنترنت قال أنا لا أنصح بعدم تصديق كل مقاطع الفيديو الموجودة لكن يجب توخّي الحيطة اللازمة كما يجب ألا نعتبر مصداقية هذه المقاطع من المسلّمات مثلاً هنا مقاطع مفبركة بالذكاء الاصطناعي لقادة عالميين مثل أوباما ومريكل .
وأشار الدكتور ليو إلى أن هذه التكنولوجيا لم تكن مصمَّمة في البداية لغايات سيئة حيث تم إنشاؤها لإظهار قدرة خوارزميات الذكاء الاصطناعي على فهم هياكل الصور المعقدة. ن المؤسف أن يتم استعمالها وإساءة استخدامها من قِبل منفذي مقاطع الفيديو المزورة لأغراض خبيثة .
فيسبوك يصارع لكشف التزييف بشكل آلي
تبدو فيسبوك في سباق مع الزمن لجعل عملية التعرف على المعلومات المضللة في الصور والفيديوهات أوتوماتيكية فمنصة التواصل الاجتماعي قد تكون بيئة خصبة وخطيرة لهذه المقاطع المزيفة
وأعلنت فيسبوك حين سُئلت رئيسة العمليات بالشركة شيريل ساندبيرغ عن كيفية تحذير الشركة المستخدمين بشأن مقاطع الفيديو عميقة التزييف أنها تتوسع بالوقت الراهن في عملية مراجعتها المقالات بالتعاون مع شركائها العاملين وفي فحص صحة البيانات لتشمل كلاً من الصور ومقاطع الفيديو.
تعاون لجعل عملية فحص الفيديوهات فعالة
سيتمكن شركاء فيسبوك ال 27 العاملون في فحص صحة البيانات والموزعون في 17 دولة من المشاركة في عملية المراجعة. وتشمل قائمة المتعاونين مع فيسبوك في فحص صحة البيانات بالولايات المتحدة وكالة أسوشييتد برس ومنظمات factcheck.org وPolitifact وSnopes ومجلة The Weekly Standard المحافظة.
وقد صرحت فيسبوك أنها أسست نموذجاً للتعلم الآلي يكشف عن الصور ومقاطع الفيديو التي يُحتمل أن تكون مزيفة ومن ثم يرسلها إلى شركاء فيسبوك المتخصصين في فحص صحة البيانات لمراجعتها. يمكن أن يفحص شركاء صحة البيانات المستقلون استخدام تقنيات التحقق المرئي ومن ضمنها البحث باستخدام الصور (بحث الصور العكسي) والتحليل التَّلوي للصور لمراجعة المحتوى.
وقالت مديرة المنتج بفيسبوك أنطونيا وودفورد بإمكان العاملين في فحص صحة البيانات التحقق من صحة أو زيف الصور أو مقاطع الفيديو من خلال الجمع بين هذه المهارات والممارسات الصحافية الأخرى مثل الاستعانة بأبحاث الخبراء أو الأكاديميين أو الوكالات الحكومية .
وقالت تيسا ليونز من إدارة فيسبوك إن منصتهم جيدة جداً في العثور على نسخ طبق الأصل من الصور ولكن عندما تخضع الصور لقليل من التلاعب أو التعديل يُصبح كشفها آلياً أكثر صعوبة.
وأضافت ليونز: نحن بحاجة إلى مواصلة الاستثمار في التكنولوجيا التي ستساعدنا على تحديد النسخ المتشابهة التي خضعت لعمليات تغيير طفيفة .
الأمر لا يزال مقلقاً!
تعتزم فيسبوك استخدام مجموعة تقييمات مراجعيها للصور ومقاطع الفيديو لتطوير دقة نموذج التعلم الآلي في التعرف على المعلومات المزيفة بهذا النوع من الوسائط (أي الفيديوهات والصور).
يمكن التعرف على 3 أنواع من البيانات المزيفة في الصور ومقاطع الفيديو وهي المحتوى المفبرك أو المُتلاعَب به والمحتوى المقدَّم خارج السياق والادعاءات الكاذبة في النصوص والمقاطع الصوتية.
تطرح شركة فيسبوك نظرة عامة رفيعة المستوى لصعوبات التعرف على المعلومات المزيفة في محتوى الفيديو والصور مقارنةً بالمحتوى النصي وبعض التقنيات التي تستخدمها الشركة للتغلب على تلك الصعوبات. لكن إجمالاً يبدو أن شركة فيسبوك لم تقترب بعدُ حتى من امتلاك نظام آلي لكشف التزييف في مقاطع الفيديو والصور على نطاق واسع.
الصحافة ستكون مهمة للغاية
أضف إلى ذلك أن تأثير التزييف بالنسبة لمحتوى الصور ومقاطع الفيديو يختلف أيضاً باختلاف البلد. فقد اكتشفت شركة فيسبوك أن معظم المستخدمين في الولايات المتحدة يقومون بالإبلاغ عند مصادفة معلومات مضللة بالمقالات النصية في حين أنه بإندونيسيا يميل المستخدمون أكثر إلى الإبلاغ عند مصادفة تزييف في الصور.
وقالت ليونز: في البلدان التي بها بيئة إعلامية أقل تطوراً أو بها معدلات أمية مرتفعة يرتفع احتمال مشاهدة الناس الأخبار الكاذبة عن طريق الصور أو مشاهدة صور مزيفة ومن ثم ترجمتها إلى أخبار في حين أنه بالبلدان التي بها بيئة إخبارية متينة يرتبط مفهوم الأخبار أكثر بالمقالات .
وهذه بشرى للصحافيين الذين تراجعت أهمية عملهم مع توسُّع شبكات التواصل الاجتماعي وعزوف القراء عن الصحف واستبدالها بمصادر معلومات وأخبار أخرى قد تكون أقل مصداقية.


انقر هنا لقراءة الخبر من مصدره.