شريط الأخبار
إسرائيل ثاني أغنى دولة في الشرق الأوسط حقيبة وافد تثير الاشتباه في وسط عمّان وتستدعي استنفارًا أمنيًا البيت الأبيض: ترامب سيلتقي الشرع الاثنين هيئة فلسطينية: 2350 اعتداء استيطانيا نفذها الإسرائيليون في تشرين أول أولى الرحلات الجوية العارضة من بولندا تحط في مطار الملك حسين بالعقبة وزير: المجال الجوي الأميركي مهدد بإغلاق جزئي جراء أزمة الموازنة الخزوز: رسالة الملكة في ميونخ تجسّد الرؤية الهاشمية في تمكين الشباب وزير الداخلية: الوحدة الوطنية أهم مرتكزات الأمن الداخلي ألمانيا تؤكد استعدادها لدعم جهود التهدئة في غزة زعيم قبلي سوداني: دفعنا فدى لإطلاق نازحين اختطفهم الدعم السريع وزير الدفاع السوداني يقول إن الجيش سيواصل القتال بني مصطفى: الأردن من أبرز النماذج في القدرة على التكيّف مع الأزمات الكنيست يصوت على مشروع قانون إعدام الأسرى الفلسطينيين الأربعاء وزير الصحة: مستشفى مادبا الجديد سيحدث نقلة نوعية في الخدمات وزير الثقافة يزور الشاعر حامد المبيضين تقديراً لعطائه واطمئناناً على صحته الأرصاد الجوية: تشرين الأول يسجل يوماً مطرياً واحداً وحرارة معتدلة في اغلب المناطق الرواشدة يفتتح معرض "نافذة على تاريخنا العريق" في الكرك بيان وزارة الخارجية الأمريكية حول مناخ الاستثمار في الاردن ضبط فتاتين سرقتا 100 ألف دينار ومصوغات ذهبية في البلقاء أزمة جديدة تضرب مصر وتهدد أمنها الغذائي

د. نواف بني عطية يكتب: الخداع العميق " تحديات أمنية وإشكاليات حقيقية

د. نواف بني عطية يكتب: الخداع العميق  تحديات أمنية وإشكاليات حقيقية

القلعة نيوز:

لفهم مدى خطورة تلك التقنية ( الخداع العميق deep fake ) يجب البحث وراء تصنيفها، فهي شكل من أشكال الخداع البصري الذي يجعلنا نتوهم حدوث أمر لم يحدث، وهي تلك التكنولوجيا التي تستخدم منهجية التعلم العميق Deep learning، التي تُعتبر أحد مكونات الذكاء الاصطناعي، بهدف عمل محاكاة غير حقيقية لموقف أو شخص تبدو وكأنها حقيقية ولكنها ليست كذلك على الإطلاق. بمعنى ان أي شخص جالس وراء حاسوب سيستطيع أن يختلق أشياء من العدم، ويقدمها كما لو كانت حوادث حقيقية تماما، وهنا يكمن الكابوس الذي تُمثّله تلك التقنية: إنها تأخذ الخداع البصري من مساحة الخيال لنطاق الواقع، وتجعل من الصعب إن لم يكن من المستحيل أن نفرق بين الاثنين.

تَستخدم تقنية الخداع العميق كلًّا من التعلم الآلي والذكاء الاصطناعي لخلق أحداثٍ مزيفةٍ من خلال تغيير الفيديوهات والملفات الصوتية والصور، وخلق أصواتٍ اصطناعيةٍ وفيديوهاتٍ مُبركةٍ، انطلاقًا من شبكاتٍ عصبيةٍ تُعرف باسم (GAN – Generative Adversarial Networks) ذات القدرات الهائلة للخوارزميات المستخدمة في أنظمة الذكاء الاصطناعي، والتي تقوم بالتعلم غير المراقب (Unsupervised Learning) أو التعلم الاستنتاجي .

ان الخداع العميق موت للحقيقة، بما تتميز به من سهولة استخدام وإتاحة أمام أي شخص، أخذت هذا التزييف لمستوى آخر تماما. يقول تيم هوانغ، رئيس مبادرة هارفرد للتحكم الأخلاقي بالذكاء الاصطناعي، عن هذا "منذ زمن بعيد ونحن نستطيع أن نزيف الصور ومقاطع الفيديو. لكن في الماضي، إن أردت أن تصور الرئيس وهو يقول شيئا لم يقله في الحقيقة، كنت ستحتاج إلى فريق من المتخصصين. أما اليوم، فلن يكتفي الذكاء الاصطناعي فقط بأتمتة هذه العملية، بل سيفبرك مقاطع مزورة أفضل جودة. أضف إلى هذا كون الوصول لتلك التقنية عبر الإنترنت شيئا سهلا، وستجد نفسك تقف في وسط عاصفة من التضليل".

في الوقت الحالي، مقاطع الفيديو المزيفة الجديدة رائعة وممتعة للمشاهدة. لكن ما يكمن وراء هذه التقنية هو خطر يمكن أن يخرج عن السيطرة. فتقنية التزييف العميق تتطور إلى درجة يصعب فيها تمييز مقاطع الفيديو المزيفة عن مقاطع الفيديو الحقيقية. وقد يكون لذلك عواقب وخيمة، خاصة على الشخصيات العامة والمشاهير. قد تتعرض الوظائف والحياة للخطر، بل وتتعرض للدمار التام بسبب تقنية التزييف العميق الخبيثة. يمكن للأشخاص ذوي النوايا السيئة استخدامها لانتحال شخصيات الناس واستغلال أصدقائهم وعائلاتهم وزملائهم لمصالحهم الشخصية ، يمكنهم حتى استخدام مقاطع فيديو مزيفة لزعماء العالم لإحداث ضجة عالمية وحروب بين الدول.

وهنا يتوجب توخي الحذر ابســتمرار إزاء ظهور أشــكال جديــدة مــن المعلومات المضللة واســتخدام الــذكاء الاصطناعي لاســتحداث المعلومات المضللــة وخطــاب الكراهية ونشــرها عن طريــق المحتــوى العام المُركّب وتقنية الخداع العميــقFake Deep.