شريط الأخبار
الإعلامية نجود تشكر السفير عبدالله عطية العجارمة الحنيطي يستقبل وفدين عسكريين كويتياً وعُمانياً لقاء حول تعزيز مفاهيم المشاركة السياسية والتعريف بالتشريعات الناظمة لها في جامعة الحسين بن طلال مدير الأمن العام يرعى حفل التقييم السنوي والتّميّز لمديرية الأمن العام أنفاق «حماس» تعيد الحرب إلى بداياتها بنك ABC يعلن عن النتائج المالية للربع الأول من عام 2024 بعد احتلال معبر رفح.. الجيش المصري يلغي “فجأة” اجتماعاته مع إسرائيل بلينكن يؤكد لغالانت رفض واشنطن شن عملية كبيرة في رفح «القسام» و«سرايا القدس» تعلنان استهداف القوات الإسرائيلية في معبر رفح بقذائف الهاون نتنياهو: سنواصل الحرب في قطاع غزة حتى استعادة المحتجزين مصر أبلغت الوسطاء رفضها للتصعيد الإسرائيلي في رفح الفلسطينية كتيبة التدخل السريع /٩١ تنفذ عملية تحميل ونقل جوي ضمن فعاليات تمرين الأسد المتأهب كلية ترينيتي البريطانية تسحب استثماراتها من شركات الأسلحة الإسرائيلية مليار دولار استثمارات البحرين في الأردن رئيس الديوان الملكي الهاشمي يلتقي وفدا من اتحاد الكاراتيه قصابون يؤكدون انخفاض الطلب على اللحوم 60% الأونروا: 360 ألف نازح من رفح خلال الأسبوع الماضي مليار دولار استثمارات البحرين في الأردن الشمالي يبحث مع وزراء عرب تعزيز التعاون الاقتصادي البحث الجنائي يُلقي القبض على سارق مركبتين في الزرقاء

د. نواف بني عطية يكتب: الخداع العميق " تحديات أمنية وإشكاليات حقيقية

د. نواف بني عطية يكتب: الخداع العميق  تحديات أمنية وإشكاليات حقيقية

القلعة نيوز:

لفهم مدى خطورة تلك التقنية ( الخداع العميق deep fake ) يجب البحث وراء تصنيفها، فهي شكل من أشكال الخداع البصري الذي يجعلنا نتوهم حدوث أمر لم يحدث، وهي تلك التكنولوجيا التي تستخدم منهجية التعلم العميق Deep learning، التي تُعتبر أحد مكونات الذكاء الاصطناعي، بهدف عمل محاكاة غير حقيقية لموقف أو شخص تبدو وكأنها حقيقية ولكنها ليست كذلك على الإطلاق. بمعنى ان أي شخص جالس وراء حاسوب سيستطيع أن يختلق أشياء من العدم، ويقدمها كما لو كانت حوادث حقيقية تماما، وهنا يكمن الكابوس الذي تُمثّله تلك التقنية: إنها تأخذ الخداع البصري من مساحة الخيال لنطاق الواقع، وتجعل من الصعب إن لم يكن من المستحيل أن نفرق بين الاثنين.

تَستخدم تقنية الخداع العميق كلًّا من التعلم الآلي والذكاء الاصطناعي لخلق أحداثٍ مزيفةٍ من خلال تغيير الفيديوهات والملفات الصوتية والصور، وخلق أصواتٍ اصطناعيةٍ وفيديوهاتٍ مُبركةٍ، انطلاقًا من شبكاتٍ عصبيةٍ تُعرف باسم (GAN – Generative Adversarial Networks) ذات القدرات الهائلة للخوارزميات المستخدمة في أنظمة الذكاء الاصطناعي، والتي تقوم بالتعلم غير المراقب (Unsupervised Learning) أو التعلم الاستنتاجي .

ان الخداع العميق موت للحقيقة، بما تتميز به من سهولة استخدام وإتاحة أمام أي شخص، أخذت هذا التزييف لمستوى آخر تماما. يقول تيم هوانغ، رئيس مبادرة هارفرد للتحكم الأخلاقي بالذكاء الاصطناعي، عن هذا "منذ زمن بعيد ونحن نستطيع أن نزيف الصور ومقاطع الفيديو. لكن في الماضي، إن أردت أن تصور الرئيس وهو يقول شيئا لم يقله في الحقيقة، كنت ستحتاج إلى فريق من المتخصصين. أما اليوم، فلن يكتفي الذكاء الاصطناعي فقط بأتمتة هذه العملية، بل سيفبرك مقاطع مزورة أفضل جودة. أضف إلى هذا كون الوصول لتلك التقنية عبر الإنترنت شيئا سهلا، وستجد نفسك تقف في وسط عاصفة من التضليل".

في الوقت الحالي، مقاطع الفيديو المزيفة الجديدة رائعة وممتعة للمشاهدة. لكن ما يكمن وراء هذه التقنية هو خطر يمكن أن يخرج عن السيطرة. فتقنية التزييف العميق تتطور إلى درجة يصعب فيها تمييز مقاطع الفيديو المزيفة عن مقاطع الفيديو الحقيقية. وقد يكون لذلك عواقب وخيمة، خاصة على الشخصيات العامة والمشاهير. قد تتعرض الوظائف والحياة للخطر، بل وتتعرض للدمار التام بسبب تقنية التزييف العميق الخبيثة. يمكن للأشخاص ذوي النوايا السيئة استخدامها لانتحال شخصيات الناس واستغلال أصدقائهم وعائلاتهم وزملائهم لمصالحهم الشخصية ، يمكنهم حتى استخدام مقاطع فيديو مزيفة لزعماء العالم لإحداث ضجة عالمية وحروب بين الدول.

وهنا يتوجب توخي الحذر ابســتمرار إزاء ظهور أشــكال جديــدة مــن المعلومات المضللة واســتخدام الــذكاء الاصطناعي لاســتحداث المعلومات المضللــة وخطــاب الكراهية ونشــرها عن طريــق المحتــوى العام المُركّب وتقنية الخداع العميــقFake Deep.