شريط الأخبار
الريف والبادية النيابية تزور الصندوق الهاشمي لتنمية البادية الأردنية الطاقة والمعادن والوطني للأمن النووي يختتمان مشاركتهما بتمرين "عين التنين" القبول الموحد تعلن انتهاء تقديم طلبات البكالوريوس وزير الثقافة يفتتح مهرجان البلقاء الثالث ( صور ) حشد نيابي سياسي في منزل النائب الغويري في الزرقاء نظام لحماية بيانات الأفراد وتعزيز موثوقية التجارة الإلكترونية الخشمان: شركات الطيران تواجه تحديات كبيرة وتتطلب دعماً حكومياً عاجلاً افتتاح أول محطة لتعبئة غاز المركبات من حقل الريشة في الموقر اليوم المنتخبات الوطنية تحصد 8 ميداليات في البطولة الآسيوية للجودو مذكرة تفاهم أردنية ـ صينية لتنفيذ دراسات جدوى لمشاريع الهيدروجين الأخضر أعراض التسنين- كم يوم تستمر عند الأطفال؟ دراسة تربط بين الحساسية العالية والاكتئاب والقلق! هل رقائق البطاطس المخبوزة صحية أكثر من المقلية؟ وفاة الشاعر سعود معدي القحطاني إثر سقوطه من جبل في عُمان 10 خرافات تكنولوجية لا تزال شائعة حتى اليوم مجلس الوزراء يقر استكمال تمويل مشاريع بنية تحتية وسياحية في عجلون والبحر الميت محمد مسلم مديراً عاماً للمنارة الاسلامية للتأمين .. سيرة ذاتية تحديد موعد نتائج التوجيهي نقل الأمين العام للأشغال لمنصب جديد اقرار نظام صندوق دعم أنشطة التعليم والتدريب المهني والتقني

د. نواف بني عطية يكتب: الخداع العميق " تحديات أمنية وإشكاليات حقيقية

د. نواف بني عطية يكتب: الخداع العميق  تحديات أمنية وإشكاليات حقيقية

القلعة نيوز:

لفهم مدى خطورة تلك التقنية ( الخداع العميق deep fake ) يجب البحث وراء تصنيفها، فهي شكل من أشكال الخداع البصري الذي يجعلنا نتوهم حدوث أمر لم يحدث، وهي تلك التكنولوجيا التي تستخدم منهجية التعلم العميق Deep learning، التي تُعتبر أحد مكونات الذكاء الاصطناعي، بهدف عمل محاكاة غير حقيقية لموقف أو شخص تبدو وكأنها حقيقية ولكنها ليست كذلك على الإطلاق. بمعنى ان أي شخص جالس وراء حاسوب سيستطيع أن يختلق أشياء من العدم، ويقدمها كما لو كانت حوادث حقيقية تماما، وهنا يكمن الكابوس الذي تُمثّله تلك التقنية: إنها تأخذ الخداع البصري من مساحة الخيال لنطاق الواقع، وتجعل من الصعب إن لم يكن من المستحيل أن نفرق بين الاثنين.

تَستخدم تقنية الخداع العميق كلًّا من التعلم الآلي والذكاء الاصطناعي لخلق أحداثٍ مزيفةٍ من خلال تغيير الفيديوهات والملفات الصوتية والصور، وخلق أصواتٍ اصطناعيةٍ وفيديوهاتٍ مُبركةٍ، انطلاقًا من شبكاتٍ عصبيةٍ تُعرف باسم (GAN – Generative Adversarial Networks) ذات القدرات الهائلة للخوارزميات المستخدمة في أنظمة الذكاء الاصطناعي، والتي تقوم بالتعلم غير المراقب (Unsupervised Learning) أو التعلم الاستنتاجي .

ان الخداع العميق موت للحقيقة، بما تتميز به من سهولة استخدام وإتاحة أمام أي شخص، أخذت هذا التزييف لمستوى آخر تماما. يقول تيم هوانغ، رئيس مبادرة هارفرد للتحكم الأخلاقي بالذكاء الاصطناعي، عن هذا "منذ زمن بعيد ونحن نستطيع أن نزيف الصور ومقاطع الفيديو. لكن في الماضي، إن أردت أن تصور الرئيس وهو يقول شيئا لم يقله في الحقيقة، كنت ستحتاج إلى فريق من المتخصصين. أما اليوم، فلن يكتفي الذكاء الاصطناعي فقط بأتمتة هذه العملية، بل سيفبرك مقاطع مزورة أفضل جودة. أضف إلى هذا كون الوصول لتلك التقنية عبر الإنترنت شيئا سهلا، وستجد نفسك تقف في وسط عاصفة من التضليل".

في الوقت الحالي، مقاطع الفيديو المزيفة الجديدة رائعة وممتعة للمشاهدة. لكن ما يكمن وراء هذه التقنية هو خطر يمكن أن يخرج عن السيطرة. فتقنية التزييف العميق تتطور إلى درجة يصعب فيها تمييز مقاطع الفيديو المزيفة عن مقاطع الفيديو الحقيقية. وقد يكون لذلك عواقب وخيمة، خاصة على الشخصيات العامة والمشاهير. قد تتعرض الوظائف والحياة للخطر، بل وتتعرض للدمار التام بسبب تقنية التزييف العميق الخبيثة. يمكن للأشخاص ذوي النوايا السيئة استخدامها لانتحال شخصيات الناس واستغلال أصدقائهم وعائلاتهم وزملائهم لمصالحهم الشخصية ، يمكنهم حتى استخدام مقاطع فيديو مزيفة لزعماء العالم لإحداث ضجة عالمية وحروب بين الدول.

وهنا يتوجب توخي الحذر ابســتمرار إزاء ظهور أشــكال جديــدة مــن المعلومات المضللة واســتخدام الــذكاء الاصطناعي لاســتحداث المعلومات المضللــة وخطــاب الكراهية ونشــرها عن طريــق المحتــوى العام المُركّب وتقنية الخداع العميــقFake Deep.