شريط الأخبار
أكبر خدعة في تاريخ الماراثون.. حين صنعت أمريكية بسيطة أكبر فضيحة رياضية الأمن مع تساقط الأمطار يحذر من الانزلاقات تكريم كلية عجلون الجامعية كإحدى أبرز المؤسسات التعليمية في المحافظة بمناسبة يوم المعلم العالمي وفيات الخميس 9-10-2025 في العالمي للبريد 2025 " البريد في خدمة الإنسان: خدمة محلية، ونطاق عالمي " افتتاح فعاليات مهرجان "استذكار أدباء راحلين من البلقاء" عشائر الحباشنة تنعى زياد محمد عبدربه الحباشنة (أبو حمزة) الأردن يرحّب باتفاق وقف إطلاق النار في غزة ويؤكد دعمه لتحقيق السلام العادل والشامل ترامب: "أعتقد أن الرهائن سيعودون الإثنين" إلى إسرائيل "الألبسة والأقمشة": تراجع البيع الآجل بنسبة 40 % بعد قرار وقف حبس المدين من على سرير المرض.. "المعلم" يبارك للفراعنة التأهل إلى كأس العالم 9 مطبات و6 كاميرات ودوار جديد على طريق البترول في إربد للحد من الحوادث بالأسماء ... وزارات تدعو مرشحين لإجراء المقابلات الشخصية تعرف على المنتخبات العربية المتأهلة إلى كأس العالم صندوق النقد يتوقع خفض الفائدة الأميركية مفارقة كبيرة بين فرص العمل المستحدثة للعام 2024 وبيانات الضمان.! #عاجل كريستيانو رونالدو يصبح أول لاعب كرة قدم ملياردير في التاريخ أجواء لطيفة في أغلب المناطق وزخات مطرية شمال المملكة ترامب: "أعتقد أن الرهائن سيعودون الإثنين" إلى إسرائيل البندورة بـ40 قرش والخيار بـ45 في السوق المركزي اليوم

لماذا يثير الذكاء الاصطناعي كل هذا القلق؟

لماذا يثير الذكاء الاصطناعي كل هذا القلق؟

القلعة نيوز:

في أواخر مارس/ آذار الماضي، وقّع أكثر من ألف من القادة والخبراء في قطاع التكنولوجيا رسالة مفتوحة، حذروا فيها من الأخطار الذي يشكلها الذكاء الاصطناعي على المجتمع والإنسانية. مجموعة الموقعين التي ضمت الرئيس التنفيذي لشركة تِسلا ومالك منصة تويتر إيلون ماسك حثت المختبرات على تعليق تطوير أنظمة الذكاء الاصطناعي الجديدة ذات القوة لستة أشهر، إلى أن يتمكنوا من فهم أخطار هذه التقنية بشكل أفضل. وأكدت الرسالة على وجوب تطوير الذكاء الاصطناعي "إذا ما كنا واثقين من أنّ آثار هذا التطوير ستكون إيجابية، وأنها ستكون خاضعة للسيطرة والتحكم في أخطارها"، وهو ما رأوا أنه غير متوفر في الوقت الراهن، "فلا أحد يستطيع التنبؤ أو التحكم بشكل موثوق بهذا الذكاء الاصطناعي".

هذه الرسالة تضم الآن 27 ألف توقيع. لكنها كانت مختصرة وفضفاضة، وبعض من وقعوا عليها يبدو أن لديهم علاقات متضاربة في مجال الذكاء الاصطناعي، فإيلون ماسك، مثلاً، يؤسس أداته الخاصة بهذه التقنية، وهو واحد من المتبرعين الرئيسيين لمعهد فيوتشر أوف لايف Future of Life الذي أعد الرسالة.

لكن الرسالة أثارت قلق الخبراء في مجال الذكاء الاصطناعي، وتحديداً إزاء نظام "جي بي تي-4" الذي أطلقته شركة أوبن إيه آي الناشئة، لما قد يسببه من ضرر على المجتمع. بعض المخاوف نعيشه اليوم، والبعض الآخر لن نشهده قبل شهور أو سنوات، بينما تبقى مخاوف أخرى افتراضية. وفي هذا السياق، قال البروفيسور والباحث في مجال الذكاء الاصطناعي في جامعة مونتريال يوشوا بنجو، لصحيفة نيويورك تايمز: "قدرتنا على فهم الأخطاء التي قد تحصل بسبب أنظمة الذكاء الاصطناعي فائقة القوة لا تزال ضعيفة، ولذلك علينا أن نكون شديدي الحذر".

ما الذي يثير المخاوف فعلاً؟

قد يكون يوشوا بنجو أهم الأشخاص الذين وقعوا على الرسالة المذكورة. عمل بنجو مع أكاديميين آخرين، هما جيفري هينتون الذي استقال أخيراً من شركة غوغل، ويان ليكون المسؤول عن علماء الذكاء الاصطناعي في شركة ميتا المالكة لـ"فيسبوك".

جيفري هينتون، الذي يلقب بـ"عرّاب الذكاء الاصطناعي"، ترك وظيفته في "غوغل" للتنديد علناً بمخاطر هذه التكنولوجيا. وقال لصحيفة نيويورك تايمز إنّ التقدم المحرز في هذا المجال يحمل في طياته "أخطاراً عميقة على المجتمع والإنسانية". ونقلت الصحيفة عنه، الاثنين الماضي، قوله: "انظروا كيف كان الأمر قبل خمس سنوات، وكيف هو الآن... تخيلوا كيف ستتقدم الأمور قياساً إلى هذا الفارق. إنه أمر مخيف". وأعرب هينتون، في تصريحاته للصحيفة، عن اعتقاده بأنّ هذه الأنظمة تتفوق على الذكاء البشري من بعض النواحي بسبب كمية البيانات التي تحلّلها. وقال: "قد يكون ما يحدث في هذه الأنظمة في الواقع أفضل بكثير مما يحدث في الدماغ".

أمضى الثلاثة العقود الأربعة الماضية في تطوير التكنولوجيا التي تقود أنظمة مثل "جي بي تي-4". عام 2018، حصل الباحثون الثلاثة على جائزة تورينغ التي تُعرف غالباً باسم "جائزة نوبل للحوسبة"، تقديراً لعملهم على الشبكات العصبية.

الشبكة العصبية هي نظام رياضي يتعلم المهارات من خلال تحليل البيانات. منذ نحو خمس سنوات، بدأت شركات مثل غوغل ومايكروسوفت وأوبن إيه آي ببناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية تسمى نماذج اللغات الكبيرة أو L.L.M.s. من خلال تحديد الأنماط في نص ما، تتعلم LLMs إنشاء نص بمفردها، بما في ذلك المدونات والقصائد وبرامج الكمبيوتر. يمكنها حتى إجراء محادثة. يمكن أن تساعد هذه التقنية مبرمجي الكمبيوتر والكتّاب وغيرهم في توليد الأفكار والقيام بالوظائف بسرعة أكبر.

لكن بنجو وخبراء آخرين حذروا من أنها يمكنها أيضاً تعلم السلوكيات غير المرغوب فيها وغير المتوقعة. إذ يمكن أن تولد هذه الأنظمة معلومات غير صادقة ومتحيزة وغير ذلك من المواد السامة. أنظمة مثل "جي بي تي-4" تخطئ في الحقائق وتفبرك معلومات، وهي ظاهرة تسمى "الهلوسة". تعمل الشركات على حل هذه المشكلات. لكن الخبراء، مثل بنجو، قلقون من الأخطار الجديدة التي يثيرها تطور هذه التقنيات.

الأخطار قصيرة المدى: المعلومات المضللة

لأن هذه الأنظمة تقدم المعلومات بثقة تامة، فقد يكون من الصعب فصل الحقيقة عن الخيال عند استخدامها. يشعر الخبراء بالقلق من أن الأشخاص سيعتمدون على هذه الأنظمة للحصول على المشورة الطبية والدعم العاطفي والمعلومات الخام التي يعتمدون عليها في اتخاذ القرارات. كما يشعر الخبراء بالقلق من أن الأشخاص سيسيئون استخدام هذه الأنظمة لنشر معلومات مضللة عمداً. وقال بنجو لـ"نيويورك تايمز": "لدينا الآن أنظمة يمكنها التفاعل معنا من خلال اللغة الطبيعية، ولا يمكننا التمييز بين الحقيقي والمزيف".

يتخوف الخبراء من أن أنظمة الذكاء الاصطناعي الجديدة قد تسلب الوظائف من أصحابها. حتى الآن، يبدو عمل أنظمة مثل "جي بي تي-4" مكملاً لعمل الموظفين البشر. لكن شركة أوبن إيه آي أقرت بأن هذه الأنظمة يمكنها أن تحل محل بعض الموظفين، وبينهم المشرفون على المحتوى الذي ينشر على شبكة الإنترنت. لا يمكنها إلى الآن أن تحل محل المحامين أو المحاسبين أو الأطباء. لكن يمكنها الحصول على وظائف المساعدين القانونيين والمساعدين الشخصيين والمترجمين. قدرت ورقة بحثية كتبها باحثو أوبن إيه آي أن 80 في المائة من قوة العمل في الولايات المتحدة يمكن أن تتأثر 10 في المائة على الأقل من مهام عملها بـLLMs، وأن 19 في المائة من العمال قد يرون أن 50 في المائة على الأقل من مهامهم قد تأثرت.

الأخطار بعيدة المدى: فقدان القدرة على السيطرة

يعتقد بعض الأشخاص الذين وقعوا الرسالة أن الذكاء الاصطناعي يمكن أن يصبح خارج سيطرتنا أو يدمر البشرية. لكن العديد من الخبراء يقولون إن هذا توقع مبالغ فيه للغاية. الرسالة كتبتها مجموعة من معهد فيوتشر أوف لاف الذي يكرس عمله لاستكشاف الأخطار الوجودية التي تتهدد الإنسانية. وتحذيرهم نابع من واقع أن أنظمة الذكاء الاصطناعي غالباً ما تتعلم سلوكاً غير متوقع من الكمية الهائلة من البيانات التي تحللها، ما قد يثير مشكلات جدية وغير متوقعة. ولفتوا إلى أن هذه الأنظمة قد تحصل على نفوذ لم نفكر فيه، لأن بإمكانها كتابة برمجيات الكمبيوتر بنفسها. وقالوا إن المطورين سيثيرون تهديدات جديدة إذا سمحوا لأنظمة الذكاء الاصطناعي فائقة القوة بتشغيل برمجياتها بنفسها.

مسؤولية "أخلاقية"؟

نبّه البيت الأبيض الرؤساء التنفيذيين لشركات التكنولوجيا الأميركية العملاقة إلى مسؤوليتهم "الأخلاقية" لحماية المستخدمين من المخاطر الاجتماعية المحتملة للذكاء الاصطناعي. وكانت نائبة الرئيس الأميركي كامالا هاريس قد دعت رؤساء شركات غوغل ومايكروسوف وأوبن إيه آي وأنثروبيكا لاجتماع، الخميس، ونقلت إليهم قلق إدارة الرئيس جو بايدن من تسابق هذه الشركات نحو تطوير تكنولوجيا قد تؤدي الى أضرار خطرة على المجتمع. وقالت هاريس في بيان: "كما تشاركت اليوم مع الرؤساء التنفيذيين لشركات هي في طليعة الابتكار الأميركي في مجال الذكاء الاصطناعي، للقطاع الخاص مسؤولية أخلاقية ومعنوية وقانونية لضمان سلامة وأمن منتجاته".

الحقيقة الدولية - وكالات