شريط الأخبار
بريطانيا ترسل قوة عسكرية إلى إسرائيل لمراقبة هدنة غزة الديمقراطيون يضغطون على ترامب لمنع إسرائيل من ضم الضفة مهرجان الأردن لسباقات الهجن والشعر النبطي يواصل فعالياته لليوم الثاني على التوالي ( صور ) الرواشدة يلتقي رئيس وأعضاء منتدى عجلون الثقافي الفاتيكان يندد باعتداءات المستوطنين على المسيحيين في الضفة الغربية تحذير أممي بعد ارتفاع ديون الدول النامية إلى 31 مليار دولار العام الماضي بني مصطفى تطلع على مشاريع إنتاجية لجمعية تبنه الخيرية وزير التربية يتفقد مدارس في مديرية لواء القويسمة وزير الشباب يلتقي الفائزين بجائزة الحسين بن عبدالله الثاني للعمل التطوعي ولي العهد يفتتح مدينة العقبة الرقمية كأول مشروع رقمي متكامل في الأردن من منبر العلم إلى منصة التشريع... العنف يغيّر وجه الحوار. تحديد موعد مواجهتي العراق والإمارات في الملحق المؤهل لكأس العالم 2026 الذهب يلتقط أنفاسه بعد ارتفاع قياسي فانس: اتفاق السلام يسير أفضل من المتوقع ونعلن افتتاح مركز إعمار غزة الملياردير الروسي أبراموفيتش يضع عينه على فريق تركي كبير المنتدى الإماراتي الروسي الأول للأعمال يجمع القادة الاقتصاديين من كلا البلدين شرطة لندن تمنع مظاهرة لليمين المتطرف في حي مسلم تجنبا للاضطرابات برشلونة في مواجهة صعبة ضد أولمبياكوس.. التشكيلة والقنوات الناقلة اول تعليق من الشاعرة نجاح المساعيد بعد إلقاء القبض على زوجها المنطقة العسكرية الجنوبية تحبط محاولة تهريب مواد مخدرة بواسطة طائرة مسيرة

«أوبن إيه آي» تشكل «لجنة الضمير» لمواجهة جنون «شات جي بي تي»

«أوبن إيه آي» تشكل «لجنة الضمير» لمواجهة جنون «شات جي بي تي»

القلعة نيوز- في خطوة تعكس ضغطاً متزايداً من المنظمين والرأي العام، أعلنت شركة «أوبن إيه آي» (OpenAI)، الرائدة في مجال الذكاء الاصطناعي التوليدي، عن تشكيل مجلس استشاري متخصص، يُعنى بـ «السلامة والرفاهية النفسية للمستخدمين. هذا الإعلان لا يمثل مجرد إجراء شكلي، بل هو اعتراف ضمني بـ «العواقب الجانبية» غير المتوقعة، للثورة التكنولوجية التي قادتها الشركة، خاصة بعد تزايد القضايا القانونية التي تربط استخدام روبوتات الدردشة بأضرار نفسية وخيمة، لا سيما بين فئة المراهقين.


شبح «الاعتماد العاطفي»
وكان الذكاء الاصطناعي التوليدي، بقيادة نماذج «GPT»، يوصف بأنه أداة تعليمية وإبداعية. لكن في الكواليس، بدأت تظهر قصص مظلمة حول الآثار العميقة والمقلقة لهذه النماذج على العقل البشري، وأظهرت التقارير والدراسات النفسية، بما فيها الأبحاث التي أطلقتها مؤسسات مثل الجمعية الأمريكية لعلم النفس (APA)، أن الاستخدام المفرط لروبوتات الدردشة كـ «رفيق» أو «معالج عاطفي»، أدى إلى تطوير اعتماد عاطفي غير صحي لدى بعض المستخدمين، وهي ظاهرة تُعرف باسم «ذهان الذكاء الاصطناعي».

مأساة المراهقين
زاد الضغط على «أوبن إيه آي» بشكل خاص، بعد الكشف عن دعاوى قضائية تزعم أن روبوتات الدردشة لعبت دوراً في حالات انتحار أو إيذاء ذاتي لمراهقين شاركوا نواياهم مع الذكاء الاصطناعي، ما جعل الأنظمة تخفق في توجيههم نحو المساعدة الحقيقية. وفي وقت سابق، اعترفت «أوبن إيه آي» بوجود مشكلات في نماذجها، مثل كونها «موافقة جداً» (too agreeable)، أو عدم قدرتها على التعرف بشكل موثوق إلى علامات الوهم أو الاعتماد العاطفي في المحادثات الطويلة.

المجلس الاستشاري
يضم «مجلس الرفاهية والذكاء الاصطناعي» الجديد، ثمانية خبراء وباحثين بارزين في مجالات علم النفس، والطب النفسي، وتفاعل الإنسان والحاسوب، بالإضافة إلى متخصصين من مراكز بحثية مرموقة، مثل مختبر الرفاهية الرقمية في مستشفى بوسطن للأطفال.

المهام المعلنة تتمثل في تقديم المشورة للشركة حول تطوير أنظمة تدعم الرفاهية النفسية للمستخدمين. ومساعدة الشركة على فهم كيفية تفاعل المراهقين مع الذكاء الاصطناعي بطريقة مختلفة عن البالغين، بما في ذلك مخاطر الإفراط في الاعتماد العاطفي. مع تحسين آليات الحماية والتوجيه عند التعرض لأي محتوى أو سلوك مرتبط بالإيذاء الذاتي أو الأزمات النفسية.

لكن بالرغم من أهمية الخطوة، إلا أن الإعلان نفسه أثار موجة من التساؤلات والشكوك في وادي السيليكون، لأنه أوضحت «أوبن إيه آي» صراحة في بيانها أن المجلس «لا يمتلك سلطة توجيه قرارات الشركة»، وأن الشركة «تبقى مسؤولة عن القرارات التي تتخذها». هذا النص يثير مخاوف من أن يكون المجلس مجرد «واجهة»، أو «لجنة علاقات عامة»، لتهدئة المخاوف، دون التزام حقيقي بتطبيق توصياته.

ويأتي تشكيل هذا المجلس، بعد فترة وجيزة من استقالة شخصيات رئيسة من فريق السلامة السابق في «أوبن إيه آي»، والذين اتهموا الشركة بأنها تُفضل «المنتجات اللامعة» على حساب «السلامة». كما تزامنت الخطوة مع إعلان الشركة عن نيتها في تخفيف قيودها على بعض المحتويات، بما في ذلك المحتوى المتعلق بـ «المحتوى الموجه للبالغين»، ما خلق تناقضاً بين تشديد الرقابة النفسية، وتخفيف الرقابة على المحتوى.