شريط الأخبار
أصالة تحسم الجدل حول انفصالها عن زوجها وفيات الثلاثاء 9 - 12 - 2025 عين على القدس يناقش منع الاحتلال للفلسطينيين من البناء في القدس جامعة البلقاء التطبيقية تشارك في إطلاق مشروع DIGIWAVE لتعزيز ريادة الأعمال والدمج الرقمي للنساء في المتوسط وظائف حكومية شاغرة الأرصاد الجوية: منخفض جوي يبدأ الأربعاء وأمطار غزيرة وسيول محتملة في الأردن المحروقات : ارتفاع لافت في استهلاك أسطوانات الغاز خلال المنخفض الجوي الأخير النواب يواصلون مناقشة موازنة 2026 تحت القبة بعد 104 اجتماعات للجنة المالية الأردن يواجه مصر اليوم بعد ضمان التأهل بصدارة المجموعة أمسية شعرية باتحاد الكتاب تتغنى بالأردن 9 مخالفات و32 بلاغاً حصيلة حملة الحد من القيادة المتهورة في يومها الثاني الصبيحي يكتب : متى يتدخل الرئيس لإيقاف شلّال التقاعدات المبكرة القسريّة في أمانة عمّان.؟ الشرع: استعدنا هوية سوريا بعد خمسة عقود من الظلم والفساد بريطانيا وفرنسا وألمانيا يبحثون دعم كييف ومسار السلام 10 إصابات بحادث سير على طريق الشجرة عباس يهنئ الرئيس السوري بالذكرى السنوية الأولى للتحرير "فايننشال تايمز": استبعاد توني بلير من مجلس السلام الخاص بغزة بعد اعتراض دول عربية وإسلامية بوتين يأمر بالبدء الفوري في تنفيذ الخطة الهيكلية للاقتصاد الروسي حتى 2030 محللان سياسيان: السوريون عاشوا عاماً بلا استبداد والوحدة الداخلية مفتاح الاستقرار الأردن يستضيف جولة جديدة من "اجتماعات العقبة" بالشراكة مع ألبانيا

«أوبن إيه آي» تشكل «لجنة الضمير» لمواجهة جنون «شات جي بي تي»

«أوبن إيه آي» تشكل «لجنة الضمير» لمواجهة جنون «شات جي بي تي»

القلعة نيوز- في خطوة تعكس ضغطاً متزايداً من المنظمين والرأي العام، أعلنت شركة «أوبن إيه آي» (OpenAI)، الرائدة في مجال الذكاء الاصطناعي التوليدي، عن تشكيل مجلس استشاري متخصص، يُعنى بـ «السلامة والرفاهية النفسية للمستخدمين. هذا الإعلان لا يمثل مجرد إجراء شكلي، بل هو اعتراف ضمني بـ «العواقب الجانبية» غير المتوقعة، للثورة التكنولوجية التي قادتها الشركة، خاصة بعد تزايد القضايا القانونية التي تربط استخدام روبوتات الدردشة بأضرار نفسية وخيمة، لا سيما بين فئة المراهقين.


شبح «الاعتماد العاطفي»
وكان الذكاء الاصطناعي التوليدي، بقيادة نماذج «GPT»، يوصف بأنه أداة تعليمية وإبداعية. لكن في الكواليس، بدأت تظهر قصص مظلمة حول الآثار العميقة والمقلقة لهذه النماذج على العقل البشري، وأظهرت التقارير والدراسات النفسية، بما فيها الأبحاث التي أطلقتها مؤسسات مثل الجمعية الأمريكية لعلم النفس (APA)، أن الاستخدام المفرط لروبوتات الدردشة كـ «رفيق» أو «معالج عاطفي»، أدى إلى تطوير اعتماد عاطفي غير صحي لدى بعض المستخدمين، وهي ظاهرة تُعرف باسم «ذهان الذكاء الاصطناعي».

مأساة المراهقين
زاد الضغط على «أوبن إيه آي» بشكل خاص، بعد الكشف عن دعاوى قضائية تزعم أن روبوتات الدردشة لعبت دوراً في حالات انتحار أو إيذاء ذاتي لمراهقين شاركوا نواياهم مع الذكاء الاصطناعي، ما جعل الأنظمة تخفق في توجيههم نحو المساعدة الحقيقية. وفي وقت سابق، اعترفت «أوبن إيه آي» بوجود مشكلات في نماذجها، مثل كونها «موافقة جداً» (too agreeable)، أو عدم قدرتها على التعرف بشكل موثوق إلى علامات الوهم أو الاعتماد العاطفي في المحادثات الطويلة.

المجلس الاستشاري
يضم «مجلس الرفاهية والذكاء الاصطناعي» الجديد، ثمانية خبراء وباحثين بارزين في مجالات علم النفس، والطب النفسي، وتفاعل الإنسان والحاسوب، بالإضافة إلى متخصصين من مراكز بحثية مرموقة، مثل مختبر الرفاهية الرقمية في مستشفى بوسطن للأطفال.

المهام المعلنة تتمثل في تقديم المشورة للشركة حول تطوير أنظمة تدعم الرفاهية النفسية للمستخدمين. ومساعدة الشركة على فهم كيفية تفاعل المراهقين مع الذكاء الاصطناعي بطريقة مختلفة عن البالغين، بما في ذلك مخاطر الإفراط في الاعتماد العاطفي. مع تحسين آليات الحماية والتوجيه عند التعرض لأي محتوى أو سلوك مرتبط بالإيذاء الذاتي أو الأزمات النفسية.

لكن بالرغم من أهمية الخطوة، إلا أن الإعلان نفسه أثار موجة من التساؤلات والشكوك في وادي السيليكون، لأنه أوضحت «أوبن إيه آي» صراحة في بيانها أن المجلس «لا يمتلك سلطة توجيه قرارات الشركة»، وأن الشركة «تبقى مسؤولة عن القرارات التي تتخذها». هذا النص يثير مخاوف من أن يكون المجلس مجرد «واجهة»، أو «لجنة علاقات عامة»، لتهدئة المخاوف، دون التزام حقيقي بتطبيق توصياته.

ويأتي تشكيل هذا المجلس، بعد فترة وجيزة من استقالة شخصيات رئيسة من فريق السلامة السابق في «أوبن إيه آي»، والذين اتهموا الشركة بأنها تُفضل «المنتجات اللامعة» على حساب «السلامة». كما تزامنت الخطوة مع إعلان الشركة عن نيتها في تخفيف قيودها على بعض المحتويات، بما في ذلك المحتوى المتعلق بـ «المحتوى الموجه للبالغين»، ما خلق تناقضاً بين تشديد الرقابة النفسية، وتخفيف الرقابة على المحتوى.