شريط الأخبار
القوات المسلحة: لا صحة لمزاعم تعرض العراق لهجوم من الأراضي الأردنية القبض على هبة أبو طه بسبب منشورات محرضة على أمن الأردن سفير إيران في إسبانيا: طهران قادرة على ضرب القواعد الأمريكية في أوروبا ونأمل ألا نضطر لذلك الحسيني لـ نعيم قاسم: قد لا تستطيع جمع شملك أو تكتب وصيتك الأمن يبث رسالة توعوية للقاطنين في محيط السفارة الأمريكية بعمان الحرس الثوري الإيراني: إغلاق مضيق هرمز وسنحرق أي سفينة تحاول عبوره سلاح الجو القطري يسقط طائرتين حربيتين إيرانيتين ترامب: نخطط لموجة كبيرة من الضربات ضد إيران قريبا الحرس الثوري الإيراني: استهدفنا المنشآت المتبقية للأسطول البحري الأمريكي في البحرين وتم تدميرها فيلق "القدس" التابع للحرس الثوري الإيراني: الأعداء لن ينعموا بالأمن حتى داخل منازلهم نتنياهو: سقوط النظام الإيراني "يقترب" "لن ينجو منه العرب".. خبير مصري يحذر من مخطط إسرائيلي بعد حرب إيران أردوغان: إسرائيل تتغذى على سفك الدماء ونشر الفوضى "واشنطن بوست": إصابة اثنين من موظفي وزارة الدفاع الأمريكية في هجوم إيراني على البحرين ستارمر يرفض ضغوط ترامب ويدافع عن حياد بريطانيا بقصف إيران الصفدي: لن نتهاون بأمن الأردن .. وتضامن مطلق مع دول الخليج الصفدي يبحث مع نظيره الهولندي التصعيد في المنطقة وتداعياته 52 قتيلًا و154 جريحًا في الغارات الإسرائيلية على لبنان الملك يتلقى اتصالا هاتفيا من رئيس الوزراء الهندي الملك يتلقى اتصالا هاتفيا من رئيس الاتحاد السويسري

«أوبن إيه آي» تشكل «لجنة الضمير» لمواجهة جنون «شات جي بي تي»

«أوبن إيه آي» تشكل «لجنة الضمير» لمواجهة جنون «شات جي بي تي»

القلعة نيوز - في خطوة تعكس ضغطاً متزايداً من المنظمين والرأي العام، أعلنت شركة «أوبن إيه آي» (OpenAI)، الرائدة في مجال الذكاء الاصطناعي التوليدي، عن تشكيل مجلس استشاري متخصص، يُعنى بـ «السلامة والرفاهية النفسية للمستخدمين. هذا الإعلان لا يمثل مجرد إجراء شكلي، بل هو اعتراف ضمني بـ «العواقب الجانبية» غير المتوقعة، للثورة التكنولوجية التي قادتها الشركة، خاصة بعد تزايد القضايا القانونية التي تربط استخدام روبوتات الدردشة بأضرار نفسية وخيمة، لا سيما بين فئة المراهقين.

شبح «الاعتماد العاطفي»
وكان الذكاء الاصطناعي التوليدي، بقيادة نماذج «GPT»، يوصف بأنه أداة تعليمية وإبداعية. لكن في الكواليس، بدأت تظهر قصص مظلمة حول الآثار العميقة والمقلقة لهذه النماذج على العقل البشري، وأظهرت التقارير والدراسات النفسية، بما فيها الأبحاث التي أطلقتها مؤسسات مثل الجمعية الأمريكية لعلم النفس (APA)، أن الاستخدام المفرط لروبوتات الدردشة كـ «رفيق» أو «معالج عاطفي»، أدى إلى تطوير اعتماد عاطفي غير صحي لدى بعض المستخدمين، وهي ظاهرة تُعرف باسم «ذهان الذكاء الاصطناعي».

مأساة المراهقين
زاد الضغط على «أوبن إيه آي» بشكل خاص، بعد الكشف عن دعاوى قضائية تزعم أن روبوتات الدردشة لعبت دوراً في حالات انتحار أو إيذاء ذاتي لمراهقين شاركوا نواياهم مع الذكاء الاصطناعي، ما جعل الأنظمة تخفق في توجيههم نحو المساعدة الحقيقية. وفي وقت سابق، اعترفت «أوبن إيه آي» بوجود مشكلات في نماذجها، مثل كونها «موافقة جداً» (too agreeable)، أو عدم قدرتها على التعرف بشكل موثوق إلى علامات الوهم أو الاعتماد العاطفي في المحادثات الطويلة.

المجلس الاستشاري
يضم «مجلس الرفاهية والذكاء الاصطناعي» الجديد، ثمانية خبراء وباحثين بارزين في مجالات علم النفس، والطب النفسي، وتفاعل الإنسان والحاسوب، بالإضافة إلى متخصصين من مراكز بحثية مرموقة، مثل مختبر الرفاهية الرقمية في مستشفى بوسطن للأطفال.

المهام المعلنة تتمثل في تقديم المشورة للشركة حول تطوير أنظمة تدعم الرفاهية النفسية للمستخدمين. ومساعدة الشركة على فهم كيفية تفاعل المراهقين مع الذكاء الاصطناعي بطريقة مختلفة عن البالغين، بما في ذلك مخاطر الإفراط في الاعتماد العاطفي. مع تحسين آليات الحماية والتوجيه عند التعرض لأي محتوى أو سلوك مرتبط بالإيذاء الذاتي أو الأزمات النفسية.

لكن بالرغم من أهمية الخطوة، إلا أن الإعلان نفسه أثار موجة من التساؤلات والشكوك في وادي السيليكون، لأنه أوضحت «أوبن إيه آي» صراحة في بيانها أن المجلس «لا يمتلك سلطة توجيه قرارات الشركة»، وأن الشركة «تبقى مسؤولة عن القرارات التي تتخذها». هذا النص يثير مخاوف من أن يكون المجلس مجرد «واجهة»، أو «لجنة علاقات عامة»، لتهدئة المخاوف، دون التزام حقيقي بتطبيق توصياته.

ويأتي تشكيل هذا المجلس، بعد فترة وجيزة من استقالة شخصيات رئيسة من فريق السلامة السابق في «أوبن إيه آي»، والذين اتهموا الشركة بأنها تُفضل «المنتجات اللامعة» على حساب «السلامة». كما تزامنت الخطوة مع إعلان الشركة عن نيتها في تخفيف قيودها على بعض المحتويات، بما في ذلك المحتوى المتعلق بـ «المحتوى الموجه للبالغين»، ما خلق تناقضاً بين تشديد الرقابة النفسية، وتخفيف الرقابة على المحتوى.