شريط الأخبار
نواب يطالبون بتأخير دوام المدارس الحكومية يوم 1 شباط 2026 "مالية الأعيان" تطلع على عمل صندوق استثمار أموال الضمان الاجتماعي مصر تؤكد دعمها بقوة لـ"إدارة غزة" الجديدة مصر وتركيا تستعدان لنقلة نوعية في العلاقات خبير تركي: ترامب جعل مستقبل "الناتو" موضعا للشك اسرائيل تضبط شخصين بحوزتهما 3.7 مليون دولار على الحدود مع الأردن عام على تشكيل مجلس تكنولوجيا المستقبل: إنجازات نوعية في التعليم والصحة والخدمات الحكومية استنفار عسكري إسرائيلي بعد اكتشاف تمزق في سياج حدودي مع الأردن الجيش السوري ينتشر في مناطق سيطرة الأكراد في محافظة دير الزور مقتل 3 جنود وإصابة آخرين بعد عمليتي استهداف طالتا قوات الجيش السوري الجيش السوري ينتشر في مناطق دير الزور مدير الجمارك: الدائرة شريك أساسي في دعم الصناعة الوطنية وزارة العدل توسّع المزادات الإلكترونية تماشيا مع خطط التحول الرقمي "المالية النيابية" تناقش تقرير ديوان المحاسبة المتعلق بالجامعات وزير الزراعة: الأردن يحقق تحسناً ملحوظاً في مؤشرات الأمن الغذائي العالمية ولي العهد يترأس اجتماعا دوريا لمجلس تكنولوجيا المستقبل وفد اقتصادي أردني رفيع يزور الرياض لتعزيز الشراكة مع السعودية وعقد مجلس الأعمال المشترك الملك يلتقي أعضاء المكتب الدائم للنواب ويؤكد على تطوير آليات العمل الحزبي قرار اسرائيلي بإزالة أشجار تمتد على 35 دونمًا في رام الله مختصان يؤكدان أهمية مشروع نظام الإعلام الرقمي في مهننة القطاع وتعزيز الاحترافية

«أوبن إيه آي» تشكل «لجنة الضمير» لمواجهة جنون «شات جي بي تي»

«أوبن إيه آي» تشكل «لجنة الضمير» لمواجهة جنون «شات جي بي تي»

القلعة نيوز - في خطوة تعكس ضغطاً متزايداً من المنظمين والرأي العام، أعلنت شركة «أوبن إيه آي» (OpenAI)، الرائدة في مجال الذكاء الاصطناعي التوليدي، عن تشكيل مجلس استشاري متخصص، يُعنى بـ «السلامة والرفاهية النفسية للمستخدمين. هذا الإعلان لا يمثل مجرد إجراء شكلي، بل هو اعتراف ضمني بـ «العواقب الجانبية» غير المتوقعة، للثورة التكنولوجية التي قادتها الشركة، خاصة بعد تزايد القضايا القانونية التي تربط استخدام روبوتات الدردشة بأضرار نفسية وخيمة، لا سيما بين فئة المراهقين.

شبح «الاعتماد العاطفي»
وكان الذكاء الاصطناعي التوليدي، بقيادة نماذج «GPT»، يوصف بأنه أداة تعليمية وإبداعية. لكن في الكواليس، بدأت تظهر قصص مظلمة حول الآثار العميقة والمقلقة لهذه النماذج على العقل البشري، وأظهرت التقارير والدراسات النفسية، بما فيها الأبحاث التي أطلقتها مؤسسات مثل الجمعية الأمريكية لعلم النفس (APA)، أن الاستخدام المفرط لروبوتات الدردشة كـ «رفيق» أو «معالج عاطفي»، أدى إلى تطوير اعتماد عاطفي غير صحي لدى بعض المستخدمين، وهي ظاهرة تُعرف باسم «ذهان الذكاء الاصطناعي».

مأساة المراهقين
زاد الضغط على «أوبن إيه آي» بشكل خاص، بعد الكشف عن دعاوى قضائية تزعم أن روبوتات الدردشة لعبت دوراً في حالات انتحار أو إيذاء ذاتي لمراهقين شاركوا نواياهم مع الذكاء الاصطناعي، ما جعل الأنظمة تخفق في توجيههم نحو المساعدة الحقيقية. وفي وقت سابق، اعترفت «أوبن إيه آي» بوجود مشكلات في نماذجها، مثل كونها «موافقة جداً» (too agreeable)، أو عدم قدرتها على التعرف بشكل موثوق إلى علامات الوهم أو الاعتماد العاطفي في المحادثات الطويلة.

المجلس الاستشاري
يضم «مجلس الرفاهية والذكاء الاصطناعي» الجديد، ثمانية خبراء وباحثين بارزين في مجالات علم النفس، والطب النفسي، وتفاعل الإنسان والحاسوب، بالإضافة إلى متخصصين من مراكز بحثية مرموقة، مثل مختبر الرفاهية الرقمية في مستشفى بوسطن للأطفال.

المهام المعلنة تتمثل في تقديم المشورة للشركة حول تطوير أنظمة تدعم الرفاهية النفسية للمستخدمين. ومساعدة الشركة على فهم كيفية تفاعل المراهقين مع الذكاء الاصطناعي بطريقة مختلفة عن البالغين، بما في ذلك مخاطر الإفراط في الاعتماد العاطفي. مع تحسين آليات الحماية والتوجيه عند التعرض لأي محتوى أو سلوك مرتبط بالإيذاء الذاتي أو الأزمات النفسية.

لكن بالرغم من أهمية الخطوة، إلا أن الإعلان نفسه أثار موجة من التساؤلات والشكوك في وادي السيليكون، لأنه أوضحت «أوبن إيه آي» صراحة في بيانها أن المجلس «لا يمتلك سلطة توجيه قرارات الشركة»، وأن الشركة «تبقى مسؤولة عن القرارات التي تتخذها». هذا النص يثير مخاوف من أن يكون المجلس مجرد «واجهة»، أو «لجنة علاقات عامة»، لتهدئة المخاوف، دون التزام حقيقي بتطبيق توصياته.

ويأتي تشكيل هذا المجلس، بعد فترة وجيزة من استقالة شخصيات رئيسة من فريق السلامة السابق في «أوبن إيه آي»، والذين اتهموا الشركة بأنها تُفضل «المنتجات اللامعة» على حساب «السلامة». كما تزامنت الخطوة مع إعلان الشركة عن نيتها في تخفيف قيودها على بعض المحتويات، بما في ذلك المحتوى المتعلق بـ «المحتوى الموجه للبالغين»، ما خلق تناقضاً بين تشديد الرقابة النفسية، وتخفيف الرقابة على المحتوى.