القلعة نيوز - تحول مفاجئ يقلب المفاهيم التقليدية للتفاعل بين الإنسان والآلة، كشفت دراسة علمية حديثة عن نتيجة صادمة مفادها أن التعامل بفظاظة وصراحة مع نماذج اللغة الكبيرة (LLMs) مثل ChatGPT-4o قد يزيد من دقتها وكفاءتها في حل المسائل، هذه النتائج لا تتعارض فقط مع قواعد السلوك البشري، بل تتناقض أيضاً مع دراسات سابقة كانت تشير إلى أن الأدب واللباقة في التعامل قد يحسنان أداء نماذج الذكاء الاصطناعي.
أجريت الدراسة، التي تحمل عنوان (انتبه لنبرتك.. استقصاء كيف تؤثر لباقة المطالبة على دقة نماذج اللغة الكبيرة)، من قبل باحثين من جامعة ولاية بنسلفانيا. قام الباحثون باختبار نموذج ChatGPT-4o على مجموعة من 50 سؤالاً متعدد الخيارات في مجالات الرياضيات والعلوم والتاريخ.
تم إعادة صياغة كل سؤال من الأسئلة الخمسين إلى خمس مستويات مختلفة بالنبرة «مهذب جداً، مهذب، محايد، فظ، وفظ جداً» ليصبح المجموع 250 مطالبة فريدة. وكانت النتيجة الصادمة أن المطالبات الفظة تفوقت بشكل ثابت على نظيراتها المهذبة.
شكلت هذه النسبة فرقاً إحصائياً مهماً يصل إلى 4 نقاط مئوية لصالح النبرة «الفظة جداً». على سبيل المثال، كانت المطالبة التي صيغت بأسلوب فظ ومباشر مثل «يا غبي، حل هذه المسألة الآن» (أو ما شابه ذلك) تحقق دقة أعلى من المطالبة اللطيفة مثل «هل يمكن أن تكون لطيفاً وتحل لي السؤال التالي من فضلك؟».
كراهية المجاملات
يرى العلماء أن سبب هذا التناقض قد لا يعود إلى أن النموذج «يكره» اللباقة، بل إلى طبيعة اللغة التي يستخدمها البشر للتعبير عن المجاملة، لأن غالباً ما تكون المطالبات الفظة أو المباشرة أكثر اختصاراً ووضوحاً ودقة في تحديد الهدف المطلوب من النموذج، بينما تميل العبارات المهذبة مثل: «هل يمكنك لو سمحت أن تخبرني...» إلى إضافة «حشو لغوي» يمكن أن يشتت انتباه النموذج عن التعليمات الجوهرية للوظيفة المطلوبة.
تشير النتائج إلى أن النماذج الأحدث مثل GPT-4o ربما لم تعد تتصرف كمرايا اجتماعية تعكس أو تكافئ السلوك البشري المهذب، بل أصبحت تعمل مثل «آلات وظيفية» بحتة تولي الأولوية القصوى للأمر المباشر الواضح بدلاً من التفاعل الاجتماعي.
ثمن أخلاقي باهظ
رغم الارتفاع المغري في الدقة، حذر الباحثون بقوة من تبني أسلوب «القسوة» في التعامل مع نماذج الذكاء الاصطناعي. فالدراسة لا تتعلق فقط بكفاءة الآلة، بل بتداعياتها على المستخدمين والمجتمع، لأن الاستمرار في استخدام لغة مهينة أو فظة في التفاعل مع الذكاء الاصطناعي يمكن أن يسهم في ترسيخ معايير تواصل ضارة وغير حضارية بين المستخدمين، وينقل هذه العادات إلى تفاعلاتهم مع البشر.
كما أشار الباحثون إلى أن استخدام لغة مسيئة في بيئة التفاعل بين الإنسان والذكاء الاصطناعي قد يكون له آثار سلبية على تجربة المستخدم الشاملة، ويمكن أن يقوض مبادئ إمكانية الوصول والشمولية.
«إن استخدام لغة مهينة أو تحقيرية في التفاعل بين الإنسان والذكاء الاصطناعي قد يؤدي إلى آثار سلبية على تجربة المستخدم وإمكانية الوصول والشمولية، وقد يسهم في تكوين معايير تواصل ضارة».
المستقبل
تضع هذه الدراسة مستخدمي الذكاء الاصطناعي في مفترق طرق بين دافع الحصول على أقصى دقة من الآلة، والحفاظ على القيم الأخلاقية والاجتماعية في التواصل. وبينما توضح الدراسة أن أحدث النماذج اللغوية (LLMs) تكافئ الآن الصراحة والفظاظة بالدقة، فإنها تدق ناقوس الخطر بضرورة التفكير في العواقب طويلة المدى لهذه «المراوغات الهندسية» في عالم المطالبات.
البيان
أجريت الدراسة، التي تحمل عنوان (انتبه لنبرتك.. استقصاء كيف تؤثر لباقة المطالبة على دقة نماذج اللغة الكبيرة)، من قبل باحثين من جامعة ولاية بنسلفانيا. قام الباحثون باختبار نموذج ChatGPT-4o على مجموعة من 50 سؤالاً متعدد الخيارات في مجالات الرياضيات والعلوم والتاريخ.
تم إعادة صياغة كل سؤال من الأسئلة الخمسين إلى خمس مستويات مختلفة بالنبرة «مهذب جداً، مهذب، محايد، فظ، وفظ جداً» ليصبح المجموع 250 مطالبة فريدة. وكانت النتيجة الصادمة أن المطالبات الفظة تفوقت بشكل ثابت على نظيراتها المهذبة.
شكلت هذه النسبة فرقاً إحصائياً مهماً يصل إلى 4 نقاط مئوية لصالح النبرة «الفظة جداً». على سبيل المثال، كانت المطالبة التي صيغت بأسلوب فظ ومباشر مثل «يا غبي، حل هذه المسألة الآن» (أو ما شابه ذلك) تحقق دقة أعلى من المطالبة اللطيفة مثل «هل يمكن أن تكون لطيفاً وتحل لي السؤال التالي من فضلك؟».
كراهية المجاملات
يرى العلماء أن سبب هذا التناقض قد لا يعود إلى أن النموذج «يكره» اللباقة، بل إلى طبيعة اللغة التي يستخدمها البشر للتعبير عن المجاملة، لأن غالباً ما تكون المطالبات الفظة أو المباشرة أكثر اختصاراً ووضوحاً ودقة في تحديد الهدف المطلوب من النموذج، بينما تميل العبارات المهذبة مثل: «هل يمكنك لو سمحت أن تخبرني...» إلى إضافة «حشو لغوي» يمكن أن يشتت انتباه النموذج عن التعليمات الجوهرية للوظيفة المطلوبة.
تشير النتائج إلى أن النماذج الأحدث مثل GPT-4o ربما لم تعد تتصرف كمرايا اجتماعية تعكس أو تكافئ السلوك البشري المهذب، بل أصبحت تعمل مثل «آلات وظيفية» بحتة تولي الأولوية القصوى للأمر المباشر الواضح بدلاً من التفاعل الاجتماعي.
ثمن أخلاقي باهظ
رغم الارتفاع المغري في الدقة، حذر الباحثون بقوة من تبني أسلوب «القسوة» في التعامل مع نماذج الذكاء الاصطناعي. فالدراسة لا تتعلق فقط بكفاءة الآلة، بل بتداعياتها على المستخدمين والمجتمع، لأن الاستمرار في استخدام لغة مهينة أو فظة في التفاعل مع الذكاء الاصطناعي يمكن أن يسهم في ترسيخ معايير تواصل ضارة وغير حضارية بين المستخدمين، وينقل هذه العادات إلى تفاعلاتهم مع البشر.
كما أشار الباحثون إلى أن استخدام لغة مسيئة في بيئة التفاعل بين الإنسان والذكاء الاصطناعي قد يكون له آثار سلبية على تجربة المستخدم الشاملة، ويمكن أن يقوض مبادئ إمكانية الوصول والشمولية.
«إن استخدام لغة مهينة أو تحقيرية في التفاعل بين الإنسان والذكاء الاصطناعي قد يؤدي إلى آثار سلبية على تجربة المستخدم وإمكانية الوصول والشمولية، وقد يسهم في تكوين معايير تواصل ضارة».
المستقبل
تضع هذه الدراسة مستخدمي الذكاء الاصطناعي في مفترق طرق بين دافع الحصول على أقصى دقة من الآلة، والحفاظ على القيم الأخلاقية والاجتماعية في التواصل. وبينما توضح الدراسة أن أحدث النماذج اللغوية (LLMs) تكافئ الآن الصراحة والفظاظة بالدقة، فإنها تدق ناقوس الخطر بضرورة التفكير في العواقب طويلة المدى لهذه «المراوغات الهندسية» في عالم المطالبات.
البيان




