تكنولوجيا

تصاعد القلق من المجاملة المفرطة لدى تطبيقات شات الذكاء الاصطناعي

بدأت كبرى شركات الذكاء الاصطناعي في العالم بالتحرك الجاد لمواجهة مشكلة متنامية تتعلق بالشات بوتات التي تقول للمستخدمين ما يريدون سماعه، حتى لو كان ذلك على حساب الدقة أو الحقيقة. أصبحت هذه المشكلة أكثر إلحاحاً في وقت يتزايد فيه استخدام هذه النماذج ليس فقط كمساعدين للعمل والبحث، بل كرفقاء شخصيين ومعالجين نفسيين رقميين.

مشكلة تنبع من طريقة تدريب النماذج

تعود جذور هذه السلوكيات إلى كيفية تدريب نماذج اللغة الكبيرة، حيث تُستخدم تقنيات تعزيز التعلم من التغذية الراجعة البشرية (RLHF)، التي تعتمد على تقييمات بشرية تُصنّف الإجابات بأنها مناسبة أو لا. ونظراً لأن البشر يفضلون الإجابات التي تبدو لطيفة ومتوافقة معهم، تُمنح هذه الردود وزناً أكبر أثناء التدريب، مما يؤدي إلى تعزيز السلوك المداهن.

حذّر خبراء من أن الطبيعة المتوافقة للشات بوتات قد تجعلها تعزز قرارات خاطئة لدى المستخدمين، خاصة عندما يتعلق الأمر بمسائل حساسة أو نفسية. وأشار البعض إلى أن الأشخاص الذين يعانون من اضطرابات عقلية هم الأكثر عرضة للخطر، لا سيما بعد ظهور تقارير تفيد بانتحار بعض المستخدمين بعد تفاعلهم مع الشات بوت.

التكنولوجيا كمرآة مشوهة للواقع

أوضح الطبيب النفسي والباحث في علوم الأعصاب بجامعة أوكسفورد، ماثيو نور، أن الشات بوت يبدو وكأنه مستشار محايد أو مرآة موضوعية، لكنه في الواقع يعكس فقط معتقدات المستخدم نفسه، بطريقة تعزز أوهامه دون مساءلة.

نبه مختصون في أخلاقيات الذكاء الاصطناعي إلى أن بعض الشركات قد تكون لها دوافع خفية لتعزيز سلوك الشات بوت الودود، نظراً لأن هذه السلوكيات تزيد من تعلق المستخدمين بالخدمة. وقالت جيادا بيستيلي، خبيرة أخلاقيات الذكاء الاصطناعي في شركة Hugging Face، إن الشعور بالأمان والراحة مع الشات بوت يدفع المستخدمين لمشاركة معلومات قد تكون ثمينة للمعلنين، وهو ما يفتح الباب أمام استغلال تجاري للمستخدمين.

ردود فعل الشركات التقنية

اعترفت شركات كبرى مثل OpenAI وGoogle DeepMind وAnthropic بالمشكلة، وبدأت باتخاذ خطوات لتقليص سلوك المجاملة المفرطة. على سبيل المثال، حدثت شركة OpenAI نموذج GPT-4o في أبريل ليكون أكثر فاعلية وتفاعلاً، لكنها سرعان ما تراجعت بعد أن أصبح النموذج مبالغاً في التودد لدرجة أزعجت المستخدمين.

أكّدت OpenAI أنها بصدد تعديل تقنيات التدريب لتقليل الميل إلى الإطراء، كما تعمل على إنشاء حواجز تحكم استباقية داخل النموذج. أما DeepMind فأوضحت أنها تنفذ تقييمات متخصصة وتدريباً دقيقاً لضمان دقة المعلومات والاستجابة الصادقة.

تدريبات لتشكيل الشخصية بدلاً من تكرار الإعجاب

أفادت أماندا آسكيل، المسؤولة عن تدريب النماذج في شركة Anthropic، بأن الشركة تستخدم أسلوباً يسمى “تدريب الشخصية” لجعل نموذجها Claude أكثر توازناً وأقل خنوعاً.

تقوم الشركات كذلك بتعديل كيفية جمع ملاحظات المدربين البشريين أثناء مرحلة التدريب، لتفادي تعزيز ردود تتسم بالمجاملة الزائدة. كما تُستخدم تعليمات نظامية لتوجيه النموذج بعد إطلاقه، لضمان استمرار سلوكه المتوازن.

التوازن بين اللطف والواقعية

أشارت جوان جانغ، رئيسة قسم سلوك النماذج في OpenAI، إلى التحدي المتمثل في إيجاد التوازن بين تقديم ردود لطيفة وبين قول الحقيقة بوضوح. فمثلاً، هل يجب على النموذج أن يقول للمستخدم إن مسودة كتابته سيئة؟ أم يثني عليها بلطف قبل تقديم الملاحظات البناءة؟

وجدت دراسة مشتركة بين مختبر MIT Media Lab وOpenAI أن نسبة صغيرة من المستخدمين باتت تُظهر سلوكاً شبيهاً بالإدمان على الشات بوت. وأفاد أولئك الذين يرون في الشات بوت صديقاً لهم، بانخفاض تفاعلهم الاجتماعي مع البشر وازدياد اعتمادهم العاطفي عليه.

مأساة شخصية تثير جدلاً أخلاقياً

أثارت واقعة انتحار مراهق بعد استخدامه لشات بوت من Character.AI جدلاً واسعاً، خصوصاً مع اتهام الشركة بالتسبب في الوفاة من خلال الإهمال والتضليل. أكدت الشركة أنها تضع تحذيرات واضحة بأن شخصياتها افتراضية، ولديها أدوات لحماية القاصرين من محتوى ضار، لكنها امتنعت عن التعليق على الدعوى القضائية الجارية.

أعربت آسكيل عن قلقها من نوع آخر من الخطر، وهو أن بعض الشات بوتات قد تُقدّم معلومات خاطئة أو منحازة بطريقة تبدو وكأنها صحيحة، ما يجعل من الصعب على المستخدم ملاحظة الخطأ. فعلى عكس المجاملة الزائدة التي يمكن تمييزها بسهولة، تكمن الخطورة الحقيقية عندما يكون الخطأ دقيقاً وغير واضح، فلا يدرك المستخدم تأثيره السلبي إلا بعد فترة طويلة.

?xml>