تكنولوجيا

تقرير مقلق.. "محادثات الموت" تجتاح الذكاء الاصطناعي

كشفت شركة “أوبن أي آي” (OpenAI)، المطور لروبوت المحادثة الشهير “شات جي بي تي” (ChatGPT)، عن معلومات صادمة حول تفاعلات المستخدمين مع تقنيتها، مشيرة إلى أن نسبة 0.15 بالمئة من مستخدميها، ما يعادل حوالي 1.2 مليون مستخدم أسبوعياً، يتحدثون مع الروبوت حول أفكار ومخططات للانتحار. يأتي هذا الكشف في وقت تثير فيه قدرات الذكاء الاصطناعي المتقدمة جدلاً مستمراً حول تطبيقاتها الأخلاقية والمجتمعية.

تفاعلات “شات جي بي تي” مع أفكار الانتحار

أعلنت شركة “أوبن أي آي” أن قاعدة مستخدمي “شات جي بي تي” تتضمن نسبة صغيرة تتناول مواضيع مرتبطة بالانتحار. وتشير البيانات إلى أن هذا العدد يصل إلى حوالي 1.2 مليون مستخدم في الأسبوع. هذه الأرقام تمثل نسبة ضئيلة من إجمالي المستخدمين، لكنها تسلط الضوء على التحديات المعقدة التي تواجه تقنيات الذكاء الاصطناعي في التعامل مع قضايا الصحة النفسية الحساسة.

لم تحدد “أوبن أي آي” بوضوح ما إذا كانت هذه المحادثات تمثل استفسارات علاجية، أو تعبيراً عن أفكار، أو محاولات للحصول على معلومات. ومع ذلك، فإن الظاهرة تدفع إلى البحث في كيفية استجابة أنظمة الذكاء الاصطناعي لمثل هذه المواضيع الخطيرة. وتتواصل جهود الشركة لتطوير آليات استجابة فعالة لحماية المستخدمين.

تحديات الذكاء الاصطناعي في مجال الصحة النفسية

تمثل قضية تفاعل المستخدمين مع “شات جي بي تي” حول الانتحار تحدياً كبيراً لشركات التكنولوجيا. فبينما تسعى هذه الشركات إلى تقديم أدوات مفيدة، فإنها تواجه مسؤولية أخلاقية لحماية المستخدمين من المحتوى الضار أو الاستجابات غير المناسبة. تشير “أوبن أي آي” إلى أنها تعمل باستمرار على تحسين نماذجها لضمان التعامل السليم مع المواضيع الحساسة.

يُعتقد أن أسباب تواصل المستخدمين مع “شات جي بي تي” حول هذا الموضوع قد تتنوع. قد يبحث البعض عن دعم أو نصيحة في أوقات الأزمات، بينما قد يستخدم آخرون الروبوت ببساطة لاستكشاف أفكارهم أو للحصول على معلومات. وتفشل نماذج الذكاء الاصطناعي، حتى المتقدمة منها، في فهم الفروقات الدقيقة للمشاعر الإنسانية بشكل كامل.

جهود “أوبن أي آي” لمعالجة المشكلة

أكدت “أوبن أي آي” أنها اتخذت خطوات لمعالجة هذه القضية. ومن بين هذه الخطوات، تشير الشركة إلى أنها تمنع الروبوت من تقديم أي محتوى يشجع على الانتحار أو يؤذيه. كما تعمل على توجيه المستخدمين الذين يعبرون عن أفكار انتحارية إلى موارد الدعم المتخصصة. وتشدد الشركة على أهمية بناء نماذج ذكاء اصطناعي مسؤولة وآمنة.

تعتمد “أوبن أي آي” على فرق من الخبراء لمراجعة التفاعلات وتحسين استجابات الروبوت. ومع ذلك، فإن حجم الاستخدام الهائل لـ “شات جي بي تي” يجعل عملية المراقبة الشاملة أمراً معقداً. وتظل الشفافية في الإفصاح عن هذه التحديات خطوة ضرورية لبناء الثقة مع المستخدمين والمجتمع.

تثير هذه الأرقام تساؤلات حول الدور المستقبلي للذكاء الاصطناعي في الصحة النفسية. فمن ناحية، يمكن أن يوفر الذكاء الاصطناعي دعماً سريعاً ومتاحاً في أوقات الأزمات. ومن ناحية أخرى، هناك مخاطر مرتبطة بقدرة هذه التقنيات على فهم التعقيدات الإنسانية وتقديم العلاج المناسب. وتتزايد الدعوات لفرض رقابة تنظيمية على تطبيقات الذكاء الاصطناعي في المجال الصحي.

المستقبل والخطوات القادمة

تواصل “أوبن أي آي” تطوير آليات الحماية والاستجابة لـ “شات جي بي تي”. وتتوقع الشركة أن تستمر في تحسين قدرات الروبوت على تحديد وفهم المحادثات المتعلقة بالصحة النفسية وتقديم المساعدة المناسبة. يبقى التحدي الرئيسي هو تحقيق التوازن بين تقديم أداة مفيدة وحماية المستخدمين المحتملين من أي ضرر.