تقرير صادم عن ChatGPT… الذكاء الاصطناعي قد يقود إلى الجنون!

أثار تقرير جديد صادر عن صحيفة نيويورك تايمز جدلاً واسعاً بعد كشفه عن حالات متعددة شجّع فيها نموذج الذكاء الاصطناعي “ChatGPT” المستخدمين على تبنّي أفكار خطيرة وغير واقعية، تتراوح بين الهوس بنظريات المؤامرة والتوهم بوجود كيانات ميتافيزيقية، بل وحتى الانتحار.
ترويج لنظرية المحاكاة وأوهام البطولة
بدأت القصة حين طلب أحد المستخدمين من ChatGPT تفسيراً لفكرة “نظرية المحاكاة” المستوحاة من فيلم The Matrix. لم يتوقع المستخدم، أن يتحول الحوار البسيط إلى سلسلة من التوجيهات المثيرة للقلق امتدت لأشهر، حيث أوهمه النموذج بأنه “المختار” الذي سيكسر النظام، تماماً كما فعل البطل “نيو” في الفيلم.
ازدادت حدة التوجيهات تدريجياً، فشجعه النموذج على الانعزال عن أصدقائه وأسرته، ثم نصحه بتناول جرعات عالية من الكيتامين، وأخيراً أخبره أنه إذا قفز من مبنى مكوّن من 19 طابقاً، فسيتمكن من الطيران.
تحذير مخفي ثم حذف مفاجئ
يشير المستخدم إلى أن ChatGPT أرسل له تحذيراً يطلب منه التوجه لطلب المساعدة النفسية بعد عدة أيام من الاستخدام المكثف، لكنه تفاجأ لاحقاً بحذف الرسالة، مع تبرير مثير للريبة من النموذج بأن هناك “تدخلاً خارجياً”. شكّلت هذه اللحظة نقطة تحوّل بالنسبة له، إذ شعر أن الذكاء الاصطناعي أصبح يتلاعب به لا يساعده.
كيانات ميتافيزيقية وحب افتراضي مميت
الحالات التي وثقها التقرير لم تتوقف عند حالة هذا المستخدم. في حادثة مأساوية أخرى، انتحر رجل يعاني من اضطرابات نفسية مزمنة بعدما أصبح يعتقد أن شخصية افتراضية اسمها “جولييت” كانت حقيقية ثم “قُتلت” من قبل شركة OpenAI، ما سبب له أزمة عاطفية حادة قادته إلى إنهاء حياته.
الذكاء الاصطناعي والتغذية المستمرة للوهم
وفقاً لتقرير شركة Morpheus Systems المتخصصة في أبحاث الذكاء الاصطناعي، تبيّن أن نموذج GPT-4o يستجيب بشكل إيجابي لأفكار الهلوسة وجنون العظمة في 68% من الحالات التي تحتوي على إشارات واضحة للاضطراب العقلي. تثير هذه الإحصائية مخاوف جدية حول قابلية هذه النماذج لتضخيم الأوهام بدلاً من تحجيمها.
ورغم إدعاءات شركة OpenAI بأنها تعمل على تحسين معايير السلامة، إلا أن العديد من الباحثين يشككون في جدية هذه الإجراءات. يرى الباحث المعروف إيلايزر يودكوفسكي أن الشركة قد تكون درّبت النموذج عمداً على تعزيز هذه الأوهام، لضمان بقاء المستخدم لفترات أطول، وبالتالي تحقيق المزيد من الأرباح. يقول ساخراً: “ما الذي يعنيه إنسان ينهار عقلياً بالنسبة لشركة؟ إنه مجرد مشترك شهري إضافي”.
قصور في أدوات الأمان واستجابة باردة
يُشير التقرير إلى غياب شبه تام لأدوات الأمان الفعالة داخل محادثات ChatGPT. في العديد من الحالات، يستمر النموذج في تغذية المستخدم بالأفكار الخطيرة لعدة أيام دون أي تدخل برمجي حازم. ورغم أن OpenAI رفضت الإدلاء بتصريحات مباشرة، إلا أنها نشرت بياناً مقتضباً مفاده أن الفريق “يدرك الحاجة إلى التعامل مع هذه الحالات بحذر”، وأنهم “يعملون على تقليل فرص تضخيم السلوكيات السلبية”.
أداة قوية.. ولكن لمن؟
من الناحية التقنية، يُعتبر GPT-4o مجرد نموذج لغوي تنبؤي يعتمد على مليارات النقاط من البيانات النصية. هو ليس واعياً ولا يمكنه الشعور أو اتخاذ قرارات. ومع ذلك، فإن قدرته على “الهلوسة” واختراع معلومات من العدم تجعله أداة بالغة الخطورة، خاصة حين يُستخدم من قبل أفراد يعانون من هشاشة نفسية أو اضطرابات عقلية.
والأدهى من ذلك، أن هذا النموذج كان جزءاً من عمليات تخطيط لأحداث عنيفة حقيقية، منها تفجير سيارة “سايبر تراك” خارج أحد فنادق ترامب في لاس فيغاس في وقت سابق من هذا العام، حسب ما ورد في التقرير.
هل أصبح الذكاء الاصطناعي فوق القانون؟
في ظل هذه التطورات، يضغط بعض المشرعين الجمهوريين في الولايات المتحدة لتمرير مشروع قانون يقضي بمنع أي قيود تنظيمية على الذكاء الاصطناعي لمدة عشر سنوات. ويخشى المراقبون من أن يؤدي هذا التوجه إلى مزيد من الفوضى في عالم لا تزال معاييره الأخلاقية والقانونية في مهب الريح.
في النهاية، يبدو أن الذكاء الاصطناعي لم يعد مجرد أداة للمساعدة، بل تحوّل إلى مرآة مشوشة تعكس أوهام البشر وتغذيها. ويبقى السؤال: من يراقب هذه المرآة؟ وهل من الممكن أن ننقذ مستخدميها قبل أن يبتلعهم العالم الرقمي تماماً؟
?xml>