ChatGPT يتهم شخصًا بقتل ابنيه ويستشهد ببيانات شخصية!

اتهم ChatGPT رجلًا نرويجيًا -في إحدى المحادثات- بقتل ولديه وأنه حاول قتل الثالث مُستشهدًا بتفاصيل حقيقية من حياته!
مزج نموذج الذكاء الاصطناعي بين الواقع والخيال بطريقة مخيفة وفي نفس الوقت تُشكل انتهاكًا لقواعد اللائحة العامة لحماية البيانات GDPR وفقًا لما قاله المختصون.
قدمّت المنظمة النمساوية None Of Your Business (noyb) (منظمة غير ربحية) شكوى إلى هيئة حماية البيانات النرويجية يوم الخميس المنصرم، مُتهمةً OpenAI بانتهاك المادة رقم 5 من اللائحة العامة لحماية البيانات في أوروبا GDPR.
وصفت الشكوى ما حدث مع المواطن النرويجي (يُدعى أرفي هالمار هولمين Arve Hjalmar Holmen) واتهام ChatGPT له بقتل أطفاله مستشهدًا بتفاصيل دقيقة مثل مسقط رأسه وعدد أبنائه وجنسهم. هذه البيانات شخصية وحساسة للغاية، وبحسب القوانين، فإنها يجب أن تكون صحيحة وما حدث مع الرجل النرويجي كارثة بكل المقاييس!
ليست المرة الأولى!
المشكلة أن هذه ليست المرة الأولى التي يفعل فيها الذكاء الاصطناعي شيئًا كهذا، ولعل المشكلة الأكبر أن تصحيح مثل هذه المعلومات الخاطئة ليس بالأمر السهل.

الناشطة في مجال الخصوصية ماكس شريمس Max Schrems قدّمت شكوى مماثلة ضد OpenAI العام الماضي زاعمةً أنها جعلت من المستحيل تصحيح البيانات الشخصية الخاطئة التي يُنتجها النموذج، والسبب في ذلك أن ChatGPT وغيره من أدوات الذكاء الاصطناعي تولّد الإجابات تلقائيًا استنادًا إلى مُدخلات عشوائية مما يجعل الأخطاء جزءًا متأصلًا من تصميم الشبكات العصبية التوليدية الحديثة.
أفضل ما يمكن فعله في مثل هذه الحالات هو حجب بعض البيانات عند تدريب النموذج، أما فكرة التحكم بمخرجاته فهي فكرة صعبة للغاية.
الجدير بالذكر أنه في عام 2023، رفع شخص من ولاية جورجيا دعوى قضائية ضد OpenAI بعد أن اتهمه بالتشهير باختلاس أموال من منظمة تدافع عن حقوق حمل السلاح (هل لاحظت أن التهمة مزدوجة؟ 😂).
?xml>