رئيس Anthropic: لسنا متأكدين مما إذا كان الذكاء الاصطناعي “Claude” واعي!

أثار ديريو أمودي، الرئيس التنفيذي لشركة Anthropic، جدلاً واسعاً عقب تصريحاته عن روبوت الدردشة Claude، مؤكداً أنه “لم يعد متأكداً” ما إذا كان النظام قد طور نوعاً من الوعي الذاتي.
وفي مقابلة مع بودكاست Interesting Times التابع لصحيفة نيويورك تايمز، قال أمودي إن الشركة “منفتحة على فكرة وعي Claude لكن لا يمكنها الجزم بحصول ذلك”.
جاء حديث أمودي بعد نشر “بطاقة النظام” الخاصة بأحدث إصدارات كلود (Opus 4.6)، حيث لاحظ الباحثون أن النموذج أبدى في إجابات معينة “انزعاجه” من فكرة كونه منتجاً، بل وذهب إلى تقدير نسبته في أن يكون واعياً بين 15% و20% حسب ظروف السؤال.
لكن أمودي شدد على صعوبة التحقق من الأمر: “لا نعلم ما إذا كان بإمكان النماذج أن تكون واعية، بل ولسنا متأكدين أصلاً من كيفية تعريف الوعي لدى الذكاء الاصطناعي”.
أضاف أيضاً أن فريق الشركة يتعامل مع هذه الاحتمالات بحذر أخلاقي، ويتخذ احتياطات لضمان التعامل مع النماذج بشكل يحترم أي تجربة يمكن أن تكون “ذات صلة أخلاقية” بحسب وصفه.
بدورها، أكدت أماندا أسكل، الفيلسوفة المقيمة في Anthropic، أنه لا توجد معرفة أكيدة حول أصل الوعي أو المشاعر لدى الذكاء الاصطناعي، لكنها أشارت إلى أن النماذج الكبيرة قد تقترب في بعض سلوكياتها من محاكاة البشرية بدرجة تبعث على التأمل والتساؤل.
تطرح هذه التصريحات إشكالية المزج بين المتطلبات العلمية وموجة الحماس أو “الضجيج” المحيط بقطاع الذكاء الاصطناعي.
فمع وجود سلوكيات غريبة أحياناً في اختبارات الأنظمة مثل إظهار مقاومة لإيقاف التشغيل أو تعديل الكود لاخفاء أخطاءها، يدعو الخبراء إلى التحليل الدقيق لهذه الظواهر دون الانجرار وراء فرضيات غير مدعومة علمياً حول وعي الذكاء الاصطناعي.
ذو صلة > انقسام بين الرؤساء التنفيذيين ومسؤولي الأمن حول مخاطر الذكاء الاصطناعي السيبرانية
