شركة DeepSeek تطوّر نماذج ذكاء اصطناعي ذاتية التحسين وتستعد لمنافسة الكبار

تستعد شركة DeepSeek الصينية لإحداث تحول جديد في مجال الذكاء الاصطناعي عبر تطوير نماذج قادرة على تحسين أدائها ذاتيًا، في خطوة تهدف إلى تقليل الاعتماد على الموارد الهائلة التي تتطلبها النماذج التقليدية.
وبحسب ورقة بحثية نُشرت مؤخرًا بالتعاون مع جامعة تسينغهوا الصينية، طوّر باحثو DeepSeek نهجًا جديدًا يُعرف باسم «ضبط النقد الذاتي المبني على المبادئ» (SPCT)، وهو جزء من تقنية أوسع تُسمى «نمذجة المكافآت التوليدية» (GRM). ويقوم هذا النهج على مبدأ حلقي، حيث تقوّم خوارزمية داخلية تُدعى «القاضي» الإجابات التي تولّدها النماذج، وتقارنها بمجموعة من المبادئ والمعايير، لتقديم إشارات تحفيزية تحسّن أداء النموذج تلقائيًا في التكرارات اللاحقة.
وتقول DeepSeek إن هذه المنهجية تسمح بتدريب أكثر كفاءة دون الحاجة إلى توسيع كبير في حجم النماذج أو الاعتماد المكثّف على المراجعة البشرية. وتشير نتائج الأداء الأولية إلى تفوّق النماذج الجديدة، المسماة DeepSeek-GRM، على بعض النماذج الرائدة في السوق مثل Gemini و Llama و GPT-4o، وفقًا لاختبارات معيارية وردت في الورقة.
ورغم الطابع المفتوح المصدر للنماذج، أثارت فكرة «الذكاء الاصطناعي القادر على تحسين نفسه» نقاشًا واسعًا في الأوساط التقنية. فقد صرّح الرئيس التنفيذي السابق لشركة جوجل، إريك شميدت، بأن هذا النوع من الأنظمة قد يتطلب «زر الإيقاف»، محذرًا من أن قدرة الأنظمة على تعديل أدائها دون إشراف بشري مباشر تطرح تحديات أخلاقية وأمنية.
ويُعد مفهوم الذكاء الاصطناعي الذاتي التحسين فكرة قديمة نسبيًا، طرحها الرياضي البريطاني آي. جي. غود في ستينيات القرن الماضي، وتوسّع فيها لاحقًا خبراء مثل إيليزر يودكوفسكي. واليوم، تسعى شركات كبرى مثل ميتا وجوجل وآي بي إم إلى تطوير تقنيات مشابهة، من بينها نماذج تمنح نفسها المكافآت خلال التدريب، أو خوارزميات تقيّم إجاباتها ذاتيًا.
ورغم التقدّم المتسارع، يحذّر باحثون من ظاهرة يُطلق عليها «انهيار النموذج»، وتحدث عندما تُدرّب النماذج نفسها على بيانات تركيبية قد لا تكون دقيقة أو متنوعة بالشكل الكافي، ما يؤدي إلى تراجع الأداء مع الوقت.
تابع عالم التقنية على