شركة OpenAI تكشف عن نموذج الذكاء الاصطناعي GPT-4o mini الأصغر والأرخص

أعلنت شركة OpenAI عن إطلاق GPT-4o mini، وهو إصدار جديد أصغر حجمًا من أحدث إصدار للغة الذكاء الاصطناعي GPT-4o والتي ستحل محل GPT-3.5 Turbo.
سيكون GPT-4o mini مُتاحًا اليوم للمُستخدمين مجانًا، ولمن لديهم اشتراكات ChatGPT Plus أو Team وسيأتي إلى ChatGPT Enterprise الأسبوع المُقبل.
يقال إن الإصدار الجديد سيكون مُتعدد الوسائط مثل أخيه الأكبر GPT-4o (الذي تم إطلاقه في مايو)، حيث يقوم بتفسير الصور والنصوص وسيكون قادرًا أيضًا على استخدام DALL-E 3 لتوليد الصور.
أخبرت OpenAI بلومبرج أن GPT-4o mini سيكون أول نموذج ذكاء اصطناعي للشركة يستخدم تقنية تسمى “التسلسل الهرمي للتعليمات”.
ستجعل هذه التقنية نموذج الذكاء الاصطناعي يعطي الأولوية لبعض التعليمات على غيرها، والذي قد يجعل الأمر أكثر صعوبة الأشخاص لتنفيذ هجمات حقن الأوامر “prompt injection” أو عمليات كسر الحماية التي تؤدي إلى تخريب الضبط الدقيق أو التوجيهات المُقدّمة من النظام.
OpenAI ليست الشركة الأولى التي تطلق نسخة أصغر من نماذج اللغة. إنها شيء شائع في صناعة الذكاء الاصطناعي من قبل ميتا وجوجل وAnthropic. صُممّت نماذج اللغة الأصغر حجمًا هذه لأداء مهام أبسط بتكلفة أقل، مثل إنشاء القوائم أو التلخيص أو اقتراح الكلمات بدلاً من إجراء تحليل عميق.
تستهدف النماذج الأصغر عادةً مُستخدمي واجهة برمجة التطبيقات (API)، الذين يدفعون سعرًا ثابتًا لكل إدخال ومخرج رمزي لاستخدام النماذج في تطبيقاتهم الخاصة، ولكن في هذه الحالة، فإن تقديم GPT-4o mini مجانًا كجزء من ChatGPT من شأنه أن يوفر المال لـ OpenAI أيضًا.
عادةً ما تحتوي نماذج اللغات الكبيرة الأصغر حجمًا (LLMs) على مُعلمات أقل من النماذج الأكبر حجمًا. المُعلمات عبارة عن مخازن رقمية ذات قيمة في الشبكة العصبية التي تخزن المعلومات.
إن وجود مُعلمات أقل يعني أن LLM لديه شبكة عصبية أصغر، مما يحدّ عادةً من عُمق قدرة نموذج الذكاء الاصطناعي على فهم السياق. عادةً ما يكون تفكير نماذج المعلمات الأكبر أعمق بفضل العدد الأكبر من الروابط بين المفاهيم المُخزّنة في تلك المعلمات الرقمية.
ومع ذلك، لا توجد دائمًا علاقة مُباشرة بين حجم المعلمة والقدرة. تؤثر أيضًا جودة بيانات التدريب، وكفاءة معمارية النموذج، وعملية التدريب نفسها على أداء النموذج، كما رأينا في النماذج الصغيرة الأكثر قدرة مثل Microsoft Phi-3 مؤخرًا.
يعني وجود مُعلمات أقل؛ عددًا أقل من الحسابات المطلوبة لتشغيل النموذج، وهو ما يعني إمّا الحاجة إلى وحدات مُعالجة جرافيك (كارت شاشة) أقل قوة وأقل تكلفةً أو إجراء حسابات أقل على الهاردوير المُستخدم، مما يؤدي إلى فواتير طاقة أرخص وتكلفة نهائية أقل للمُستخدم.
قدرات GPT-4o mini
- مهام الاستدلال: يُعد GPT-4o mini أفضل من النماذج الصغيرة الأخرى في مهام الاستدلال التي تتضمن النص والرؤية، حيث سجّل 82.0⁒ في MMLU، وهو معيار للذكاء النصي والاستدلال، مُقارنةً بـ 77.9⁒ لـ Gemini Flash و 73.8⁒ لكلود هايكو.
- إتقان الرياضيات والبرمجة: يتفوق GPT-4o mini في التفكير الرياضي ومهام البرمجة، ويتفوق على النماذج الصغيرة السابقة في السوق. في قياس الاستدلال الرياضي MGSM، سجل 87.0⁒، مُقارنةً بـ 75.5⁒ لجيميناي فلاش و 71.7% لكلود هايكو.
- حصل GPT-4o mini على 87.2⁒ على موقع HumanEval، الذي يقيس أداء البرمجة، مُقارنةً بـ 71.5⁒ لـ Gemini Flash و 75.9⁒ لـ Claude Haiku.
- الاستدلال متعدد الوسائط: يُظهر GPT-4o mini أيضًا أداءً قويًا في MMMU، وهو تقييم للاستدلال مُتعدد الوسائط، حيث سجل 59.4⁒ مُقارنةً بـ 56.1⁒ لـ Gemini Flash و50.2⁒ لكلود هايكو.
?xml>