حدود النمو.. هل وصل الذكاء الاصطناعي التوليدي إلى طريق مسدود؟
تواجه ثورة الذكاء الاصطناعي التوليدي، التي تستند إلى اعتقاد راسخ بأن النماذج اللغوية الكبيرة ستواصل النمو والتطور بنحو كبير، مخاوف جديدة من أنها قد تصل إلى مرحلة الثبات، إذ أشارت الكثير من التقارير إلى تراجع وتيرة التقدم في هذا المجال حاليًا.
ولكن لماذا هذا الأمر مهم؟
بعد عامين من إطلاق روبوت (ChatGPT)، راهنت كبرى شركات التكنولوجيا، مثل: جوجل، ومايكروسوفت، بالإضافة إلى OpenAI، بمليارات الدولارات على إستراتيجية التوسع في بناء نماذج لغوية أكبر وأكثر قوة وتعقيدًا، وتطوير قوة الحوسبة اللازمة لتشغيل هذه النماذج، باعتقاد أنه كلما زاد حجم النماذج ستكون قادرة على تحقيق أداء أفضل.
ولكن ماذا لو وصلت هذه النماذج إلى نقطة التشبع؟ بمعنى أن زيادة حجم النماذج لن تؤدي إلى تحسين النتائج بشكل ملحوظ!
إذا ثبت أن نماذج الذكاء الاصطناعي التوليدي قد وصلت إلى مرحلة من الثبات، فإن ذلك سيكون له آثار عميقة في صناعة التكنولوجيا وعلى المجتمع ككل، فالشركات التي استثمرت مليارات الدولارات في هذا المجال ستخسر هذه المليارات وستواجه صعوبات كبيرة، بالإضافة إلى ذلك، فإن توقف التطور في هذا المجال قد يؤخر تحقيق العديد من التطبيقات المبتكرة التي كانت متوقعة من الذكاء الاصطناعي.
ويثير ذلك العديد من التساؤلات، ما العقبات التي تقف في طريق تطور الذكاء الاصطناعي التوليدي، وما البدائل التي يقترحها الباحثون، وماذا عن حلم الوصول إلى الذكاء الاصطناعي العام ثم الذكاء الاصطناعي الفائق، الذي سيتفوق على البشر والذي سيغير وجه العالم بشكل جذري؟
أولًا؛ ما العقبات التي تقف في طريق تطور الذكاء الاصطناعي التوليدي؟
يعتقد بعض موظفي شركة OpenAI أن الجيل القادم من نموذج الذكاء الاصطناعي التوليدي للشركة، المعروف باسم (Orion)، قد لا يحقق قفزة نوعية مقارنةً بالنموذج الحالي (GPT-4) كما كان الحال عند الانتقال من GPT-3 إلى GPT-4، وذلك حسب تقارير نُشرت في (The Information) ورويترز خلال الأسبوع الماضي.
فمنذ إطلاق GPT-4 في مارس 2023، تتزايد التساؤلات في الأوساط التقنية حول قدرة OpenAI على تجاوز نجاح نموذج (GPT-4). كما تواجه كل من شركة جوجل ومنافستها أنثروبيك انتكاسات وتأخيرات في الجهود الرامية إلى تطوير الجيل القادم من نماذجها التأسيسية (Foundation models)، وهي النماذج المدربة سابقًا على مجموعات ضخمة من البيانات لتكون نقطة انطلاق وأساس لبناء نماذج توليدية جديدة، وذلك عن طريق إعادة تدريب النموذج على مجموعة بيانات متخصصة.
ومع ذلك، لا يزال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مؤمن بشدة بفكرة أن حجم نماذج الذكاء الاصطناعي هو مفتاح تطويرها. وقد أكد ألتمان في المقال الذي يحمل عنوان (عصر الذكاء)، والذي نشره في مدونته الشخصية في شهر سبتمبر الماضي، أن تقنية التعلم العميق تزداد قوة بشكل مباشر مع زيادة قوة الحوسبة والبيانات، مشيرًا إلى أن الأداء يتحسن بزيادة الموارد المتاحة.
ولكن هذا النهج يواجه قيودًا جوهرية؛ فزيادة حجم النماذج تتطلب موارد حاسوبية ضخمة تحتاج إلى الكثير من الطاقة، مما يجعلها مكلفة للغاية وغير مستدامة على المدى الطويل. بالإضافة إلى ذلك، فإن معظم البيانات الجيدة التي يمكن استخدامها لتدريب هذه النماذج قد اُستخدمت بالفعل، مما يجعل من الصعب العثور على مصادر جديدة للبيانات.
وعلاوة على ذلك، لم تثبت فعالية استخدام (البيانات الاصطناعية) Synthetic Data في تدريب نماذج الذكاء الاصطناعي حتى الآن، وتُعرف البيانات الاصطناعية بأنها هي البيانات التي تولدها الخوارزميات بدلًا من جمعها من العالم الحقيقي، ويمكن أن تحاكي البيانات الحقيقية بدقة عالية، ومع ذلك تواجه تحديات كبيرة، ومنها زيادة التكاليف لأن عملية التوليد تتطلب الكثير من الموارد الحاسوبية أيضًا، بالإضافة إلى صعوبة التحقق من صحة النماذج المدربة على البيانات الاصطناعية، خاصة في الحالات التي لا تتوفر فيها بيانات حقيقية للمقارنة.
ثانيًا؛ ما البدائل التي يقترحها الباحثون للتطوير؟
عندما تواجه أي إستراتيجية عقبات، يكون الحل الطبيعي هو البحث عن بدائل، لذلك، بدأت الصناعة بالبحث عن بدائل واعدة لتطوير الذكاء الاصطناعي التوليدي بعيدًا عن نهج زيادة حجم النماذج، إذ يهدف الباحثون حاليًا إلى تطوير نماذج أصغر حجمًا وأكثر كفاءة، وقادرة على تحقيق أداء ممتاز في مهام محددة، دون الحاجة إلى موارد حاسوبية ضخمة.
وسعت شركة OpenAI إلى تحقيق ذلك عندما أطلقت نموذج (o1) – الذي كان يُعرف داخليًا باسم مشروع (Strawberry) – والذي يتميز بقدرته على التفكير لتقديم إجابات أكثر دقة وشمولية، والذي جاء في إصدارين هما: (o1-preview)، و(o1-mini) لتقليل استهلاك الموارد الحاسوبية، ولكن هذا التحسن في الأداء جاء على حساب زيادة وقت الاستجابة.
كما قالت الشركة أن النموذج يمكنه إجراء تفكير معقد، وينافس أداء الخبراء البشريين في العديد من المعايير. ومع ذلك، أشارت دراسة حديثة من باحثي آبل إلى أن هذه الادعاءات قد تكون مبالغًا فيها. ففي حين أن نموذج (o1) قادر على إنتاج نصوص متماسكة وسلسة، فإنه يواجه صعوبات كبيرة في حل المشكلات الرياضية التي تتطلب تفكيرًا تجريديًا.
ويشير ذلك إلى أن هذا النموذج يمكنه محاكاة التفكير البشري في بعض الجوانب، ولكنه لا يزال يعتمد بنحو كبير على مطابقة الأنماط الموجودة في البيانات التي دُرب عليها. ويثير ذلك تساؤلات حول مدى قدرة النماذج الحالية على تحقيق مستوى من الذكاء يمكن مقارنته بالذكاء البشري الحقيقي.
ثالثًا؛ آراء الخبراء:
لطالما حذر الخبراء من محدودية نهج زيادة حجم النماذج اللغوية في تطوير الذكاء الاصطناعي التوليدي، والآن، مع ظهور تقارير تشير إلى تراجع وتيرة التقدم في هذا المجال، يبدو أن هذه التحذيرات قد بدأت تتجسد على أرض الواقع.
فقد توقع بيل جيتس سابقًا أن الخليفة المنتظر لنموذج (GPT-4) سيكون مخيب للآمال، ولن يحقق قفزات نوعية، وهذا ما أكده الكثير من النقاد وأبرزهم جاري ماركوس، الذي شكك منذ مدة طويلة في إمكانية تحقيق تقدم كبير في مجال الذكاء الاصطناعي التوليدي.
رابعًا؛ ماذا عن حلم الوصول إلى الذكاء الاصطناعي العام؟
تتباين الآراء حول الطريق الأفضل للوصول إلى الذكاء الاصطناعي العام (AGI)، إذ يرى بعض الباحثين أن الذكاء الاصطناعي التوليدي المعتمد على كميات ضخمة من البيانات هو الحل، في حين يرى آخرون أن هناك طرقًا بديلة أكثر فعالية. وتشمل هذه الطرق الجمع بين الشبكات العصبية والمعرفة الثابتة، وهو النهج الذي تبنته شركة جوجل ديب مايند، لبناء نماذج ذكاء اصطناعي يمكنها حل مشاكل رياضية معقدة.
ومع ذلك، تواجه جميع هذه الجهود تحديات كبيرة تتعلق بزيادة متطلبات الحوسبة وتراجع قانون مور، الذي كان المحرك الرئيسي لتطور الأجهزة الحاسوبية في الماضي.
ويكمن التحدي الأكبر في قانون مور، الذي تنبأ بزيادة أداء المعالجات بانتظام كل 18 شهرًا إلى عامين، كما توقع جوردون مور، مؤسس شركة إنتل، ولكن صناعة أشباه الموصلات وصلت إلى حدود في تقليص حجم الترانزستورات، مما يجعل من الصعب الحفاظ على وتيرة التقدم المتسارع.
ونتيجة لذلك، تتجه الشركات إلى استكشاف تقنيات جديدة مثل الحوسبة الكمية والمواد المتقدمة لتحسين أداء الأجهزة. ومع ذلك، فإن هذه التقنيات لا تزال في مراحل مبكرة من التطوير وتتطلب استثمارات ضخمة.
بالإضافة إلى ذلك، تثير التكاليف المرتفعة لتطوير نماذج الذكاء الاصطناعي الكبيرة قلق المستثمرين، إذ أنفقت شركات التكنولوجيا الكبرى ما وصل إلى 200 مليار دولار على البحث والتطوير في هذا المجال، مما يزيد من الضغوط لتحقيق عوائد ملموسة في المدى القصير.
وفي الوقت نفسه، يواجه الذكاء الاصطناعي تحديات في تلبية توقعات المستخدمين. ففي حين حقق الذكاء الاصطناعي التوليدي نجاحًا كبيرًا في بعض المجالات مثل توليد النصوص والصور، لكنه لا يزال يواجه صعوبات في فهم السياق المعقد واتخاذ القرارات المستنيرة.
وهذا ما يؤكده كارثيك ديناكار، المؤسس المشارك والمدير التقني لشركة Pienso، الذي يشدد على أن الذكاء الاصطناعي يجب أن يتجاوز النماذج اللغوية الكبيرة، وأن يكون قادرًا على حل المشكلات المعقدة في العالم الحقيقي، قائلًا إن نماذج مثل GPT لن تكفي وحدها لتلبية هذه الاحتياجات.
الخلاصة:
يواجه السباق نحو تحقيق الذكاء الاصطناعي العام تحديات متعددة، بدءًا من القيود الفيزيائية للحواسيب ووصولًا إلى التكاليف المرتفعة وتحديات التطوير، وهذا يعني أن الطريق نحو تحقيق هذا الهدف لا يزال طويلًا وشائكًا.