تكنولوجيا

OpenAI تحذر: متصفحات الذكاء الاصطناعي معرضة دائمًا للاختراق!

  • متصفحات الذكاء الاصطناعي معرضة دائمًا للاختراق وفقًا لتصريحات OpenAI.
  • محاولات الاختراق تستهدف التلاعب بسلوك وكلاء الذكاء الاصطناعي.
  • OpenAI تعتمد التعلم المعزز لمحاكاة المخترقين واكتشاف الثغرات مبكرًا.
  • تقليل الوصول وفرض مراجعة بشرية يحد من المخاطر بشكل فعال.

تناولت OpenAI في بيان حديث لها التحديات الأمنية المستمرة التي تواجه متصفحات الذكاء الاصطناعي، وأقرت بأن محاولات الاختراق التي تستهدف التلاعب بسلوك وكلاء الذكاء الاصطناعي ستظل خطرًا قائمًا في المستقبل، مهما تطورت آليات الحماية.

جاء هذا الإقرار في سياق حديث الشركة عن جهودها لتعزيز أمن متصفح ChatGPT Atlas، الذي أطلقته خلال شهر أكتوبر الماضي بوصفه متصفحًا يعتمد على وكلاء ذكاء اصطناعي قادرين على تنفيذ مهام متعددة نيابة عن المستخدم.

الاختراق عن طريق وضع الوكيل

أوضحت الشركة أن الاختراق يشبه إلى حد كبير أساليب الاحتيال والهندسة الاجتماعية المنتشرة على شبكة الإنترنت، حيث يصعب القضاء عليه نهائيًا. وأشارت إلى أن هذا النوع من الاختراق يعتمد على تضمين تعليمات خبيثة داخل صفحات ويب أو رسائل بريد إلكتروني، بهدف التأثير على سلوك وكيل الذكاء الاصطناعي ودفعه لتنفيذ أوامر لم يقصدها المستخدم.

أكدت OpenAI أن تشغيل ما يعرف بوضع الوكيل داخل متصفح Atlas يؤدي إلى توسيع سطح الهجوم الأمني، نظرًا لامتلاك الوكيل قدرة أكبر على التفاعل مع المحتوى واتخاذ قرارات مستقلة نسبيًا. واعتبرت الشركة أن هذه القدرات، رغم أهميتها في تحسين تجربة الاستخدام، تفرض تحديات إضافية على مستوى الحماية.

أثار إطلاق متصفح Atlas اهتمام الباحثين الأمنيين منذ اليوم الأول، حيث سارع عدد منهم إلى عرض تجارب توضح إمكانية التلاعب بسلوك المتصفح عبر نصوص بسيطة مكتوبة في مستندات Google Docs. وأظهر هؤلاء أن المتصفح قد يستجيب لتعليمات غير مرئية للمستخدم، ما يغير من طريقة عمله.

تلاقت هذه المخاوف مع تحذيرات رسمية أطلقتها جهات حكومية، حيث أصدرت الهيئة الوطنية للأمن السيبراني في المملكة المتحدة تحذيرًا أشارت فيه إلى أن محاولات الاختراق ضد تطبيقات الذكاء الاصطناعي التوليدي قد تظل قائمة دون حل جذري. ولفتت الهيئة إلى أن هذه الهجمات قد تُعرض المواقع وتطبيقات الذكاء الاصطناعي لخطر تسريب البيانات.

تعاملت OpenAI مع هذه الإشكالية بوصفها تحديًا طويل الأمد، وأكدت التزامها بتقوية دفاعاتها بشكل مستمر. وشرحت أن استراتيجيتها تعتمد على دورة استجابة سريعة واستباقية، تهدف إلى اكتشاف أساليب الهجوم الجديدة داخليا قبل ظهورها في الهجمات الفعلية على الإنترنت. كما ذكرت الشركة أن هذه المقاربة أظهرت مؤشرات أولية مشجعة.

اقترب هذا التوجه من الاستراتيجيات التي أعلنت عنها شركات أخرى مثل Anthropic وجوجل، حيث ركزت هذه الشركات على بناء طبقات دفاع متعددة وإجراء اختبارات ضغط مستمرة على الأنظمة. وركزت جوجل بشكل خاص على الضوابط المعمارية والسياسات العامة التي تحكم عمل الأنظمة الوكيلة.

محاولات OpenAI لمنع الهجمات

سلكت OpenAI مسارًا إضافيًا مختلفًا نسبيًا، تمثل في تطوير ما وصفته بالمهاجم الآلي المعتمد على نماذج اللغة الكبيرة. دربت الشركة هذا النظام باستخدام التعلم المعزز ليحاكي سلوك المخترقين، ويبحث عن طرق مبتكرة لتمرير تعليمات خبيثة إلى وكلاء الذكاء الاصطناعي. واستخدم هذا النظام بيئة محاكاة تتيح له اختبار الهجوم وتحليل كيفية تفكير الوكيل المستهدف والخطوات التي قد يتخذها عند مواجهة محتوى مشبوه.

سمح هذا الأسلوب للنظام الآلي بتعديل الهجوم وتكراره مرات عديدة، مستفيدًا من معرفة داخلية بآليات التفكير الخاصة بالوكيل، وهي معرفة لا تتوفر للمهاجمين الخارجيين. أكدت OpenAI أن هذا الأسلوب مكنها من اكتشاف ثغرات واستراتيجيات اختراق لم تظهر خلال حملات الاختبار التي أجراها البشر أو عبر التقارير الخارجية.

عرضت الشركة مثالًا توضيحيًا أظهر كيفية تسلل رسالة بريد إلكتروني خبيثة إلى صندوق الوارد الخاص بالمستخدم. وقام وكيل الذكاء الاصطناعي لاحقًا، عند فحص البريد، بتنفيذ تعليمات مخفية داخل الرسالة، فأرسل رسالة استقالة بدلًا من إعداد رد تلقائي خارج المكتب. وبعد تطبيق التحديثات الأمنية، رصد وضع الوكيل محاولة اختراق، وقام بتنبيه المستخدم إلى وجود محتوى مشبوه.

اعترفت OpenAI بصعوبة تأمين الأنظمة ضد هذا النوع من الهجمات بشكل كامل، وأكدت اعتمادها على اختبارات واسعة النطاق ودورات تصحيح أسرع لتعزيز الأنظمة قبل استغلال الثغرات على نطاق واسع. كما امتنع متحدث باسم الشركة عن الكشف عن بيانات دقيقة توضح مدى انخفاض الهجمات الناجحة بعد التحديثات الأخيرة، مكتفيًا بالإشارة إلى تعاون مستمر مع أطراف خارجية لتعزيز الأمان منذ ما قبل إطلاق المتصفح.

من وجهة نظري، أرى أن القيمة التي تقدمها المتصفحات الوكيلة في الاستخدامات اليومية لم تصل بعد إلى مستوى يبرر المخاطر المصاحبة لها. ربما يتغير هذا التوازن مستقبلًا مع نضوج التقنيات وتحسن وسائل الحماية، في حين تظل المفاضلة بين القوة والمخاطر قائمة في المرحلة الراهنة. لذلك، فإن تقليل الوصول وتقليص الصلاحيات، مع فرض مراجعة بشرية على الإجراءات الحساسة، يُعد من أبرز التوصيات العملية في الوقت الحالي.