تكنولوجيا

باحثون: تشات جي بي تي ونماذج الذكاء الاصطناعي يمكن "تسميمها"

حذر باحثون متخصصون في الأمن السيبراني من أن أدوات الذكاء الاصطناعي التوليدي، مثل “تشات جي بي تي” (ChatGPT) و”جيميناي” (Gemini)، معرضة لخطر “التسميم” (Poisoning)، مما يعني إمكانية التلاعب بها لإنتاج محتوى مضلل وصيغ كاذبة. came this warning from researchers in cybersecurity.

ويشير هذا الاكتشاف، الذي تم الإعلان عنه مؤخرًا، إلى ثغرة أمنية محتملة في أحد أكثر التقنيات تطوراً قيد الاستخدام اليوم، مما يثير مخاوف جدية بشأن الاعتماد المتزايد على هذه الأنظمة في معالجة المعلومات وتقديمها.

تسميم أدوات الذكاء الاصطناعي: خطر محدق

يشير مصطلح “تسميم أدوات الذكاء الاصطناعي” إلى عملية متعمدة يتم من خلالها إدخال بيانات ضارة أو متحيزة إلى نماذج التعلم الآلي خلال مرحلة التدريب أو التشغيل. الهدف من هذه العملية هو التأثير على استجابات النموذج المستقبلية، مما يجعلها تنتج معلومات غير دقيقة، أو دعاية مضللة، أو حتى تروج لخطابات الكراهية.

وقد أوضحت الأبحاث أن هذا التلاعب قد يؤدي إلى توليد نصوص أو صور أو حتى مقاطع فيديو من قبل نماذج مثل “تشات جي بي تي” و”جيميناي” تبدو مقنعة للوهلة الأولى، لكنها تخفي في طياتها معلومات خاطئة بشكل متعمد. وهذا يمثل تحديًا كبيرًا خصوصًا مع انتشار هذه الأدوات في مجالات متعددة، من التعليم إلى الصحافة.

كيف يعمل تسميم البيانات؟

تعتمد نماذج الذكاء الاصطناعي التوليدي على كميات هائلة من البيانات لتدريبها وفهمها للعالم. يمكن للمهاجمين استغلال هذه العملية بإدخال بيانات “مسمومة” ضمن مجموعة البيانات الأصلية. على سبيل المثال، يمكن إدخال مقالات إخبارية كاذبة أو معلومات تاريخية محرفة، مما يؤدي إلى تعلم النموذج لهذه الأخطاء.

عندما يتم استدعاء النموذج بعد ذلك لإنشاء محتوى جديد، فإنه قد يستدعي هذه المعلومات المسمومة ويقدمها على أنها حقائق. تتطلب عملية التسميم معرفة تقنية، لكن الأدوات المتاحة تجعلها متاحة بشكل متزايد للمزيد من الأفراد. يكمن الخطر في أن هذا المحتوى المضلل قد ينتشر بسرعة كبيرة، خاصة عبر الإنترنت.

ومن بين الجهات التي قد تستفيد من هذه الثغرات، الجهات الفاعلة التي تسعى لنشر المعلومات المضللة لأغراض سياسية أو تجارية، أو حتى أفراد يسعون لإثارة الفوضى. إن الآثار المترتبة على انتشار المحتوى المضلل يمكن أن تكون مدمرة، بدءًا من التأثير على الانتخابات وصولًا إلى تقويض الثقة في المؤسسات العلمية والإعلامية.

الآثار والتداعيات المستقبلية

يمثل هذا الاكتشاف نقطة تحول في فهمنا لقابلية أدوات الذكاء الاصطناعي للاختراق. فبينما نقدر قدرتها على الإبداع وتحسين الإنتاجية، يجب علينا أن نكون على دراية بالمخاطر الكامنة. يتطلب الأمر تطوير آليات قوية للكشف عن البيانات المسمومة والتحقق من صحة المعلومات التي تنتجها نماذج الذكاء الاصطناعي.

تتطلب مواجهة هذا التهديد تعاونًا بين الباحثين، ومطوري التكنولوجيا، وصانعي السياسات، والمستخدمين النهائيين. سيحتاج الباحثون إلى إيجاد طرق فعالة لتحديد وتخفيف البيانات الضارة. وبدورهم، سيحتاج مطورو الذكاء الاصطناعي إلى بناء أنظمة أكثر مقاومة لهذه الهجمات، ربما من خلال استخدام تقنيات “التحصين” (Robustness) للنماذج.

على المدى الطويل، قد نشهد سباق تسلح بين من يحاولون تسميم نماذج الذكاء الاصطناعي ومن يحاولون حمايتها. إن ضرورة التحقق من مصادر المعلومات، وتطوير التفكير النقدي، لم تعد مجرد مسألة أكاديمية، بل أصبحت ضرورة حياتية في عصر الذكاء الاصطناعي.

ما هو التالي؟

تتواصل الأبحاث لتحديد حجم المشكلة بدقة وتطوير حلول تقنية قابلة للتطبيق. ومن المتوقع أن تشهد الأشهر والسنوات القادمة جهودًا مكثفة من قبل الشركات التقنية والمؤسسات البحثية لمعالجة هذه الثغرات، لكن التحديات تظل قائمة، خاصة في ظل التطور السريع لتقنيات الذكاء الاصطناعي.