الوجه المظلم للذكاء الاصطناعي.. هل يدخل في خدمة التطرف؟

الذكاء الاصطناعي: سيف ذو حدين بين التنمية وتهديدات الإرهاب
يشهد العالم نقاشًا متزايدًا حول الاستخدامات غير المشروعة للذكاء الاصطناعي، حيث لم يعد التحذير منه مجرد افتراض نظري بل أصبح محور اهتمام الأوساط الأمنية والاستخباراتية. تشير مؤشرات قوية إلى محاولات حثيثة لاختبار إمكانات الذكاء الاصطناعي وتطويعه لتحقيق أهداف تخريبية.
تحديات متنامية في ظل التطور التكنولوجي
أكد الخبير في الذكاء الاصطناعي، ماركو مسعد، أن هذه التقنية تمثل سلاحًا ذا حدين؛ فبينما تساهم في تعزيز الإنتاجية ودعم البحث العلمي وتسريع عجلة الاقتصاد الدولي، فإنها تتحول في الوقت نفسه إلى أداة فعالة في أيدي الجماعات الإرهابية، مما يتيح لها تحقيق أهدافها بسرعة أكبر.
ولفت مسعد إلى أن الجماعات الإرهابية لم تعد تعتمد بشكل حصري على العنصر البشري في عمليات التجنيد والتأثير، بل بدأت تستغل الذكاء الاصطناعي في تسريع أعمال العنف. يشمل ذلك التجنيد الرقمي للشباب، والتلاعب بالرأي العام عبر وسائل التواصل الاجتماعي، ونشر الأخبار والصور المزيفة، مما يمنحها قوة مضاعفة.
صعوبات المراقبة وضبط الاستخدامات السلبية
تواجه أجهزة المخابرات والحكومات تحديات جمة في ضبط الاستخدامات السلبية للذكاء الاصطناعي. فكما يصعب السيطرة الكاملة على العمليات الإرهابية، يصعب أيضًا التنبؤ بردود أفعال نماذج الذكاء الاصطناعي عند طرح أسئلة دقيقة وحساسة.
وأوضح مسعد أن نماذج الذكاء الاصطناعي قد تمتنع عن تقديم معلومات مباشرة حول صناعة المتفجرات، ولكنها قد تستجيب عند إعادة صياغة السؤال بطرق معينة، مما يفتح الباب أمام الجماعات الإرهابية للحصول على معلومات خطيرة. بالإضافة إلى ذلك، يمكن استغلال هذه النماذج في تحديد نقاط ضعف البنية التحتية للمؤسسات وتجييش الشعوب.
استراتيجيات المواجهة: الذكاء الاصطناعي ضد نفسه
طرح مسعد استراتيجية لمواجهة هذه المخاطر تتمثل في استخدام الذكاء الاصطناعي نفسه لمكافحة استخدامه السلبي. يتضمن ذلك تطوير نماذج اصطناعية تراقب الاستخدامات، وتحدد الكلمات المفتاحية، وترسل إنذارات مبكرة.
وأشار إلى أن الشركات المصنعة لنماذج الذكاء الاصطناعي هي الأقدر على تطوير هذه الآليات لمراقبة الظاهرة. مع ذلك، أكد أن هذه الحلول تبقى نسبية وليست مطلقة، مشددًا على صعوبة التصدي الكامل لتوظيف الذكاء الاصطناعي في الأغراض الإرهابية في ظل محدودية قدرات الأجهزة الأمنية وعدم وضوح الاستجابات الفعلية لهذه النماذج.
مسؤولية مشتركة لمواجهة التحديات
تتطلب مواجهة الآثار السلبية للذكاء الاصطناعي مسؤولية مشتركة تشمل جميع الأطراف: شركات التكنولوجيا، المطورين، الحكومات، ومنصات التواصل الاجتماعي، والمجتمع المدني. يبرز غياب إطار قانوني تنفيذي واضح كعامل يزيد من تفاقم الخطر، حيث اكتفت الحكومات بمحاولة تتبع الظاهرة دون فهم عمقها أو فاعليتها.
ويرى مسعد أن التركيز على الجانب الربحي من قبل الشركات المطورة للنماذج يأتي على حساب العمل الأمني، مما يفسر وقوع حوادث فردية مثل تقديم إرشادات حول إيذاء النفس، أو تجنيد الأفراد عبر الإنترنت، أو نشر أخبار مزيفة للتلاعب بالرأي العام.
الربح مقابل الأمان: معضلة الشركات التكنولوجية
أكد مسعد أن سعي الشركات لتطوير نماذج الذكاء الاصطناعي بسرعة لتحقيق الأرباح يتعارض مع الحاجة الملحة لتقليل الآثار السلبية لهذه التقنية. فبينما يركز المطورون على تسريع الأداء في المهام اليومية، فإنهم غالبًا ما يهملون تعزيز التطبيقات الأمنية وحماية المجتمعات من سوء الاستخدام.
ينتج عن هذا الخلل حوادث متكررة تشمل تجنيد الشباب، ونشر المعلومات المضللة، وتشجيع أعمال العنف، مما يعكس فجوة كبيرة بين التقدم التكنولوجي والقدرة المؤسسية على احتواء التأثيرات السلبية.
يضع ماركو مسعد الذكاء الاصطناعي في قلب المعادلة الأمنية المعاصرة، حيث تتجاوز وتيرة التطور التكنولوجي التشريعات، وتسبق التطبيقات السلبية أي جاهزية مؤسسية لاحتوائها. المعركة الحقيقية، وفق هذا التصور، ليست ضد الذكاء الاصطناعي بحد ذاته، بل ضد سوء استخدامه في ظل فراغ تشريعي وضعف رقابي.
تكمن الخطوة التالية في إبرام اتفاقيات دولية لضبط استخدام الذكاء الاصطناعي، بينما تظل التحديات المتعلقة بكيفية تطبيق هذه الضوابط وضمان فعاليتها، خاصة مع الطبيعة سريعة التطور لهذه التقنية.
