هل تنجح X في استخدام الذكاء الاصطناعي لمحاربة المعلومات المضللة؟

أعلنت منصة X (تويتر سابقًا) عن خطوة جديدة قد تغير طريقة التعامل مع المعلومات على منصات التواصل الاجتماعي. فبعد أن أحدثت ملاحظات المجتمع ثورة في التحقق الجماعي من المعلومات، قررت X الآن السماح للذكاء الاصطناعي بكتابة هذه الملاحظات، وهو ما يثير جدلًا واسعًا وتساؤلات حول مدى دقة هذه الخطوة وخطورتها المحتملة.
طموحات X: تسريع التحقق وتوسيع النطاق
وصف فريق X المشروع الجديد بأنه ترقية لنظام ملاحظات المجتمع، حيث من المتوقع أن تساعد وكلاء الذكاء الاصطناعي في تسريع عملية التحقق، ورفع عدد الملاحظات التي تُضاف إلى المنشورات المضللة. يعتمد هذا النظام على دورة تحسين دائمة، تبدأ بصياغة ملاحظات من قِبل الذكاء الاصطناعي، ثم تقييمها من قبل مراجعين بشريين يقدّمون تغذية راجعة، تُستخدم لاحقًا لتطوير أداء الذكاء الاصطناعي.
يأمل الباحثون أن يُتيح هذا التعاون بين البشر والذكاء الاصطناعي نموذجًا جديدًا لإنتاج المعرفة العامة، حيث يساهم البشر في تقييم التعقيدات والسياقات الاجتماعية، بينما يقوم الذكاء الاصطناعي بالمهام الأكثر تكرارًا وسرعة.
مخاوف من دقة الملاحظات وخطر التضليل
أبرز ما يثير القلق في هذا النظام هو اعتراف X بأن الذكاء الاصطناعي قد يقدم ملاحظات مقنعة ولكن غير دقيقة. بسبب قدرته العالية على صياغة نصوص تبدو حيادية وعاطفية في آنٍ واحد، يُحتمل أن يُقيم بعض المراجعين البشر هذه الملاحظات على أنها مفيدة، حتى وإن كانت تتضمن معلومات خاطئة أو مغلوطة.
وتحذر الورقة البحثية من أن هذا الخطر قد يتفاقم مع تطور نماذج الذكاء الاصطناعي، التي قد تملك قريبًا القدرة على تجميع أدلة زائفة بطريقة دقيقة، مما يصعب على البشر اكتشاف التحيز أو التزوير في هذه الملاحظات.
تحذيرات من تآكل الثقة وتضخيم المؤامرات
لاقى المشروع انتقادات علنية، كان أبرزها من وزير التكنولوجيا البريطاني السابق داميان كولينز، الذي وصفه بأنه وسيلة للتحكم الصناعي بما يراه الناس ويثقون به. كما حذر باحثون من معهد آلان تورينغ من أن الذكاء الاصطناعي يعاني من مشاكل في فهم السياق، لكنه في المقابل ماهر جدًا في تقديم إجابات مقنعة تبدو موثوقة حتى وإن لم تكن كذلك.
وما يعقد المسألة أكثر، هو أن أي شخص قادر على بناء وكيل ذكاء اصطناعي يمكنه كتابة ملاحظات المجتمع، مما يعني أن التحيزات والأخطاء قد تختلف من نموذج لآخر، ما يفتح الباب أمام احتمالات واسعة للتلاعب أو التضليل.
أزمة في توازن العمل بين البشر والآلة
يحذر البعض من أن ضخامة عدد الملاحظات التي قد يكتبها الذكاء الاصطناعي قد تُرهق المراجعين البشريين، وتدفع البعض منهم للتخلي عن المساهمة في كتابة الملاحظات يدويًا. وهذا قد يؤدي إلى فقدان التنوع في وجهات النظر، والذي كان سر قوة ملاحظات المجتمع منذ إطلاقها.
كما عبر خبراء التحقق من المعلومات في بريطانيا عن قلقهم من أن تتحول المنظومة إلى عملية آلية بالكامل، دون تدخل بشري حقيقي، مما يفقدها المصداقية والمساءلة.
مستقبل ملاحظات المجتمع: بين الأمل والتخوف
رغم هذه التحديات، يواصل فريق X اختبار النظام الجديد، على أمل التوصل إلى صيغة متوازنة بين السرعة والدقة. وأكدت المنصة أن جميع الملاحظات التي تُنتَج بالذكاء الاصطناعي ستُوسم بوضوح، وستُطبق فقط على المنشورات التي طلب المستخدمون ملاحظات بشأنها في البداية.
وتخيل الباحثون مستقبلاً قد يتمكن فيه الذكاء الاصطناعي من توقع المنشورات التي ستنتشر بسرعة، ومن ثم التدخل مبكرًا بملاحظات تحقق قبل أن تنتشر الأخبار المضللة على نطاق واسع.
كما تم اقتراح نموذج مستقبلي حيث تتصارع وكلاء ذكاء اصطناعي بوجهات نظر متضادة لكتابة الملاحظات، على أن يلعب المراجع البشري دور القاضي الذي يحكم بين الآراء المختلفة، مما قد يساعد في كشف التحيزات والنقائص.
الذكاء الاصطناعي أداة واعدة ولكنها محفوفة بالمخاطر
في نهاية المطاف، يُجمع الباحثون على أن الذكاء الاصطناعي لا يمكنه أن يحل محل البشر بشكل كامل. فالملاحظات المكتوبة يدويًا تظل ضرورية لتدريب الأنظمة الذكية، والمراجعين البشر هم الأقدر على رصد التحيزات والتزوير، خاصة في المواضيع الحساسة مثل الاحتيال أو التضليل العاطفي.
ربما تفتح هذه الخطوة بابًا أمام فرصة تحولية في محاربة المعلومات المضللة، لكنها تتطلب حذرًا شديدًا، ومراقبة دقيقة، وضمان ألا يُستخدم الذكاء الاصطناعي ليقلب الحقائق بدلاً من كشفها.
?xml>