تحذير.. اكتشاف مواد لإساءة معاملة الأطفال في عالم الذكاء الاصط…
يحذر الخبراء من خطورة إساءة استخدام تكنولوجيا وتقنيات الذكاء الاصطناعي الحديثة على الأطفال الصغار.
وفي هذا السياق، أوضح باحثون من مرصد ستانفورد للإنترنت، أن مجموعة البيانات المستخدمة لتدريب أدوات إنشاء صور الذكاء الاصطناعي تحتوي على ما لا يقل عن 1008 حالات تم التحقق من صحتها لمواد الاعتداء الجنسي على الأطفال.
خطورة الذكاء الاصطناعي
ولاحظ باحثو جامعة ستانفورد أن وجود مواد الاعتداء الجنسي على الأطفال في مجموعة البيانات، يمكن أن يسمح لنماذج الذكاء الاصطناعي التي تم تدريبها على البيانات بإنشاء أمثلة جديدة وحتى واقعية لهذه المواد.
وقالت LAION، وهي عبارة عن المنظمة غير الربحية التي أنشأت مجموعة البيانات إن “لديها سياسة عدم التسامح مطلقاً مع المحتوى غير القانوني، وفي ظل قدر كبير من الحذر، نقوم بإزالة مجموعات البيانات مؤقتاً للتأكد من أنها آمنة قبل إعادة نشرها”.
وأكدت المنظمة أنها قبل نشر مجموعات البيانات الخاصة بها في المقام الأول، قامت بإنشاء عوامل تصفية لاكتشاف المحتوى غير القانوني وإزالته منها.
ووفقاً للتقارير السابقة، تحتوي مجموعة البيانات المعنية على “ملايين الصور الإباحية والعنف وعري الأطفال والميمات العنصرية ورموز الكراهية والأعمال الفنية المحمية بحقوق الطبع والنشر والأعمال المستخرجة من مواقع الشركات الخاصة”، وبشكل عام، تتضمن أكثر من 5 مليارات صورة والتسميات التوضيحية الوصفية المرتبطة بها.
وضع غير قانوني
ومن غير القانوني لمعظم المؤسسات في الولايات المتحدة عرض مواد الإساءة للأطفال لأغراض التحقق، وعلى هذا النحو، استخدم باحثو جامعة ستانفورد العديد من التقنيات للبحث عن هذه المواد.
ووفقاً لورقتهم البحثية، فقد استخدموا الاكتشاف القائم على التجزئة الإدراكية، والكشف القائم على التجزئة المشفرة، للاستفادة من تضمينات الصور في مجموعة البيانات نفسها، وعثروا على 3226 إدخالاً تحتوي على مواد مشتبه بها، بحسب موقع إن غادجيت، وهي أمور توضح مدى خطورة إساءة تكنولوجيا الذكاء الاصطناعي الحديثة خاصة بالنسبة للأطفال.