واشنطن - الجزائر اليوم
يعتمد فيسبوك بشكل كبير على تقنيات تعلم الآلة من أجل الوصول إلى حالة التوازن ضمن ملايين المنشورات التي تنشر عبر المنصة يوميًا، مما يخقّض من حجم المحتوى المسيء أو المخالف للقوانين والذي يتعين على المشرفين مراجعته، ففي أحدث تقرير لتطبيق معايير المجتمع تم نشره في وقت سابق من هذا الشهر زعمت الشركة أن 98% من مقاطع الفيديو والصور الإرهابية قد تمت إزالتها قبل أن تتاح لأي شخص فرصة رؤيتها ناهيك عن الإبلاغ عنها.
تقوم الشركة بتدريب أنظمتها الذكية للتعرف على الأشياء وتمييزها في مقاطع الفيديو بدءًا من الأشياء الطبيعية مثل المزهريات أو الأشخاص إلى العناصر الخطرة مثل البنادق أو السكاكين، حيث يستخدم الذكاء الاصطناعي الخاص بفيسبوك أسلوبين رئيسيين للبحث عن محتوى خطير أحدهما هو استخدام شبكات عصبية تبحث عن سمات وسلوكيات للكائنات المعروفة وتصنيفها بنسب متفاوتة من الثقة.
تتدرّب هذه الشبكات العصبية على مجموعة من مقاطع الفيديو المصنفة مسبقًا من قبل المراجعين والتقارير الواردة من المستخدمين لتتمكن بذلك الشبكات العصبية من استخدام هذه المعلومات لتخمين ما يمكن أن يعرضه المشهد بأكمله وما إذا كان يحتوي على أي سلوك أو صور تجب الإشارة إليها، وإذا قرر النظام أن ملف الفيديو يحتوي على صور أو سلوك ينطوي على مشاكل فيمكنه إزالته تلقائيًا أو إرساله إلى مراجع محتوى وعند خرقه للقواعد يتم وسمه بسلسلة فريدة من الأرقام للدلالة عليه ونشرها في أنحاء النظام ليتم حذف المحتوى تلقائيًا إذا حاول شخص ما إعادة تحميله.
يمكن مشاركة المحتويات التي تنتهك القواعد مع شركات وسائل التواصل الاجتماعي الأخرى حتى تتمكن بدورها من حذفها في حال تم نشرها، ما تزال فيسبوك تعمل جاهدة لأتمتة نظامها ولكنها تعتمد بشكل كبير على الجهود البشرية للإبلاغ عن الغالبية العظمى عن المحتويات المخالفة حيث يتم تحديد 16% فقط من المنشورات الخارجة بواسطة أنظمتها الآلية، ومع تقدم التقنيات يمكن أن نلحظ زيادة في هذا الرقم في المستقبل القريب.
قد يهمك ايضا:
ألمانيا تكشف عن أول قطار في العالم يسير على الهيدروجين
مفاعل "ستيلاراتور" بداية جديدة لجعل قوة الاندماج في العالم واقعًا
أرسل تعليقك