كشفت وثائق جديدة أن شركة Meta، المالكة لمنصات فيسبوك وإنستغرام وواتساب، تواجه صعوبات كبيرة في مراقبة المحتوى المتعلق بالصراع الإسرائيلي-الفلسطيني، خاصة فيما يتعلق بالمحتوى المنشور باللغة العبرية. على الرغم من التغييرات الأخيرة التي أجرتها الشركة على سياساتها الداخلية، إلا أن الوثائق تظهر عدم وجود نظام مكافئ لتقييم دقة مراقبة المحتوى باللغة العبرية كما هو الحال بالنسبة للمحتوى باللغة العربية.

وفقًا لما ذكره موظف سابق في Meta، والذي فضل عدم الكشف عن هويته خشية الانتقام المهني، فإن سياسات Meta الخاصة بخطاب الكراهية فيما يتعلق بفلسطين تعاني من عدم المساواة. وأشار إلى أن الموظفين العاملين في الخطوط الأمامية لمراقبة المحتوى يشعرون بالخوف من التعبير عن مخاوفهم خشية التعرض للعقاب، وهو ما أكدته رسالة وقّعها أكثر من 200 موظف في Meta.

معطيات ومستندات حول مراقبة المحتوى

تظهر الوثائق أن Meta لديها نظام يسمى "دقة السياسة" لقياس مدى تطابق قرارات مراقبة المحتوى مع سياسات الشركة في عدة لغات، بما في ذلك العربية والإنجليزية والإسبانية. يُعتمد هذا النظام على مراجعات يقوم بها خبراء بشريين لتقييم أداء المراقبين والخوارزميات التي تطبقها Meta، ويولّد هذا النظام درجات دقة تتابع جودة مراقبة المحتوى عبر المنصات.

غياب التقييم الدقيق للمحتوى العبري

رغم وجود نظام دقيق لتقييم دقة مراقبة المحتوى باللغة العربية، تظهر الوثائق أن Meta تعتبر تطبيق هذا النظام للمحتوى العبري "غير ممكن" بسبب "غياب الترجمة" ونقص في المراجعين المتخصصين في اللغة العبرية. وفقًا للموظف السابق، يُجرى التقييم للمحتوى العبري بشكل غير منتظم على أساس "كل حالة على حدة"، على عكس ما يحدث مع المحتوى العربي الذي يخضع لمراجعة منتظمة.

تفاوت في تطبيق السياسات بين اللغتين

أشار التقرير إلى أن هذه الفجوة في مراقبة المحتوى قد تؤدي إلى "تحيز" في كيفية تطبيق السياسات، ما يؤدي إلى رقابة مفرطة على المحتوى العربي مقارنة بالعبرية. ووفقًا لتحليل مستقل أجري في عام 2022، أظهرت النتائج أن خوارزميات Meta كانت تميز ضد المحتوى العربي من خلال تصنيفه على أنه ينتهك السياسات بمعدل أعلى بكثير مقارنة بالمحتوى العبري.

استخدام الخوارزميات في مراقبة المحتوى

تستخدم Meta مجموعات من الصور والعبارات والفيديوهات التي تم الحكم مسبقًا على أنها تنتهك سياساتها كجزء من خوارزميات التعلم الآلي لمراقبة المحتوى تلقائيًا. لكن الموظف السابق أشار إلى أن بعض الصور التي أُضيفت إلى هذه المجموعات بعد أحداث 7 أكتوبر قد أُضيفت عن طريق الخطأ، ولم يكن هناك "إجراء" لإزالتها، ما أدى إلى رقابة مفرطة على المحتوى المرتبط بالصراع من كلا الجانبين.

رد Meta على الانتقادات

نفت Meta هذه الادعاءات، مشيرة إلى أنه "من السهل نسبيًا" إزالة المواد التي أضيفت عن طريق الخطأ إلى بنوك المحتوى، لكنها لم تنكر وجود فجوات في مراقبة المحتوى العبري مقارنة بالعربي. وأكدت Meta أنها تعمل على تحسين سياسات المراقبة لضمان أن تكون منصاتها "أماكن آمنة" لجميع المستخدمين.

في الختام، تكشف هذه الوثائق عن تحديات كبيرة تواجه Meta في مراقبة المحتوى باللغة العبرية مقارنة بالعربية، مما يثير تساؤلات حول نزاهة سياسات الشركة وتأثيرها على الخطاب العام حول الصراع الإسرائيلي-الفلسطيني.

استعمال المضامين بموجب بند 27 أ لقانون الحقوق الأدبية لسنة 2007، يرجى ارسال رسالة الى:
bokra.editor@gmail.com