تيك توك تراهن على الذكاء الاصطناعي: مستقبل المراقبة بين الكفاءة والمخاطر


 

 في خطوة أثارت، تيك توك تخليها عن عدد من موظفي مراقبة المحتوى في مكاتبها بلندن وجنوب شرق آسيا، معتمدة بشكل متزايد على الذكاء الاصطناعي في مراقبة المحتوى. القرار يأتي في ظل تطور تقنيات الذكاء الاصطناعي وقدرتها على التعامل مع ملايين المقاطع في وقت قياسي، لكنه يفتح الباب أمام أسئلة صعبة حول دقة هذه الأدوات ومخاطر إقصاء البشر من معادلة الرقابة.

 

لماذا هذا القرار الآن؟

تكشف أرقام حديثة أن تيك توك تضم أكثر من 1.5 مليار مستخدم نشط شهريًا، ويتم رفع مئات آلاف المقاطع يوميًا. مع هذا الحجم الضخم، فإن كلفة تشغيل فرق بشرية ضخمة لمراقبة المحتوى أصبحت هائلة. هنا ظهر الذكاء الاصطناعي كحلٍّ اقتصادي وعملي، قادر على مسح المحتوى فور رفعه والتدخل قبل انتشاره.

 

الجانب الاقتصادي

وفق تقديرات خبراء، فإن توظيف مراقبي محتوى يكلف الشركة ما بين 35 – 43 ألف دولار سنويًا للموظف الواحد في لندن وحدها. مع وجود نحو 300 موظف في هذا القسم، يمكن أن يصل إجمالي الرواتب إلى ما يقارب 12 مليون دولار سنويًا. في المقابل، استثمار في أنظمة ذكاء اصطناعي – رغم تكلفته العالية أولًا – يُعد أوفر على المدى الطويل.

 

 هل الذكاء الاصطناعي بديلٌ كامل؟

مع أن تيك توك يرى في هذه الخطوة وسيلةً لزيادة الكفاءة، إلا أن خبراء، مثل نقابة عمال الاتصالات، يحذرون من الاعتماد كليًا على الخوارزميات. فقد تُسيء أنظمة الذكاء الاصطناعي تفسير سياق المحتوى؛ فقد تحذف مقطعًا كوميديًا ساخرًا لاعتقادها أنه مُسيء، أو تسمح بمرور محتوى ضار لأنه لا يفي بمعايير البرمجيات.

 

ردود فعل متباينة

  • مؤيدون: يرون أن التقنية قادرة على حماية المستخدمين بشكل أسرع، خصوصًا الأطفال والمراهقين، من مشاهد العنف أو خطاب الكراهية.
  • معارضون: يعتبرون أن غياب “العين البشرية” قد يهدد حرية التعبير ويعرّض المستخدمين لمخاطر، بما أن الخوارزميات غير قادرة على إدراك الأبعاد الثقافية أو الحساسية المحلية للمحتوى.  

 

ليس صراعًا بين الإنسان والآلة، بل دعوة للتكامل

إن قرار تيك توك ليس فريدًا من نوعه، فجميع منصات التواصل الاجتماعي تتجه نحو الأتمتة. لكن الخطأ الاستراتيجي يكمن في “الاستبدال” بدلًا من “التكامل”. النموذج الأكثر أمانًا وفعالية ليس الاعتماد الكامل على الذكاء الاصطناعي، بل بناء نظام هجين:

 

  1. الذكاء الاصطناعي كخط أمامي: يقوم بالفرز الأولي السريع وحجب الانتهاكات الواضحة والصريحة.
  2. المراقبون البشر كخبراء: يركزون على الحالات الرمادية المعقدة التي تصعّبها الخوارزميات، ويتخذون القرارات النهائية بناءً على فهمهم العميق للسياق الثقافي والبشري.

 هذا النهج لا يحمي المستخدمين بشكل أفضل فحسب، بل يقلل أيضًا من العبء النفسي على المراقبين بتركيزهم على المهام التي تتطلب تفكيرًا نقديًا بدلًا من المشاهدة المتكررة للمحتوى الصادم.

 في النهاية، بينما يمضي تيك توك قدمًا في ثورته الآلية، يبقى السؤال معلقًا: هل ستكون هذه الخطوة سببًا في بناء منصة أكثر أمانًا وكفاءة، أم أنها ستفتح الباب على مصراعيه أمام أشكال جديدة وأكثر خبثًا من المحتوى الضار الذي لا تراه أعين الخوارزميات؟ الإجابة ستحدد مستقبل السلامة الرقمية لملايين المستخدمين حول العالم.

 

الأسئلة الشائعة:

1. لماذا استبدلت تيك توك مراقبي المحتوى بالذكاء الاصطناعي؟

لتقليل التكاليف والتعامل مع الكمّ الهائل من المحتوى بسرعة أكبر.

 

2. هل يمكن للذكاء الاصطناعي أن يحل محل البشر بالكامل في المراقبة؟

ليس تمامًا، فهو قد يخطئ في فهم السياق أو الحساسية الثقافية للمحتوى.

 

3. ما هي المخاطر المحتملة لاعتماد الذكاء الاصطناعي وحده؟

خطر حذف محتوى مشروع أو تمرير محتوى ضار، مما قد يؤثر على ثقة المستخدمين.

 

4. كيف كان رد فعل الموظفين والنقابات؟

أعربوا عن قلقهم وحذروا من تهديد هذه الخطوة لمستقبلهم الوظيفي وأمن المستخدمين.

 

5. هل ستزيد تيك توك التوظيف في مناطق أخرى؟

نعم، فقد أشارت المنصة إلى استمرار التوظيف في الولايات المتحدة لتعزيز أمن المستخدمين.

إرسال تعليق

0 تعليقات