ارتش های ۱۰۰ هزار نفری برای پاک سازی اینترنت!

آرامه بندری

وقتی به سایت های ویدیو محور خارجی و داخلی مثل «یوتیوب» و یا «آپارات» سر می زنید به هر نوع محتوایی دسترسی دارید. سرگرمی، خنده، دیدن فیلم، ویدئوهای آموزشی، دوستیابی و به اشتراک گذاری لحظات زندگی ما، همه و همه در بستر رسانه های اجتماعی رخ می دهد. اما تا به حال این سوال برایتان پیش آمده که نظارت بر چنین حجم عظیمی از محتوا چگونه اتفاق می افتد؟

امروزه بسیاری از نیازهای روزمره ما از طریق اینترنت رفع می شود و حضور در شبکه های اجتماعی زندگی بشر را بسیار متفاوت تر از گذشته کرده است. زندگی امروز آنچنان با رسانه های اجتماعی گره خورده است که روند صعودی میانگین ساعات حضور مردم جهان در اینترنت و شبکه های اجتماعی هر سال بیشتر و بیشتر می شود. بر اساس آمار منتشر شده در مارچ ۲۰۱۷، مردم در جوامع مدرن روزانه ۲ ساعت در شبکه های اجتماعی وقت می گذرانند.

«Mediakix» یکی از شرکت های فعال در حوزه بازاریابی شبکه های اینترنتی آماری منتشر کرده که نشان می دهد هر شهروند آمریکایی به طور میانگین روزانه ۴۰ دقیقه از وقت خود را در «یوتیوب» صرف دیدن ویدئو می نمایند. همچنین کاربران آمریکایی به صورت میانگین یک ساعت در شبکه اجتماعی «توئیتر» وقت می گذرانند و ۴۰ دقیقه نیز در «فیس بوک»، رقیب «توئیتر» فعال هستند. در این بین کمترین زمان به «اینستاگرام» اختصاص دارد. تنها ۱۵ دقیقه. البته نکته جالب تر اینجاست که شبکه های اجتماعی مانند «فیس بوک» و «اینستاگرام» و وبسایت های بارگذاری ویدئو مانند «یوتیوب»، همگی بر اساس محتوای بارگذاری شده توسط کاربر شکل گرفته اند. در حقیقت فعالیت کاربران و بارگذاری محتوا برای به اشتراک گذاری سبب شکل گیری این شرکت های بزرگ شده است.

اما چه نوع محتوایی می تواند در چنین بسترهایی قرار گیرد؟ خطوط قرمز آن ها چیست؟ فرایند نظارت بر محتوای بارگذاری شده توسط کاربران چگونه کنترل می شود؟ بسترهایی که کودکان و خانواده ها در آن وقت می گذرانند چگونه محتوایی را می پذیرد؟

در سال های ابتدایی شکل گیری چنین بسترهایی، نظارت آن ها تنها بر اساس «گزارش» یا «Report» کاربران صورت می گرفت. هر کاربر می تواند ویدئویی که به زعم خود نامناسب می داند را گزارش کند. در بخش گزارش گزینه هایی جود دارد که کاربر بر اساس انتخاب یکی از آن ها نوع محتوا را مشخص می کند. محتوای گزارش شده در یکی از دسته های تصاویر مستهجن، تصاویر خشونت آمیز، ترویج تروریسم ( این گزینه پس از شکل گیری داعش و برای جلوگیری از ترویج ویدئوهای این گروه تروریستی اضفه شده)، محتوای نفرت پراکنانه و نژآدپرستانه، اعمال خطرآفرین، کودک آزاری، اسپم ها و نقض حقوق دیگران قرار می گیرد. در حقیقت پس از گزارش کاربر محتوای مورد نظر به «صف بررسی» وارد می شود و در بیشتر موارد این نیروی انسانی است که فرایند نظارت بر محتوا را انجام می دهد. چنین افرادی را «Content Moderator» می نامند.

پس از رسیدن گزارش از سوی کاربر محتوای مورد نظر روی مانیتور بزرگ ناظران به نمایش در می آید و آن ها بر اساس پروتکلها و ممیزی های خاصی تصمیم می گیرند که آیا محتوا حفظ شود یا خیر. پس تصمیم گیری انسانی نقش پر رنگی در فرایند نظارت دارد. البته هوش مصنوعی نیز بخش از فعالیت های نظارتی را بر عهده دارد. کیفیت ویدئوها، مشکلات فنی و در برخی موارد بررسی مستهجن بودن بر عهده هوش مصنوعی است. البته هوش مصنوعی وظایف دیگری نیز دارد. برای مثال مدتی است که «ID Code» برای محتوای بارگذاری شده در «یوتیوب» اضافه شده و هر کسی می تواند برای محتوای خود کد مشخصی داشته باشد تا با کمک هوش مصنوعی ناظران بتوانند نقض کننگان کپی رایت محتوا را شناسایی کنند که این قابلییت در ایران کاربرد چندانی ندارد. این سیستم نظارتی برای «فیس بوک» نیز وجود دارد و دسته بندی های محتوای گزارش شده بر اساس پروتکل جهانی برای رسانه های دیجیتال است.

اما آن چه مشخص است نقش پررنگی است که نیروی انسانی در این فرایند دارد و طبیعتا سرعت و کیفیت نظارت را بسیار پایین می آورد. هر چند غول های صنعت دیجیتال هزینه های بسیاری برای توسعه هوش مصنوعی در این زمینه انجام داده اند اما همچنان راهی دراز برای توسعه مناسب آن ها در پیش است.

دردسری به نام ویژگی «Live»

اما چالش اصلی و اعتراض ها به چنین مکانیزم های از زمانی آغاز شد که ویژگی «Live» یا «زنده» به شبکه های اجتماعی مانند «فیس بوک» و «اینستاگرام» اضافه شد. «فیس بوک» امروزه دارای ۲ میلیارد کاربر در سراسر جهان است و در حال تولید برنامه های خاص خود و راه اندازی شبکه استریم است. اما راه اندازی سامانه «Live» اعتراضات بسیاری به همراه داشت.

البته مارک زاکربرگ مالک فیس بوک در روز رونمایی از سامانه پخش زنده «فیس بوک» با افتخار اعلام کرد این ویژگی جدید فرصتی ناب برای ایجاد ارتباط بدون هیچ حد و مرزی را برای کاربران مهیا می سازد و از جنبه های زیبای آن سخن گفت:«از این پس دوربین موبایل شما مانند تلویزیونی است که می تواند هر چیزی را که دوست دارید را به تصویر بکشد.» اما واقعا چگونه می توان به تصاویر زنده نظارت کرد؟ آیا تنها اکتفا کردن به گزارش کاربران می تواند کافی باشد؟ مسلما نه. حتی شاید هوش مصنوعی هم نتواند پاسخ گوی چنین حجم عظیمی از داده ای باشد که این ۲ میلیارد کاربر تولید می کنند. با این حال زاکربرگ درباره مسئله کنترل ویدئوهای زنده اعلام کرد که «فیس بوک» تا پایان سال ۲۰۱۷، ۳ هزار نیروی جدید به ارتش نظارتی خود می افزاید تا محتوای زنده را رصد کنند.

در سال ۲۰۱۶ خبرهای بسیاری تکان دهنده ای از ویدئوهای خشونت آمیز در «فیس بوک لایو» مخابره شد و خانواده ها را در سراسر جهان نگران کرد. تصاویر خود کشی، کودک آزاری و ... که به دلیل کمبود زمان کافی برای رسیدگی برای مدتی طولانی روی «فیس بوک» قرار گرفتند و مثلا در یک مورد، پاک شدن یک ویدئو شلیک و خود کشی یک روز طول کشید که این نشان از ضعف هوش مصنوعی و کمبود نیروی انسانی سیستم نظارت آن بود.

شغلی بی رحم و ترسناک

البته جنبه تاریکتری نیز در آن سوی صحبت های زاکربرگ وجود دارد که شاید کمتر به آن فکر کرده باشید. بر اساس قوانین ایالات متحده آمریکا، افرادی که به نظارت محتوا می پردازند باید شامل بیمه های درمانی های خاصی شوند و قراردادهای رسمی و برخورداری از حقوق بالا برای کار دشوار آن ها ضروری است. اما شرکت هایی مانند «گوگل»، «فیس بوک» و «مایکروسافت» برای رفع موانع حقوقی و مسئولیت های سنگین خود در آمریکا به آن سوی اقیانوس نقل مکان کرده اند.

این شرکت ها دفاتری را در کشورهایی مانند هند و فیلیپین ایجاد کرده اند تا با استخدام ارتش های ۱۰۰ هزار نفری، نظارت بر محتوای جهانی تولید شده در چنین بسترهایی را محقق سازند. در سال ۲۰۱۴ بر سر نقض شدن حقوق کارمندان این شرکت ها در فیلیپین جنجال های یادی شکل گرفت. عدم بهره مندی از بیمه های درمانی مناسب، حقوق پایین و قراردادهای نامناسب سبب شد تا با کمک رسانه های مستقل جامعه جهانی کم کم از فجایعی که بر سر ناظرین محتوا در این کشورها آمده است، آگاه شوند.

در چندین مورد وکلای بین المللی به کمک آسیب دیدگان این صنعت کثیف شتافتند و غرامت های هنگفتی از غول های آمریکایی طلب کردند. هنوز هم فارغ التحصیلان جوان در هند و فیلیپین با دیدن آگهی استخدام در «گوگل» و «فیس بوک» به سمت شغل نظارت محتوا جذب می شوند اما امکان فسخ قرارداد به صورت یک طرفه برای شرکت ها، قراردادهای کوتاه مدت و عدم بهره مندی از بیمه های درمانی سبب شد تا در این کشورها افراد زیادی با آسیب های روانی رو به رو شوند. تصور کنید ۸ تا ۱۰ ساعت دیدن تصاویر آزار دهنده در مونیتورهای بزرگ که به ۱۰ تکه مختلف تقسیم شده اند حتی در کوتاه مدت چه تاثیر وحشتناکی می تواند بر روح و روان یک انسان بگذارد.

البته حالا با اینکه شرایط کمی بهبود پیدا کرده اما لازمه توسعه هوش مصنوعی مناسب برای نظارت بر محتوا به شدت احساس می شود. قطعا پیشرفت علم و فناوری نباید سبب نابودی آینده افرادی باشد که تلاش می کنند تا ما فضای مجازی امن و دلنشینی داشته باشیم

«Netflix-Nevers» چه کسانی هستند؟

خاورمیانه و شمال آفریقا در صدر رشد مخاطبین صنعت استریم!

مجریان زن در برنامه های ورزشی؛ ابزاری برای جذب مخاطب؟!

آیا اینستاگرام تلویزیون آینده جهان خواهد شد؟!

 

 

 

چت
نظر بدهید
CAPTCHA
حروف در کادر را تایپ کنید
Image CAPTCHA
Enter the characters shown in the image.‎

معرفی مقاله‌های مرتبط