کمیته رکن چهارم – معروف ترین وبگاه بارگذاری فیلم از فناوری هوش مصنوعی برای مدیریت تصاویر نامناسب استفاده می کند
بر کسی پوشیده نیست که یوتیوب در سال گذشته میلادی قصد متعادل کردن ویدیوهای بستر خود را داشت. این شرکت چندید بار با رسوایی هایی مانند عدم توانایی مدیریت محتوای نامناسب به خصوص ویدئوهای مرتبط با کودکان روبرو شده است. کارکنان یوتیوب بهطور مستقیم مسئولیت از بین بردن و جلوگیری از بارگزاری ویدیوهایی با مضامین جنسی و خشونتآمیز را بر عهده گرفتند. به علاوه پیمانکاران از هوش مصنوعی برای شناسایی محتوای نامناسب استفاده می کردند. با این حال، ممکن است ارائه کارکرد ترک مکانیکی، بتواند عملکرد ابزار یادگیری ماشینی یوتیوب را در سطوح اولیه به ما نشان دهد.
ترک مکانیکی (Mechanical Turk) یا مکانیکال ترک، یک بازار زیرمجموعه آمازون است که در آن نهادها و پژوهشگران آکادمیک، برای اجرا و انجام خدمات کوچک به نام وظایف هوش انسانی (HIT) به پیمانکاران و کارکنان هزینه ای به میزان کمتر از یک دلار پول پرداخت میکنند. کارکنان شرکت نام برده با تکمیل وظایفی همچون شناسایی اشیاء یک تصویر، نوشتن درمورد یک فایل صوتی یا کمک به آموزش یک الگوریتم، به عملکرد بهتر اینترنت کمک میکنند.
کارمندان شرکت بالا بهطور مستقیم درمورد متعادل کردن محتویات تصمیمگیری نمیکنند؛ ولی معمولا به آموزش ابزار یادگیری ماشینی یوتیوب در همه روش ها کمک میکنند. ابزار یادگیری ماشینی، اقدامی فراتر از پیدا کردن ویدیوهای نامناسب انجام میدهد. کارمندان همچنین به سایر بخشهای سامانه یوتیوب مانند الگوریتم پیشنهادی کمک میکنند.
راشل لاپلانت (Rochelle LaPlante)، یکی از کارکنان امترک در این رابطه اظهار داشت:
یوتیوب و گوگل سالها است که وظایفی بر عهدهی ترک مکانیکی گذاشتهاند. این وظایف طیف بسیار متنوعی همچون علامت گذاری نوع محتوا، جستجوی محتویات مربوطبه بزرگسالان، مشخص کردن محتویاتی که مشکوک به توطئه هستند، مشخص کردن عناوین مناسب و شناسایی ویدیوهای بارگزاری شده از حساب کاربری ویوو (VEVO) دارند.
بر اساس ادعای لاپلانت، وظایف آنها اغلب اوقات تغییر میکند. برای مثال گاهی اوقات وظایف آنها بهطور مستقیم مربوط به شناسایی محتوای توهینآمیز است؛ البته کار آنها بعضی اوقات تنها در تعیین مناسب بودن ویدیو برای مخاطب خاص مثلا کودکان خلاصه میشود.
وی در ادامه گفت:
برخی از کارمندان، این عمل را برای تصمیمگیری در مورد پولی شدن یا نشدن یک کانال در نظر میگیرند.
تماشا کنید و یاد بگیرید
وظیفهی متعادل کردن محتوای خاص (که لاپلانت در ۱۴ مارس بهازای ۱۰ سنت آن را انجام داد) کاملا یک هدف مشخص داشت؛ البته که برخی ابهامات در اذهان کارکنان به وجود میآورد. کار پیشنهادی در مورد پنجرهای در یک فرآیند غیر قابل دیدن است: چگونه میتوان برای کمک کردن به ساخت الگوریتم یادگیری ماشینی از یک تفسیر انسانی درمورد ویدیو استفاده شود؟ حتی الگوریتمهای یادگیری ماشینی داخل خود یوتیوب هم تنها ویدیوها را علامت میزنند و مشخص کردن اینکه چه موردی دستورالعملها و قوانین جامعهی یوتیوب را خدشهدار میکند، یک وظیفهی انسانی است.
ابزار یادگیری ماشینی که کارکنان به آموزش دیدن آنها کمک میکنند، کاری فراتراز یافتن ویدیوهای نامناسب انجام میدهند.وظایف هوش انسانی از کارکنان امترک تماشای یک ویدیو را در خواست می کند. بعد از تماشای ویدیو توسط کارکنان، آنها باید به سؤالاتی درمورد آن ویدیو، بهصورت پر کردن گزینهها جواب دهند. این خدمات همچنین از کارکنان میخواهد بهعنوان و توضیح و توصیف ویدیو توجه کنند. کارکنان باید مقداری از ویدیو را تماشا کنند تا بتوانند در قضاوتشان در مورد این موضوع اطمینان حاصل کنند. به علاوه، خدمات بالا توصیه می کنند تا افراد تصاویر را با سرعت ۱٫۵ برابر تماشا کنند.
بخشی از وظایف هوش انسانی خواستار تشخیص تفاوت بین تصاویر (واقعی یا ساختگی) مصرف مواد مخدر و همچنین استفاده تصادفی یا طنزآمیز از داروهای معمولی است. این وظیفه، تنها هروئین را جزو داروهای مخرب بهحساب میآورد. در آخر کارکنان باید دربارهی مناسب بودن فیلم ها برای کودکان قضاوت کنند.
کارکنان برای اینکه حقوقشان با حقوق کار فدرال (۷.۲۵ دلار در ساعت) برابری کند، باید در هر ساعت ۷۲.۵ تکلیف محوله را انجام دهند. بهعبارت دیگر، آنها باید وظایفشان را بسیار سریع انجام دهند تا به حقوق کار معمولی برسند. با اینکه برخی از سؤالات ازطرف یوتیوب بسیار آسان هستند (برای مثال، آیا در این فایل صوتی، آواز خواندن وجود دارد؟)، بیشتر آنها کمی پیچیدگی داشته و آموزش هوش مصنوعی را سخت میکنند. یک فیلم ساده از گربه، کارکنان را دچار مشکل نمیکند؛ ولی تشخیص سخنان پیچیدهی سیاسی درمورد مسائلی مثل سقط جنین واقعا کار سخت و پیچیدهای است.
هدف دقیق وظیفه و مسئولیتهای خاص لاپلانت مشخص نیست و میتواند تنها متعادل کردن محتوا یا سایر موازین باشد. به علاوه یوتیوب هم از اظهار نظر درمورد چنین وظیفه خاصی امتناع میکند. لینک فیلم مشمول مسئولیت، به صفحهای غیر قابل دسترس ارجاع میشود. این ویدیو که در فاصله زمانی سپتامبر ۲۰۱۶ تا مارس ۲۰۱۸، توسط ماشین بایگانی ویبک ۵۶ بار ضبط شد، اسکرینشاتهای اولیه حاکی از آن است که فیلم مورد نظر اصلا وجود ندارد. لاپلانت هم به هیچ وجه آن کلیپ را به یاد نمیآورد.
وی در این خصوص میگوید:
هیچ ویدیوی خاصی را به یاد ندارم؛ ولی به نظر میرسد بارگزاری های افراد مختلف، کلیپهایی از تلویزیون یا سینما و فیلم، تبلیغات و بازیهای ویدیویی بخشهایی از این ویدیو را تشکیل میدهند. این ویدیو دارای یک ژانر یا نوع خاص نبود.
معین های انسانی
یوتیوب در ماه دسامبر سال گذشته میلادی متعهد شد تا نیروی کار متعادلکننده را به ۱۰ هزار نفر در سال ۲۰۱۸ افزایش دهد. کارکنان امترک جزو ۱۰ هزار نفر محسوب نمیشدند؛ چون کار آنها متعادل کردن نبود، بلکه کمک به آموزش هوش مصنوعی برای انجام چنین فرآیندهایی درآینده بود.
این کارمند فعال در این حوزه یوتیوب گفت:
من انتظار دارم حتی اگر یوتیوب تنها برای آموزش الگوریتمهای یادگیری ماشینی از کارکنان امترک استفاده کند، برخی از این آموزشها صرف آموزش الگوریتمها برای کاهش دخالت انسانی بشود. بنابراین، اگر احتمالا ما متعادلسازی محتوای زنده را روی امترک انجام ندهیم، هنوز میتوانیم با آموزش سیستمهای اتوماتیک متعادلسازی محتوا، در چنین کاری سهیم باشیم.
سارا تی رابرتز (Sarah T. Roberts)، پژوهشگر درزمینهی متعادلسازی محتوا از دانشگاه کالیفرنیا، استفادهی بسترهایی همچون یوتیوب از سایتهای کاری کوچک همانند ترک مکانیکی برای تکمیل فعالیتهای ثانویه و بلند مدت مثل آموزش الگوریتمها را امری رایج میداند.
این محقق گفت:
شکی در این مسئله نیست و افرادی مثل لاپلانت و دیگران که تجارب طولانیمدت کار روی سایتهای کاری کوچک را دارند، توجه ویژهای به چنین مواردی دارند.
یوتیوب نیاز مبرمی به ابزار هوش مصنوعی تحت آموزش لاپلانت و سایر کارکنان امترک دارد؛ چراکه درچند ماه گذشته چندین بار در کنترل و بازرسی محتوای خود با شکست روبرو شده است. یوتیوب در سال جاری با مشکل بارگزاری فیلم خودکشی یک فرد به وسیله یکی از چهره های مشهور، روبرو شد. انتقادات زیادی از این ماجرا یوتیوب را به چالش کشید تا اینکه شخص یاد شده، آن ویدیو را حذف کرد. انتقادات از یوتیوب به دلیل نشر تئوری توطئه درمورد تیراندازی در پارکلند بود. این ماجرا مربوط به گروه سفیدپوست تندرویی بود که با ۵ قتل دیگر مرتبط بودند.
پاسخهای کارکنان امترک به سؤالات یوتیوب کمکی نمیکند و میتواند مغرضانه باشد.
طبق گفته مقامات یوتیوب، الگوریتمها در حال حاضر ۹۸ درصد ویدیوهای نامناسب را شناسایی میکنند. البته اصلاحکنندههای انسانی همچنان این ویدیوها را بازبینی میکنند. احتمالا الگوریتمها در آینده در متعادلسازی محتوا پیشرفت های چشمگیرتری خواهند داشت؛ اما در حال حاضر هوش مصنوعی به اندازه ای قوی نیست که در مورد اینکه کدام ویدیو بماند و کدام حذف شود، تصمیمات جزئی بگیرد. البته، دلیل این امر واضح است؛ پایه و اساس فناوری هوش مصنوعی یوتیوب به تصمیمات فوری کارکنان امترک بستگی دارد. تلاش برای نسخه برداری از قضاوت انسانی در هوش مصنوعی کار آسانی نیست و پاسخ کارکنان امترک به سؤالات یوتیوب تنها بر اساس دیدگاه آنها گرفته میشود و نمیتواند کمکی به جریان کلی کند. الگوریتمها حتی اگر با بهترین اهداف ساخته شده باشند، بازهم هرگز کاملا خنثی و بیطرف نخواهند بود؛ زیرا که ساخته دست انسان هستند. گاهی اوقات حتی الگوریتمها هم نتیجه کار افرادی کمحقویق هستند که ویدیوها را باسرعت ۱.۵ برابر تماشا میکنند.
منبع : زومیت