هوش مصنوعی مدیر حراست فیلم های یوتیوب

کمیته رکن چهارم – معروف ترین وبگاه بارگذاری فیلم از فناوری هوش مصنوعی برای مدیریت تصاویر نامناسب استفاده می کند

بر کسی پوشیده نیست که یوتیوب در سال گذشته‌ میلادی قصد متعادل کردن ویدیوهای بستر خود را داشت. این شرکت چندید بار با رسوایی هایی مانند عدم توانایی مدیریت محتوای نامناسب به خصوص ویدئوهای مرتبط با کودکان روبرو شده است. کارکنان یوتیوب به‌طور مستقیم مسئولیت از بین بردن و جلوگیری‌ از بارگزاری ویدیوهایی با مضامین جنسی و خشونت‌آمیز را بر عهده گرفتند. به علاوه پیمانکاران از هوش‌ مصنوعی برای شناسایی محتوای نامناسب استفاده می کردند. با این حال، ممکن است ارائه‌ کارکرد ترک مکانیکی، بتواند عملکرد ابزار یادگیری ماشینی یوتیوب را در سطوح اولیه به ما نشان دهد.

ترک مکانیکی (Mechanical Turk) یا مکانیکال ترک، یک بازار زیرمجموعه‌ آمازون است که در آن نهاد‌ها و پژوهشگران آکادمیک، برای اجرا و انجام خدمات کوچک به‌ نام وظایف هوش انسانی (HIT) به پیمانکاران و کارکنان هزینه ای به میزان کمتر از یک دلار پول پرداخت می‌کنند. کارکنان شرکت نام برده با تکمیل وظایفی همچون شناسایی اشیاء یک تصویر، نوشتن درمورد یک فایل صوتی یا کمک‌ به آموزش یک الگوریتم، به عملکرد بهتر اینترنت کمک می‌کنند.

کارمندان شرکت بالا به‌طور مستقیم درمورد متعادل کردن محتویات تصمیم‌گیری نمی‌کنند؛ ولی معمولا به آموزش ابزار یادگیری ماشینی یوتیوب در همه روش ها کمک می‌کنند. ابزار یادگیری ماشینی، اقدامی فراتر از پیدا کردن ویدیوهای نامناسب انجام می‌دهد. کارمندان همچنین به سایر بخش‌های سامانه یوتیوب مانند الگوریتم پیشنهادی کمک می‌کنند.

راشل لاپلانت (Rochelle LaPlante)، یکی‌ از کارکنان ام‌ترک در این رابطه اظهار داشت:

یوتیوب و گوگل سال‌ها است که وظایفی بر عهده‌ی ترک مکانیکی گذاشته‌اند. این وظایف طیف بسیار متنوعی همچون علامت گذاری نوع محتوا، جستجوی محتویات مربوط‌به بزرگسالان، مشخص کردن محتویاتی که مشکوک به توطئه هستند، مشخص کردن عناوین مناسب و شناسایی ویدیوهای بارگزاری شده از حساب کاربری ویوو (VEVO) دارند.

بر اساس ادعای لاپلانت، وظایف آن‌ها اغلب‌ اوقات تغییر می‌کند. برای مثال گاهی‌ اوقات وظایف آن‌ها به‌طور مستقیم مربوط‌ به شناسایی محتوای توهین‌آمیز است؛ البته کار آن‌ها بعضی‌ اوقات تنها در تعیین مناسب بودن ویدیو برای مخاطب خاص مثلا کودکان خلاصه می‌شود.

وی در ادامه گفت:

برخی‌ از کارمندان، این عمل را برای تصمیم‌گیری در مورد پولی شدن یا نشدن یک کانال در نظر می‌گیرند.

تماشا کنید و یاد بگیرید

وظیفه‌ی متعادل کردن محتوای خاص (که لاپلانت در ۱۴ مارس به‌ازای ۱۰ سنت آن‌ را انجام داد) کاملا یک هدف مشخص داشت؛ البته که برخی ابهامات در اذهان کارکنان به‌ وجود می‌آورد. کار پیشنهادی در مورد پنجره‌ای در یک فرآیند غیر قابل دیدن است: چگونه می‌توان برای کمک کردن به ساخت الگوریتم یادگیری ماشینی از یک تفسیر انسانی درمورد ویدیو استفاده شود؟ حتی الگوریتم‌های یادگیری ماشینی داخل خود یوتیوب هم تنها ویدیوها را علامت می‌زنند و مشخص کردن اینکه چه‌ موردی دستورالعمل‌ها و قوانین جامعه‌ی یوتیوب را خدشه‌دار می‌کند، یک وظیفه‌ی انسانی است.

ابزار یادگیری ماشینی که کارکنان به آموزش دیدن آن‌ها کمک می‌کنند، کاری فراتراز یافتن ویدیوهای نامناسب انجام می‌دهند.وظایف هوش انسانی از کارکنان ام‌ترک تماشای یک ویدیو را  در خواست می کند. بعد از تماشای ویدیو توسط کارکنان، آن‌ها باید به‌ سؤالاتی درمورد آن ویدیو، به‌صورت پر کردن گزینه‌ها جواب دهند. این خدمات همچنین از کارکنان می‌خواهد به‌عنوان و توضیح و توصیف ویدیو توجه کنند. کارکنان باید مقداری از ویدیو را تماشا کنند تا بتوانند در قضاوتشان در مورد این موضوع اطمینان حاصل کنند. به علاوه، خدمات بالا توصیه می کنند تا افراد تصاویر را با سرعت ۱٫۵ برابر تماشا کنند.

بخشی‌ از وظایف هوش انسانی  خواستار تشخیص تفاوت بین تصاویر (واقعی یا ساختگی) مصرف مواد مخدر و همچنین استفاده‌ تصادفی یا طنزآمیز از داروهای معمولی است. این وظیفه، تنها هروئین را جزو داروهای مخرب به‌حساب می‌آورد. در آخر کارکنان باید درباره‌ی مناسب بودن فیلم ها برای کودکان قضاوت کنند.

کارکنان برای اینکه حقوقشان با حقوق کار فدرال (۷.۲۵ دلار در ساعت) برابری کند، باید در هر ساعت ۷۲.۵ تکلیف محوله را انجام دهند. به‌عبارت دیگر، آن‌ها باید وظایف‌شان را بسیار سریع انجام دهند تا به حقوق کار معمولی برسند. با اینکه برخی‌ از سؤالات ازطرف یوتیوب بسیار آسان هستند (برای مثال، آیا در این فایل صوتی، آواز خواندن وجود دارد؟)، بیشتر آن‌ها کمی پیچیدگی داشته و آموزش هوش مصنوعی را سخت می‌کنند. یک فیلم ساده از گربه، کارکنان را دچار مشکل نمی‌کند؛ ولی تشخیص سخنان پیچیده‌ی سیاسی درمورد مسائلی مثل سقط جنین واقعا کار سخت و پیچیده‌ای است.

هدف دقیق وظیفه و مسئولیت‌های خاص لاپلانت مشخص نیست و می‌تواند تنها متعادل کردن محتوا یا سایر موازین باشد. به علاوه یوتیوب هم از اظهار نظر درمورد چنین وظیفه‌ خاصی امتناع می‌کند. لینک فیلم مشمول مسئولیت، به صفحه‌ای غیر قابل دسترس ارجاع می‌شود. این ویدیو که در فاصله زمانی سپتامبر ۲۰۱۶ تا مارس ۲۰۱۸، توسط ماشین بایگانی وی‌بک ۵۶ بار ضبط شد، اسکرین‌شات‌های اولیه حاکی از آن است که فیلم مورد نظر اصلا وجود ندارد. لاپلانت هم به هیچ وجه آن کلیپ را به‌ یاد نمی‌آورد.

وی در این خصوص می‌گوید:

هیچ ویدیوی خاصی را به‌ یاد ندارم؛ ولی به‌ نظر می‌رسد بارگزاری های افراد مختلف، کلیپ‌هایی از تلویزیون یا سینما و فیلم، تبلیغات و بازی‌های ویدیویی بخش‌هایی از این ویدیو را تشکیل می‌دهند. این ویدیو دارای یک ژانر یا نوع خاص نبود.

معین های انسانی

یوتیوب در ماه دسامبر سال گذشته میلادی متعهد شد تا نیروی کار متعادل‌کننده را به ۱۰ هزار نفر در سال ۲۰۱۸ افزایش دهد. کارکنان ام‌ترک جزو ۱۰ هزار نفر محسوب نمی‌شدند؛ چون‌ کار آن‌ها متعادل کردن نبود، بلکه کمک‌ به آموزش هوش مصنوعی برای انجام چنین فرآیندهایی درآینده بود.

این کارمند فعال در این حوزه یوتیوب گفت:

من انتظار دارم حتی اگر یوتیوب تنها برای آموزش الگوریتم‌های یادگیری ماشینی از کارکنان ام‌ترک استفاده کند، برخی‌ از این آموزش‌ها صرف آموزش الگوریتم‌ها برای کاهش دخالت انسانی بشود. بنابراین، اگر احتمالا ما متعادل‌‌سازی محتوای زنده را روی ام‌ترک انجام ندهیم، هنوز می‌توانیم با آموزش سیستم‌های اتوماتیک متعادل‌سازی محتوا، در چنین کاری سهیم باشیم.

سارا تی رابرتز (Sarah T. Roberts)، پژوهشگر درزمینه‌ی متعادل‌سازی محتوا از دانشگاه کالیفرنیا، استفاده‌ی بسترهایی همچون یوتیوب از سایت‌های کاری کوچک همانند ترک مکانیکی برای تکمیل فعالیت‌های ثانویه و بلند مدت مثل آموزش الگوریتم‌ها را امری رایج می‌داند.

این محقق گفت:

شکی در این مسئله نیست و افرادی مثل لاپلانت و دیگران که تجارب طولانی‌مدت کار روی سایت‌های کاری کوچک را دارند، توجه ویژه‌ای به چنین مواردی دارند.

یوتیوب نیاز مبرمی به ابزار هوش مصنوعی تحت آموزش لاپلانت و سایر کارکنان ام‌ترک دارد؛ چراکه درچند ماه گذشته چندین بار در کنترل و بازرسی محتوای خود با شکست روبرو شده است. یوتیوب در سال جاری با مشکل بارگزاری فیلم خودکشی یک فرد به وسیله یکی‌ از چهره های مشهور، روبرو شد. انتقادات زیادی از این ماجرا یوتیوب را به چالش کشید تا اینکه شخص یاد شده، آن ویدیو را حذف کرد. انتقادات از یوتیوب به‌ دلیل نشر تئوری توطئه درمورد تیراندازی در پارکلند بود. این ماجرا مربوط‌ به گروه سفیدپوست تندرویی بود که با ۵ قتل دیگر مرتبط بودند.

پاسخ‌های کارکنان ام‌ترک به سؤالات یوتیوب کمکی نمی‌کند و می‌تواند مغرضانه باشد.

طبق گفته‌ مقامات یوتیوب، الگوریتم‌ها در حال حاضر ۹۸ درصد ویدیوهای نامناسب را شناسایی می‌کنند. البته اصلاح‌کننده‌های انسانی همچنان این ویدیوها را بازبینی می‌کنند. احتمالا الگوریتم‌ها در آینده در متعادل‌سازی محتوا پیشرفت های چشمگیرتری خواهند داشت؛ اما در حال حاضر هوش مصنوعی به اندازه ای قوی نیست که در مورد اینکه کدام ویدیو بماند و کدام حذف شود، تصمیمات جزئی بگیرد. البته، دلیل این امر واضح است؛ پایه و اساس فناوری هوش مصنوعی یوتیوب به تصمیمات فوری کارکنان ام‌ترک بستگی دارد. تلاش برای نسخه برداری از قضاوت انسانی در هوش مصنوعی کار آسانی نیست و پاسخ کارکنان ام‌ترک به سؤالات یوتیوب تنها بر اساس دیدگاه آن‌ها گرفته می‌شود و نمی‌تواند کمکی به جریان کلی کند. الگوریتم‌ها حتی اگر با بهترین اهداف ساخته شده باشند، بازهم هرگز کاملا خنثی و بی‌طرف نخواهند بود؛ زیرا که ساخته‌ دست انسان‌ هستند. گاهی‌ اوقات حتی الگوریتم‌ها هم نتیجه‌ کار افرادی کم‌حقویق هستند که ویدیوها را باسرعت ۱.۵ برابر تماشا می‌کنند.

منبع : زومیت

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.