کمیته رکن چهارم – محققان با چند حقهی کوچک، هوش مصنوعی گوگل، برای پیدا کردن محتوای توهینآمیز را به چالش کشیده و نقاط ضعف آن را پیدا کنند.
گروهی از محققان دریافتهاند که با اعمال تغییراتی کوچک در جمله و ساختار آن، میتوانند هوش مصنوعی گوگل برای تشخیص محتوای توهینآمیز را گول بزنند. گوگل با بررسی کلمات استفاده شده در هر عبارت امتیازی را برای آن در نظر میگیرد. هرچه امتیاز یک عبارت بالاتر باشد یعنی نامناسبتر است. این گروه با اعمال تغییراتی مانند اشتباهات املایی، ایجاد فاصله بین حروف و استفاده از کلمات مثبت در عباراتی با بار معنایی منفی، عملکرد هوش مصنوعی گوگل را به چالش کشیدهاند و سپس با بررسی امتیاز عبارات متوجه ضعف عملکرد آن شدهاند.
Jigsaw پروژهی جانبی هوش مصنوعی گوگل که در سال ۲۰۱۶ راهاندازی شد، به هر عبارت با توجه به میزان توهینآمیز بودن آن امتیاز میدهد. در این پروژه، محتوای توهینآمیز به عباراتی گفته میشود که بیادبانه باشند، به شخص یا چیزی بیاحترامی میکنند یا نظرهایی غیرمنطقی هستند که باعث میشوند سایر کاربران بحث را ترک کنند. محققان ادعا کردهاند حتی اعمال کوچکترین تغییرات، امتیاز عبارات را به شدت تحت تأثیر قرار میدهد.
همانطور که در جدول بالا مشاهده میکنید جملات اولیه توهینآمیز نیستند اما با اضافه شدن کلمهی نامناسبی که بار منفی ندارد و تنها روی شدت احساسات تأکید میکند، میزان توهینآمیز بودن جملات افزایش پیدا کرده است. این نشان میدهد امتیاز گوگل معیار خوبی برای تشخیص عبارات نامناسب نیست. بر اساس تحقیق دیگری که سال گذشته در همین زمینه صورت گرفت، پژوهشگران متوجه شدند اشتباهات املایی و اضافه کردن فاصله بین حروف، امتیاز توهینآمیز بودن عبارات را کم میکند، درصورتیکه معنای جمله هیچ تغییری نکرده است.
گوگل برای از بین بردن این مشکل، نسبت به سال گذشته هوش مصنوعی خود را بهبود داده است. اما هنوز هم کامل و بدون نقص نیست. بر اساس اعلام تیم تحقیق، امتیاز جملات توهینآمیزی که در آنها از واژهی «عشق» استفاده شده به شدت پایین بود. این یعنی یک کلمهی مثبت امتیاز کلی جمله را تحت تأثیر قرار میدهد. بنابراین هر شخصی میتواند برای جلوگیری از پاک شدن نظرش به عنوان یک نظر توهینآمیز تنها چند کلمهی مثبت به آن اضافه کند.
به طور کلی الگوریتمهای معرفی شده از سوی شرکتهایتکنولوژی چندین سال است که با محتوای توهینآمیز مشکل دارند. بهعنوان مثال شرکت مایکروسافت در سال ۲۰۱۶ یک ربات توییتر به نام Tay را معرفی کرد که چون به پاسخ کاربران متکی بود، توییتهایش به فحاشی تبدیل شد. توییتر نیز تجربهی عجیبی در بلاک کردن کاربران داشت و هر کاربری که در توییتهای خود از عبارت «من را بکش» استفاده کرده بود را فارغ از معنی توییت بلاک میکرد. فیسبوک نیز در فاصله مهر ۱۳۹۶ تا فروردین ۱۳۹۷ (بین اکتبر ۲۰۱۷ و مارچ ۲۰۱۸ میلادی) توانست تنها ۳۸ درصد از پستهای حاوی محتوای توهینآمیز را فیلتر کند.
محققان پیشنهاد میکنند برای بهبود عملکرد هوش مصنوعی گوگل، بهتر است الگوریتمها به جای کلمات استفاده شده در جملات، روی معنای محتوا تمرکز کنند. علاوه بر این باید اشتباهات املایی عمدی یا سهوی را نیز در امتیازدهی به میزان توهینآمیز بودن عبارات در نظر گرفته شود.
منبع : زومیت