OpenAI نسخه کامل هوش مصنوعی تولیدکننده‌ی متن GPT-2 را منتشر کرد

کمیته رکن چهارم – لابراتور تحقیقاتی OpenAI با وجود هشدارهایی مبنی‌بر خطرناک‌بودن GPT-2، نسخه‌ی کامل سیستم هوش مصنوعی تولیدکننده‌ی متن خود را منتشر کرد. 

لابراتور تحقیقاتی OpenAI نسخه‌ی کامل سیستم هوش مصنوعی تولیدکننده‌ی متن به‌نام  GPT-2 را منتشر کرده است. این موفقیت در حالی‌ حاصل شده است که کارشناسان هشدار دادند این سیستم هوش مصنوعی می‌تواند برای اهداف مخرب استفاده شود. GPT-2 مخفف واژه‌های Generative Pretrained Transformer است. حرف G مخفف واژه‌ی Generative به‌معنای «تولیدکننده یا زایا» و حرف P مخفف واژه‌ی Pretrained به‌معنای «پیش‌آموزش داده‌شده» و حرف T مخفف واژه‌ی Transformer به‌معنای «مبدل یا ترنسفورمر» است.

در فوریه‌ی سال جاری، مؤسسه‌ی تحقیقاتی OpenAI فناوری خارق‌‌العاده‌ی GPT-2 را رونمایی کرد که می‌توانست با کمترین دخالت انسانی، متونی منسجم شامل چندین پاراگراف را از خود بنویسد. حتی در توضیحات گاردین این‌گونه آمده بود که این سیستم هوش مصنوعی متون چندکلمه‌‌ای تا یک‌صفحه‌‌ای را به‌‌عنوان ورودی دریافت می‌‌کند و می‌‌تواند چندین جمله را باتوجه‌به پیش‌‌بینی‌‌های خود درادامه‌ی آن بنویسد.

بااین‌همه، OpenAI به‌‌‌دلیل نگرانی‌‌های ناشی‌‌ از سوءاستفاده‌‌های احتمالی ازقبیل انتشار اخبار جعلی و هرزنامه‌ها و اطلاعات نادرست، نسخه‌‌ی کامل این فناوری را منتشر نکرد. از آن زمان نسخه‌های کوچک‌تر و کمتری از GPT-2 منتشر شده است و پذیرش آن‌ها مطالعه شده است. برخی دیگر نیز GPT-2 را نیز بارها آزمایش کرده‌اند. درنهایت، لابراتور تحقیقاتی OpenAI این هفته در پستی در وبلاگ خود نوشت:

هیچ مدرک محکمی درباره‌ی سوءاستفاده و مخرب‌بودن GPT-2 وجود ندارد؛ ازاین‌رو، نسخه‌ی کامل این فناوری منتشر شده است.

OpenAI

نمونه‌ی تولید متنی از الگوریتم مدل‌سازی زبان OpenAI GPT-2

هوش مصنوعی زبانی GPT-2 بخشی از نسل جدیدی از سیستم‌های تولید متن است که متخصصان را تحت‌تأثیر توانایی خود برای تولید متن منسجم با دراختیارداشتن حداقل داده‌ها قرار داده است. به‌طور خاص، OpenAI هوش مصنوعی GPT-2 را برپایه‌ی داده‌های متنی دریافت‌شده آموزش داده است که کاربران و نویسندگان ارسال کرده‌اند. تمام داده‌های گرفته‌شده از لینک‌های وب و متن بودند؛ به‌همین‌دلیل، به دیتاست به‌دست‌آمده WebText گفته شد. بیش از ۴۰ گیگابایت داده‌ی اینترنتی به‌همراه تقریبا ۱/۵ میلیارد پارامتر از ساختارهای متنی برای آموزش GPT-2 به‌کار گرفته شده است. به‌عنوان مثال، می‌توانید تنها با دادن عنوانی جعلی، از GPT-2 بخواهید مطلبی درباره‌ی آن بنویسد یا فقط با ارائه‌ی مصرعی از یک شعر، کل شعر را از GPT-2 تحویل بگیرید.

 

پی‌بردن به عملکرد هوش مصنوعی زبانی GPT-2 از روی خروجی داده‌های آن بسیار دشوار است؛ اما این مدل زبانی اغلب نوشته‌های پررمزورازی تولید می‌کند که حتی می‌توان نشانه‌هایی از شعور یا هوش را در آن ردیابی کرد. این بدان معنا نیست که GPT-2 نیز مجهز به همان قدرت و ویژگی است که ما آن را به‌عنوان شناخت می‌شناسیم. اگر با این سیستم به اندازه‌ی کافی کار کنید، محدودیت‌های آن نیز برایتان به‌خوبی مشخص خواهد شد. یکی از ضعف‌های آن در حفظ انسجام متون بلند است. برای نمونه، استفاده از نام‌ها و صفت‌های شخصیت‌ها به‌طور مداوم در داستان یا اصرار بر نوشتن درباره‌ی موضوع واحد در مقاله‌ای خبری.

بهترین روش برای تخمین قابلیت‌های GPT-2 این است که خودتان آن را امتحان کنید. برای دسترسی به این سیستم، می‌توانید به نسخه‌ی وب در TalkToTransformer.com مراجعه کنید و پیام و سوال خودتان را مطرح کنید. واژه‌ی «ترنسفورمر» مؤلفه‌ای از معماری یادگیری ماشین است که برای ایجاد GPT-2 و دیگر بخش‌های آن استفاده می‌شود. گفتنی است ترنسفورمرها معماری بی‌نظیری از شبکه‌های عصبی هستند.

ai

جدا از قابلیت‌های خام GPT-2، انتشار این مدل به‌عنوان بخشی از بحث درباره‌ی مسئولیت‌پذیری پژوهشگران هوش مصنوعی برای کاهش آسیب‌های ناشی از کار درخورتوجه است. کارشناسان پیش‌تر نیز خاطرنشان کرده بودند دسترسی آسان به تمام ابزارهای این هوش مصنوعی می‌تواند به فعال کردن بخش‌های مخربی منجر شود. برای نمونه، پویایی‌ای که در این فناوری وجود دارد، می‌تواند با مونتاژ تصویر چهره‌‌ی فردی روی چهره‌‌ی فردی دیگر، به تولید ویدئوهای جعلی یا دیپ‌‌فیک (Deepfake) منجر شود. بنابراین، به‌دلیل وجود چنین نگرانی‌هایی، OpenAI انتشار مدل خود را محدود کرده است.

بیش از ۴۰ گیگابایت داده‌ی اینترنتی به‌همراه تقریبا ۱/۵ میلیارد پارامتر از ساختارهای متنی برای آموزش GPT-2 به‌کار گرفته شده است

شایان ذکر است همه از این رویکرد لابراتوار OpenAI استقبال نکرده‌اند و بسیاری از کارشناسان با انتقاد از چنین تصمیمی، بیان کردند با انجام این کار دامنه‌ی تحقیقاتی کسانی محدود می‌شود که این مدل را کاهش می‌دهند و توقع‌های غیرضروری درباره‌ی خطرهای هوش مصنوعی ایجاد خواهد کرد. دلیپ رائو، پژوهشگر این پروژه به خبرگزاری The Verge گفت:

کلمات بسیار خطرناک هستند؛ به‌خصوص زمانی‌که بدون هیچ تفکری و تنها با آزمایش تولید خواهند شد. فکر نمی‌کنم [OpenAI] وقت کافی را برای اثبات خطرناک بودن این سیستم صرف کند.

OpenAI در بیانیه‌ای که این هفته درباره‌ی مدل کامل GPT-2 منتشر کرده بود، خاطرنشان کرد GPT-2 این سیستم می‌تواند به تولید «تبلیغات مصنوعی» برای موقعیت‌های ایدئولوژیک افراطی کمک کند؛ ازاین‌رو، ممکن است با استناد به تحقیقات شخص ثالث از آن سوءاستفاده شود. اگرچه‌ OpenAI بر ترس و نگرانی خود اعتراف کرد و گفت ممکن است از این سیستم برای بیرون‌کشیدن حجم زیاد اسپم منسجم یا بسیاری از سیستم‌های اطلاعاتی آنلاین عملی‌نشده مانند رسانه‌های اجتماعی استفاده شود.

 

همچنین، این لابراتوار خاطرنشان کرد پژوهشگران خود OpenAI سیستم‌های خودکاری ایجاد کردند که می‌تواند خروجی GPT-2 را با دقت ۹۵ درصدی تشخیص دهند؛ اما این رقم برای «تشخیص سیستم خودکفا» کافی نیست؛ یعنی هر سیستمی که برای شناسایی خودکار متن جعلی موردنیاز باشد، به‌تنهایی کافی نیست و درنهایت، برای تشخیص نهایی به داوری انسانی نیازمند است. گرچه انجام چنین کارهایی اغلب عجیب نیست که متکی به تشخیص و شناسایی نهایی انسان در این سیستم باشد؛ به‌‌ویژه برای تشخیص جعلی بودن یا نبودن تصاویر و ویدئوها.

OpenAI قصد دارد فعلا نظاره‌گر نحوه‌ی استفاده‌ی جامعه و عموم مردم از GPT-2 باشد تا در آینده، بهتر بتواند سیاست‌های خود را درباره‌ی انتشار مسئول‌بودن تحقیقات هوش مصنوعی تدوین کند.

منبع : زومیت

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Blue Captcha Characters Below.