اولین شکایت از چت‌جی‌پی‌تی به خاطر تولید اطلاعات نادرست

کمیته رکن چهارم – ChatGPT، با وجود تمام پتانسیل‌هایش، با استقبال گرمی در استرالیا مواجه نشده است. در واکنش به افزایش موج استفاده از چت‌جی‌پی‌تی در کلاس‌های درس، مجموعه‌ای از دانشگاه‌های برتر استرالیا تصمیم گرفتند آزمون‌های مبتنی بر قلم و کاغذ را دو چندان کنند تا خطرات تقلب و سوء‌استفاده را کاهش دهند.

ChatGPT، با وجود تمام پتانسیل‌هایش، با استقبال گرمی در استرالیا مواجه نشده است. در واکنش به افزایش موج استفاده از چت‌جی‌پی‌تی در کلاس‌های درس، مجموعه‌ای از دانشگاه‌های برتر استرالیا تصمیم گرفتند آزمون‌های مبتنی بر قلم و کاغذ را دو چندان کنند تا خطرات تقلب و سوء‌استفاده را کاهش دهند. اکنون، خالق چت‌جی‌پی‌تی با شکایتی مبنی بر ارائه اطلاعات نادرست درباره برایان هود، که در حال حاضر به عنوان شهردار شورای هپبورن شایر در ملبورن مشغول به کار است، مواجه شده است.

این هوش مصنوعی بحث‌برانگیز هود را به عنوان یکی از عاملان دخیل در یک رسوایی رشوه‌خواری خارجی معرفی کرد، در حالی که در واقع، او یک افشاگر (سوت‌زن) بود. هنگامی که از چت‌جی‌پی‌تی در مورد نقش هود در این پرونده سوال شد، هوش مصنوعی پاسخ داد که هود «در پرداخت رشوه به مقامات اندونزی و مالزی دست داشته است» و اینکه او به دلیل نقش داشتن در این ماجرا به زندان نیز رفت. این نشریه استرالیایی به نقل از هود گفت: «لحظه‌ای بی‌حسی به من دست داد. این اطلاعات به قدری نادرست بود که مات و مبهوت شدم».

یک رخداد قابل پیش‌بینی برای نقایص هوش مصنوعی

وکلای هود در مورد این موضوع نگران‌کننده نامه‌ای به شرکت OpenAI ارسال کردند و ۲۸ روز فرصت دادند تا این پاسخ اشتباه را اصلاح کند وگرنه باید به اتهام افترا به دادگاه مراجعه کند. OpenAI هنوز پاسخی علنی منتشر نکرده است، اما اگر این شرکت در مورد این ماجرا شفافسازی نکند این نخستین شکایتی خواهد بود که این شرکت تحت حمایت مایکروسافت به خاطر فناوری هوش مصنوعی پرهیاهویش با آن مواجه می‌شود. به گفته یک کارشناس به نقل از رویترز، اگر این به یک دعوای حقوقی تبدیل شود و حکم به نفع هود صادر شود، حداقل ۲۰۰۰۰۰ دلار استرالیا جریمه در پی خواهد داشت.

چت‌جی‌پی‌تی با ارائه اطلاعات نادرست و گمراه‌کننده غریبه نیست و این مشکل تا به امروز ادامه داشته است. از طرف دیگر OpenAI بارها استدلال کرده است که مدل زبان طبیعی آن ممکن است اطلاعات نادرستی تولید کند. بخشی از این کاستی را می‌توان به این واقعیت نسبت داد که مجموعه داده‌های آموزشی آن تنها به سال ۲۰۲۱ باز می‌گردد. به علاوه، مسائل ذاتی فناوری مانند توهمات هوش مصنوعی وجود دارد که هنوز حل نشده است. حتی پرزیدنت بایدن اخیراٌ گفت که سهامداران این صنعت باید اطمینان حاصل کنند که محصولات هوش مصنوعی جنبه ایمنی را به خطر نمی‌اندازند. علاوه بر این، افرادی مانند ایلان ماسک امسال نامه‌ای سرگشاده امضا کرده و خواستار توقف شش ماهه توسعه محصولات پیشرفته هوش مصنوعی همچون مدلGPT-4 شرکت OpenAI شدند.

منبع : ایتنا

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Blue Captcha Characters Below.