کمیته رکن چهارم – کاربران ChatGPT اخیراً با پدیدهای عجیب مواجه شدهاند: این چتبات در برخورد با برخی نامها، از جمله «دیوید مایر»، دچار اختلال شده یا از پاسخدهی خودداری میکند. این رفتار که محدود به یک نام خاص نیست، باعث ایجاد گمانهزنیهای مختلفی درباره دلایل احتمالی آن شده است.
به گزارش کمیته رکن چهارم، نشان میدهند که نامهای دیگری مانند «Brian Hood», «Jonathan Turley», «Jonathan Zittrain», «David Faber» و «Guido Scorza» نیز مشکلات مشابهی ایجاد کردهاند. ارتباط مشترک میان این نامها میتواند به موضوع حریم خصوصی یا درخواستهای قانونی برای محدود کردن اطلاعات مرتبط با این افراد بازگردد.
برخی فرضیات حاکی از آن است که این افراد، اشخاص عمومی یا نیمهعمومی هستند که درخواستهایی برای حذف یا محدود کردن اطلاعات مرتبط با خود از اینترنت یا مدلهای هوش مصنوعی مانند ChatGPT ارائه کردهاند. بهعنوان مثال، «برایان هود»، یک شهردار استرالیایی، موفق شد اطلاعات اشتباه درباره خود را از مدلهای هوش مصنوعی حذف کند. همچنین، «جاناتان زیتترین» و «گویدو اسکورزا» متخصصان حقوقی در زمینه حفاظت از دادهها و حریم خصوصی شناخته میشوند.
در مورد «دیوید مایر»، اطلاعات شناختهشدهای از ارتباط او با سیاست یا حقوق وجود ندارد، اما گزارشها نشان میدهند که یک پروفسور با همین نام، سالها به دلیل اشتباه هویتی با یک مجرم تحت تعقیب، مجبور به دفاع از نام خود بوده است.
این رفتار مدلهای هوش مصنوعی ممکن است به دلیل اعمال فیلترهایی برای رعایت قوانین حریم خصوصی، امنیتی یا محدودیتهای قانونی باشد. اگر پردازش این فیلترها دچار خطا شود، میتواند باعث توقف یا اختلال در پاسخدهی شود.
ماجرای نام دیوید مایر و موارد مشابه نشان میدهد که عملکرد مدلهای هوش مصنوعی همچنان به نظارت و قوانین شرکتهای سازنده وابسته است. تنظیمات اعمالشده برای رعایت حریم خصوصی یا محدودیتهای قانونی گاهی باعث رفتارهای غیرمنتظره در این مدلها میشود. این اختلالات میتواند ناشی از خطا در پردازش فیلترهای حفاظتی باشد. چنین مواردی اهمیت نظارت دقیق بر این فناوریها را برجسته میکند. برای بررسی دقیقتر، مطالعه منابع معتبر مانند گزارشهای فنی و تحلیلهای متخصصان ضروری است. این منابع میتوانند دلایل رفتارهای غیرمنتظره مدلهای هوش مصنوعی و تأثیر قوانین یا خطاهای سیستمی را روشن کنند.