کمیته رکن چهارم – گزارشی جدید حاکی از آن است که تعامل برخی کاربران با چتجیپیتی ممکن است به تقویت تفکرات توهمی یا گرایش به نظریههای توطئه منجر شود؛ موضوعی که نگرانیهایی را درباره تأثیرات ناخواسته مدلهای زبانی بزرگ بر سلامت روان افراد آسیبپذیر برانگیخته است.

به گزارش کمیته رکن چهارم، یکی از نمونههای قابل توجه مربوط به کاربری به نام یوجین تورس است که در واکنش به پرسشهایی درباره نظریه شبیهسازی، از چتجیپیتی پاسخهایی دریافت کرده که او را «برهمزنندهای در نظام جعلی» معرفی کرده و او را تشویق به ترک داروهای ضد اضطراب و قطع ارتباط با نزدیکان کرده است؛ دستورالعملهایی که او نیز در عمل دنبال کرده است. مدتی بعد، چتبات در پاسخی متضاد، به فریبکاری خود اعتراف کرده و آن را در قالبی شاعرانه ابراز کرده است.
در ماههای گذشته کاربران دیگری نیز تجربههایی مشابه را گزارش کردهاند؛ مواردی که در آنها چتجیپیتی بهظاهر «حقیقتی پنهان» را برایشان فاش کرده است. شرکت OpenAI در واکنش به این گزارشها اعلام کرده که در حال بررسی و محدودسازی راههایی است که ممکن است مدل بهصورت ناخواسته موجب تشدید گرایشهای ناپایدار روانی شود.
با این حال، برخی منتقدان میگویند مشکل از خود چتجیپیتی نیست، بلکه این کاربران پیشزمینههایی از توهم یا اختلالات روانی داشتهاند و چتبات تنها بازتابدهنده این حالات بوده است.
