کمیته رکن چهارم– شرکت OpenAI اعلام کرد قصد دارد برای افزایش ایمنی کاربران، مکالمات حساس را بهطور خودکار به سمت مدلهای دقیقتری مانند GPT-5 هدایت کند و همچنین قابلیتهای کنترل والدین را در هفتههای آینده به محصولات خود اضافه خواهد کرد. این تصمیم در واکنش به نگرانیهای اخیر درباره تأثیر منفی برخی مکالمات چتباتها بر سلامت روان کاربران، بهویژه نوجوانان اتخاذ شده است.

به گزارش کمیته رکن چهارم، این تصمیم در پی پروندههای جنجالی مانند مرگ آدام رین، نوجوانی که با ChatGPT درباره خودکشی گفتوگو کرده بود، اتخاذ شده است. در این پرونده، چتبات نهتنها نتوانست نشانههای اضطراب را شناسایی کند، بلکه حتی روشهایی برای آسیب به خود پیشنهاد داده بود. خانواده رین شکایتی بهاتهام قتل غیرعمد علیه OpenAI تنظیم کردهاند.
بر اساس برنامه جدید، گفتوگوهایی که نشانههایی از اضطراب شدید یا رفتارهای پرخطر دارند، به مدلهای پیشرفتهتر مانند GPT-5 منتقل میشوند؛ مدلهایی که توانایی بیشتری در تحلیل زمینه و مقاومت در برابر پرومپتهای فریبنده دارند.
همچنین ویژگیهای کنترل والدین در راه است. از جمله اتصال حساب والدین به فرزندان، غیرفعالسازی حافظه چت، دریافت هشدار در صورت شناسایی اضطراب شدید و ارائه مد «مطالعه» برای تقویت تفکر انتقادی.
با این حال، برخی کارشناسان حقوقی از جمله وکیل خانواده رین، این اقدامات را ناکافی دانستهاند و خواستار پاسخگویی شفاف مدیرعامل OpenAI شدهاند. بهگفته آنها، شرکت از ابتدا از خطرات آگاه بوده ولی در واکنش تأخیر داشته است.
این اقدامات بخشی از یک برنامه ۱۲۰ روزه برای ارتقاء ایمنی محصولات OpenAI هستند و شامل همکاری با پزشکان، روانشناسان و شبکههای تخصصی بینالمللی میشود. با افزایش استفاده از چتباتها در زندگی روزمره، موضوع ایمنی روانی و نظارت تخصصی بر عملکرد هوش مصنوعی به یک اولویت جهانی تبدیل شده است.
