کمیته رکن چهارم – شرکت OpenAI در بهروزرسانی جدید ابزار تولید تصویر ChatGPT، محدودیتهای پیشین را کاهش داده و اعلام کرده که سیاستهای نظارت محتوایی خود را با تمرکز بر ارزیابی جزئی و منع آسیب واقعی بازتعریف کرده است.
به گزارش کمیته رکن چهارم، شرکت OpenAI در نسخه ارتقاءیافتهای از ابزار تولید تصویر ChatGPT، سیاستهای محتوایی خود را تغییر داده و امکان تولید برخی تصاویر بحثبرانگیز را فراهم کرده است. این تغییرات شامل تولید چهرههای عمومی، ویژگیهای نژادی یا فیزیکی خاص و حتی برخی نمادهای حساس در زمینههای آموزشی یا خنثی است؛ امری که تا پیش از این بهطور کامل از سوی این پلتفرم رد میشد.
در یادداشتی منتشرشده از سوی جوآن جنگ، سرپرست رفتار مدل در OpenAI، آمده است که این شرکت از رویکرد رد مطلق فاصله گرفته و بهجای آن، ارزیابی محتوایی بر اساس میزان آسیب احتمالی در دنیای واقعی را در پیش گرفته است. به گفته او، هدف این بازنگری، ایجاد انعطاف بیشتر، ارتقای توان یادگیری مدل و افزایش کنترل کاربران بر تولید محتواست.
این تصمیم در شرایطی اتخاذ شده که فضای فرهنگی و سیاسی در ایالات متحده شاهد افزایش توجه به نقش فناوریهای هوش مصنوعی در مدیریت محتواست. برخی ناظران معتقدند که این تغییرات ممکن است پاسخی به انتقادات مطرحشده درباره سانسور ایدئولوژیک در پلتفرمهای فناوری باشد. با این حال، OpenAI اعلام کرده است که این سیاستها جنبه سیاسی ندارند و ناشی از رشد فنی و نیاز به تعامل بیشتر با کاربران هستند.
با وجود این تغییرات، برخی محدودیتها همچنان پابرجاست؛ از جمله تولید تصاویر مربوط به کودکان که همچنان محدود باقی مانده، تقلید سبک هنرمندان زنده که غیرفعال است، و بسیاری از درخواستهای محتوایی حساس یا غیراخلاقی که همچنان مسدود میشوند. با این حال، این بازنگری میتواند مسیر تازهای در استفاده از ابزارهای تولید محتوا با هوش مصنوعی باز کند، هرچند ممکن است همراه با پیامدهای اخلاقی و حقوقی بالقوه نیز باشد.