تغییر سیاست‌های محتوایی OpenAI

کمیته رکن چهارم – شرکت OpenAI در به‌روزرسانی جدید ابزار تولید تصویر ChatGPT، محدودیت‌های پیشین را کاهش داده و اعلام کرده که سیاست‌های نظارت محتوایی خود را با تمرکز بر ارزیابی جزئی و منع آسیب واقعی بازتعریف کرده است.

به گزارش کمیته رکن چهارم، شرکت OpenAI در نسخه ارتقاءیافته‌ای از ابزار تولید تصویر ChatGPT، سیاست‌های محتوایی خود را تغییر داده و امکان تولید برخی تصاویر بحث‌برانگیز را فراهم کرده است. این تغییرات شامل تولید چهره‌های عمومی، ویژگی‌های نژادی یا فیزیکی خاص و حتی برخی نمادهای حساس در زمینه‌های آموزشی یا خنثی است؛ امری که تا پیش از این به‌طور کامل از سوی این پلتفرم رد می‌شد.

در یادداشتی منتشرشده از سوی جوآن جنگ، سرپرست رفتار مدل در OpenAI، آمده است که این شرکت از رویکرد رد مطلق فاصله گرفته و به‌جای آن، ارزیابی محتوایی بر اساس میزان آسیب احتمالی در دنیای واقعی را در پیش گرفته است. به گفته او، هدف این بازنگری، ایجاد انعطاف بیشتر، ارتقای توان یادگیری مدل و افزایش کنترل کاربران بر تولید محتواست.

این تصمیم در شرایطی اتخاذ شده که فضای فرهنگی و سیاسی در ایالات متحده شاهد افزایش توجه به نقش فناوری‌های هوش مصنوعی در مدیریت محتواست. برخی ناظران معتقدند که این تغییرات ممکن است پاسخی به انتقادات مطرح‌شده درباره سانسور ایدئولوژیک در پلتفرم‌های فناوری باشد. با این حال، OpenAI اعلام کرده است که این سیاست‌ها جنبه سیاسی ندارند و ناشی از رشد فنی و نیاز به تعامل بیشتر با کاربران هستند.

با وجود این تغییرات، برخی محدودیت‌ها همچنان پابرجاست؛ از جمله تولید تصاویر مربوط به کودکان که همچنان محدود باقی مانده، تقلید سبک هنرمندان زنده که غیرفعال است، و بسیاری از درخواست‌های محتوایی حساس یا غیراخلاقی که همچنان مسدود می‌شوند. با این حال، این بازنگری می‌تواند مسیر تازه‌ای در استفاده از ابزارهای تولید محتوا با هوش مصنوعی باز کند، هرچند ممکن است همراه با پیامدهای اخلاقی و حقوقی بالقوه نیز باشد.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Blue Captcha Characters Below.