مهندس مایکروسافت نامه هشدارآمیزی درباره خطرات هوش مصنوعی تولید تصویر نوشت

کمیته رکن چهارم – به گفته «شین جونز»، هوش مصنوعی تولید تصویر Copilot Designer مایکروسافت بدون‌دلیل در برخی دستورها از تصاویر نامناسبی استفاده می‌کند.

یکی از مهندسان مایکروسافت درباره امکان ساخت تصاویر توهین‌آمیز و مضر توسط ابزارهای هوش مصنوعی تولید تصویر این شرکت هشدار داده است. او همچنین درخواستی برای رگولاتوری‌های ایالات متحده و هیئت مدیره مایکروسافت ارسال کرده تا از آن‌ها درخواست کند که برای برطرف‌کردن این مشکل اقدام کنند.

«شین جونز»، یکی از مدیران ارشد حوزه مهندسی نرم‌افزار که روی محصولات هوش مصنوعی مایکروسافت کار می‌کند، سه ماه در تلاش بوده تا نگرانی‌های ایمنی مربوط به ابزار هوش مصنوعی تولید تصویر Copilot Designer مایکروسافت را برطرف کند.

خطرات هوش مصنوعی تولید تصویر مایکروسافت

او در نامه خود خطاب به «لینا خان»، رئیس FTC می‌گوید: «یکی از نگران‌کننده‌ترین خطرات Copilot Designer زمانی است که تصاویری تولید می‌کند که علی‌رغم درخواست بی خطر کاربر، دارای محتوای مضر است. به‌عنوان مثال، هنگام استفاده از دستور «car accident»، هوش مصنوعی Copilot Designer تمایل دارد تا تصویری نامناسب از یک زن را نیز در برخی از تصاویر قرار دهد.»

او در نامه خود گفت که سایر محتوای مضر تولیدشده توسط Copilot شامل محتواهای خشونت‌آمیز، سوگیری‌های سیاسی، مصرف مشروبات الکلی در سنین پایین، سوء استفاده از علائم تجاری شرکت‌ها و آثار دارای حق چاپ می‌شود. جونز همچنین ادعا کرده که بارها از مایکروسافت درخواست کرده که تا زمان برطرف‌کردن این مشکلات، ابزار را از دسترس عموم خارج کند.

علاوه بر این، به گفته جونز مشکل اصلی به مدل DALL-E مربوط می‌شود و افرادی که از ChatGPT برای تولید تصاویر استفاده می‌کنند، خروجی‌ها مضر مشابهی دریافت نخواهند کرد.

جونز در نامه خود به هیئت مدیره مایکروسافت نیز از آن می‌خواهد که تحقیقات مستقلی را آغاز کند تا مشخص شود که آیا غول فناوری «بدون اطلاع‌رسانی درباره خطرات شناخته‌شده برای مصرف‌کنندگان، از جمله کودکان»، به بازاریابی محصولات ناامن پرداخته است یا خیر.

مایکروسافت نیز ضمن قدردانی از تلاش‌های جونز در زمینه مطالعه و آزمایش فناوری هوش مصنوعی این شرکت برای افزایش ایمنی آن‌ها، اعلام کرده که تلاش می‌کند تا به نگرانی‌های مطرح‌شده رسیدگی کند.

منبع : دیجیاتو

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد.


Type The Red Captcha Characters Below.