رگولاتوری مخصوص هوش مصنوعی تشکیل دهید

کمیته رکن چهارم – مدیران OpenAI درخواست کرده‌اند که آژانسی شبیه به آژانس انرژی اتمی برای هوش مصنوعی تشکیل شود تا انسان به دست هوش مصنوعی نابود نشود.

مدیران شرکت OpenAI، مغزهای متفکر پشت ChatGPT درخواست تشکیل یک رگولاتوری مخصوص هوش‌های مصنوعی فوق هوشمند را داده‌اند که معادل آژانس بین‌المللی انرژی اتمی عمل کند زیرا نیاز است که بشر را در برابر ریسک‌های احتمالی نابودی به دست هوش مصنوعی حفظ کرد.

در یادداشت کوتاهی که در وب سایت این شرکت منتشر شده است، بنیان‌گذاران گرگ براکمن و ایلیا سوتس‌کور و مدیر اجرایی شرکت، سم آلتمن از یک رگولاتوری بین‌المللی می‌خواهند تا در مورد چگونگی بازرسی سیستم‌ها، نیاز به ممیزی، تست انطباق با استانداردهای ایمنی شروع به کار کند و همچنین محدودیت‌هایی را برای درجات استقرار و سطوح امنیتی به منظور کاهش خطر وجود چنین سیستم‌هایی ایجاد کند.

این سه نفر خواستار «درجاتی از هماهنگی» در کوتاه‌مدت میان شرکت‌هایی هستند که بر روی تحقیقات پیشرفته هوش مصنوعی کار می‌کنند تا اطمینان حاصل شود که توسعه مدل‌های قوی‌تر به راحتی با جامعه ادغام می‌شود و در عین حال ایمنی را در اولویت قرار می‌دهد. این هماهنگی می‌تواند از طریق یک پروژه تحت رهبری دولت یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوش مصنوعی انجام شود.

محققان ده‌ها سال است که درباره خطرات بالقوه ابر هوش هشدار می‌دهند، اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات عینی‌تر شده‌اند. مرکز ایمنی هوش مصنوعی (CAIS) مستقر در ایالات متحده آمریکا که برای «کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی» کار می‌کند، هشت دسته خطر «فاجعه‌بار» و «وجودی» را که توسعه هوش مصنوعی می تواند ایجاد کند، شرح می‌دهد.

در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، CAIS آسیب‌های مخرب دیگری را توصیف می‌کند. دنیایی که در آن سیستم‌های هوش مصنوعی به‌طور داوطلبانه جزو نیروی کار شرکت‌ها می‌شوند، می‌تواند منجر به «از دست دادن توانایی خودگردانی و وابستگی کامل به ماشین‌ها توسط بشر» شود که به عنوان «ناتوانی» توصیف می‌شود و گروه کوچکی از افراد که سیستم‌های قدرتمند را کنترل می‌کنند، می‌توانند هوش مصنوعی را به یک نیروی متمرکز تبدیل کنند که منجر به «نادیده گرفته شدن ارزش‌ها» شود.

رهبران OpenAI می گویند که این خطرات به این معنی است که مردم در سراسر جهان باید به طور دموکراتیک در مورد محدودیت‌ها و پیش‌فرض‌های سیستم‌های هوش مصنوعی تصمیم بگیرند، اما اذعان دارند که ما هنوز نمی‌دانیم چگونه چنین مکانیزمی را طراحی کنیم. با این حال، آن‌ها می گویند توسعه مداوم سیستم‌های قدرتمند ارزش ریسک را دارد.

لازم به ذکر است پیش از این، یادداشتی که در اختیار پایگاه خبری افتانا قرار گرفته بود، ضمن برشمردن خطرات هوش مصنوعی بر احتمال تشکیل معاهده منع گسترش هوش مصنوعی تاکید کرده بود.

منبع: افتانا

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Green Captcha Characters Below.