کمیته رکن چهارم – مدیران OpenAI درخواست کردهاند که آژانسی شبیه به آژانس انرژی اتمی برای هوش مصنوعی تشکیل شود تا انسان به دست هوش مصنوعی نابود نشود.
مدیران شرکت OpenAI، مغزهای متفکر پشت ChatGPT درخواست تشکیل یک رگولاتوری مخصوص هوشهای مصنوعی فوق هوشمند را دادهاند که معادل آژانس بینالمللی انرژی اتمی عمل کند زیرا نیاز است که بشر را در برابر ریسکهای احتمالی نابودی به دست هوش مصنوعی حفظ کرد.
در یادداشت کوتاهی که در وب سایت این شرکت منتشر شده است، بنیانگذاران گرگ براکمن و ایلیا سوتسکور و مدیر اجرایی شرکت، سم آلتمن از یک رگولاتوری بینالمللی میخواهند تا در مورد چگونگی بازرسی سیستمها، نیاز به ممیزی، تست انطباق با استانداردهای ایمنی شروع به کار کند و همچنین محدودیتهایی را برای درجات استقرار و سطوح امنیتی به منظور کاهش خطر وجود چنین سیستمهایی ایجاد کند.
این سه نفر خواستار «درجاتی از هماهنگی» در کوتاهمدت میان شرکتهایی هستند که بر روی تحقیقات پیشرفته هوش مصنوعی کار میکنند تا اطمینان حاصل شود که توسعه مدلهای قویتر به راحتی با جامعه ادغام میشود و در عین حال ایمنی را در اولویت قرار میدهد. این هماهنگی میتواند از طریق یک پروژه تحت رهبری دولت یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوش مصنوعی انجام شود.
محققان دهها سال است که درباره خطرات بالقوه ابر هوش هشدار میدهند، اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات عینیتر شدهاند. مرکز ایمنی هوش مصنوعی (CAIS) مستقر در ایالات متحده آمریکا که برای «کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی» کار میکند، هشت دسته خطر «فاجعهبار» و «وجودی» را که توسعه هوش مصنوعی می تواند ایجاد کند، شرح میدهد.
در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، CAIS آسیبهای مخرب دیگری را توصیف میکند. دنیایی که در آن سیستمهای هوش مصنوعی بهطور داوطلبانه جزو نیروی کار شرکتها میشوند، میتواند منجر به «از دست دادن توانایی خودگردانی و وابستگی کامل به ماشینها توسط بشر» شود که به عنوان «ناتوانی» توصیف میشود و گروه کوچکی از افراد که سیستمهای قدرتمند را کنترل میکنند، میتوانند هوش مصنوعی را به یک نیروی متمرکز تبدیل کنند که منجر به «نادیده گرفته شدن ارزشها» شود.
رهبران OpenAI می گویند که این خطرات به این معنی است که مردم در سراسر جهان باید به طور دموکراتیک در مورد محدودیتها و پیشفرضهای سیستمهای هوش مصنوعی تصمیم بگیرند، اما اذعان دارند که ما هنوز نمیدانیم چگونه چنین مکانیزمی را طراحی کنیم. با این حال، آنها می گویند توسعه مداوم سیستمهای قدرتمند ارزش ریسک را دارد.
لازم به ذکر است پیش از این، یادداشتی که در اختیار پایگاه خبری افتانا قرار گرفته بود، ضمن برشمردن خطرات هوش مصنوعی بر احتمال تشکیل معاهده منع گسترش هوش مصنوعی تاکید کرده بود.
منبع: افتانا