تلاش OpenAI برای مبارزه با خطرات «فاجعه‌بار» هوش مصنوعی

کمیته رکن چهارم – چگونه هوش مصنوعی ممکن است باعث یک جنگ هسته‌ای شود؟ رایانه‌ها همیشه در تعیین زمان، مکان و چگونگی حملات نظامی این روزها حضور دارند، و هوش مصنوعی مطمئناً در آن دخالت خواهد داشت.

با توجه به اینکه هوش مصنوعی به انقلابی در نحوه تعامل ما با فناوری ادامه می‌دهد، نمی‌توان انکار کرد که تأثیر فوق‌العاده‌ای بر آینده ما خواهد داشت. همچنین نمی‌توان انکار کرد که هوش مصنوعی، در صورت عدم کنترل، می‌تواند خطرات بسیار جدی در پی داشته باشد.

تیمی از کارشناسان OpenAI – با نام «آمادگی» – که برای کمک به مبارزه با خطرات «فاجعه‌بار» طراحی شده است، قصد دارد مدل‌های پیش‌بینی‌شده فعلی و آینده هوش مصنوعی را از جنبه برخی فاکتورهای خطر ارزیابی کند. اینها شامل متقاعدسازی فردی (یا تطبیق دادن محتوای یک پیام با آنچه که گیرنده می‌خواهد بشنود)، امنیت سایبری کلی، تکثیر و انطباق‌دهی خودمختار (یا یک هوش مصنوعی که خودش را تغییر می‌دهد)، و حتی تهدیدات در سطح انقراضی، مانند حملات شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای می‌شوند.

اگر به نظرتان شروع یک جنگ هسته‌ای به وسیله هوش مصنوعی کمی دور از ذهن می‌آید، بد نیست یادآور شویم که در اوایل سال جاری بود که گروهی از محققان، مهندسان و مدیران ارشد هوش مصنوعی از جمله مدیرعامل گوگل دیپ مایند، دمیس هاسابیس، به طور نگران‌کننده‌ای هشدار دادند: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های همه‌گیر و جنگ هسته‌ای یک اولویت جهانی باشد».

چگونه هوش مصنوعی ممکن است باعث یک جنگ هسته‌ای شود؟ رایانه‌ها همیشه در تعیین زمان، مکان و چگونگی حملات نظامی این روزها حضور دارند، و هوش مصنوعی مطمئناً در آن دخالت خواهد داشت. اما، هوش مصنوعی مستعد متوهم شدن است و لزوماً همان فلسفه‌هایی را که یک انسان ممکن است داشته باشد ندارد. به طور خلاصه، هوش مصنوعی ممکن است تصمیم بگیرد که زمان حمله هسته‌ای فرا رسیده است، در حالی که اینطور نباشد.

در بیانیه OpenAI آمده است: «ما معتقدیم مدل‌های هوش مصنوعی خط مقدم، که از قابلیت‌های موجود در پیشرفته‌ترین مدل‌های موجود فراتر خواهند رفت، این پتانسیل را دارند که برای تمام بشریت مفید باشند. اما آنها همچنین خطرات شدیدتری را در پی خواهند داشت.»

OpenAI می‌گوید برای کمک به کنترل هوش مصنوعی، این تیم روی سه سوال اصلی تمرکز خواهد کرد:

  •  سیستم‌های هوش مصنوعی خط مقدم که امروز داریم و سیستم‌هایی که در آینده می‌آیند، وقتی به طور هدفمند از آنها سوء استفاده شود، چقدر خطرناک خواهند بود؟
  •  اگر وزنه‌های مدل هوش مصنوعی مرزی دزدیده شوند، یک نقش‌آفرین بدخواه دقیقاً چه کاری می‌تواند انجام دهد؟
  •  چگونه می‌توان چارچوبی ایجاد کرد که نظارت، ارزیابی، پیشبینی و محافظت در برابر قابلیت‌های خطرناک سیستم‌های هوش مصنوعی خط مقدم را انجام دهد؟

سرپرست این تیم الکساندر مدری، مدیر مرکز ام آی تی در حوزه یادگیری ماشین قابل استقرار و یکی از اعضای هیات علمی انجمن خط‌مشی هوش مصنوعی MIT، است.

منبع : ایتنا

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Green Captcha Characters Below.