کمیته رکن چهارم – شرکت «OpenAI» پروژهای با هدف توسعه الگوریتمهایی برای پیشبینی قضاوتهای اخلاقی انسان را تأمین مالی کرده است. این تحقیق که با همکاری محققان دانشگاه «دوک» انجام میشود، بخشی از یک برنامه سهساله با بودجه ۱ میلیون دلاری است که تا سال ۲۰۲۵ ادامه خواهد داشت.
به گزارش کمیته رکن چهارم، هدف این پروژه، توسعه الگوریتمهایی است که بتوانند قضاوتهای اخلاقی انسان را در زمینههای مختلفی مانند پزشکی، حقوق و تجارت شبیهسازی کنند. این الگوریتمها قرار است بهگونهای طراحی شوند که بتوانند در مواجهه با مسائل پیچیده اخلاقی، تصمیمگیریهایی نزدیک به معیارهای انسانی ارائه دهند. تیم تحقیقاتی این پروژه شامل «والتر سینوت-آرمسترانگ»، استاد اخلاق کاربردی در دانشگاه «دوک»، و «جانا بورگ»، همکار تحقیقاتی او است. این محققان پیشتر پروژههای مهمی را هدایت کردهاند، از جمله توسعه الگوریتمهایی برای تخصیص عادلانه کلیه در سیستمهای پیوند عضو و همچنین بررسی دیدگاه مردم نسبت به واگذاری تصمیمات اخلاقی حساس به هوش مصنوعی. تلاشهای پیشین این تیم پایه محکمی برای تحقیق کنونی فراهم کرده است و نشاندهنده توانایی آنها در پرداختن به چالشهای اخلاقی مرتبط با فناوریهای نوین است.
چالشهای اخلاقی هوش مصنوعی
یکی از بزرگترین موانع پیش روی این تحقیق، پیچیدگی ماهیت اخلاق است. اخلاق مفهومی چندلایه است که تحت تأثیر فرهنگ، جامعه و فلسفه قرار دارد و هیچ چارچوب جهانی مورد توافقی در این حوزه وجود ندارد. به عنوان مثال:
- برخی مدلهای هوش مصنوعی در قضاوتهای اخلاقی، تمایلات متفاوتی را نشان میدهند که بهوضوح ناشی از چارچوبهای اخلاقی نهفته در طراحی و آموزش آنها است. برای مثال، «ChatGPT» اغلب پاسخهایی ارائه میدهد که به اصول فایدهگرایی نزدیکتر است؛ یعنی تلاش میکند تصمیماتی بگیرد که بیشترین منفعت را برای بیشترین تعداد افراد فراهم کند. از سوی دیگر، مدلهایی مانند «Claude» گرایش بیشتری به رویکرد کانتی دارند که بر قوانین اخلاقی مطلق و اصولی تأکید میکند و معتقد است برخی اعمال در هر شرایطی درست یا غلط هستند. این تفاوتها نشان میدهد که انتخاب چارچوب اخلاقی برای الگوریتمها نهتنها در نتایج آنها تأثیر میگذارد، بلکه میتواند به اختلافنظرهای فلسفی و عملی درباره استفاده از این سیستمها در زمینههای مختلف منجر شود.
علاوه بر این، محدودیتهای فنی نیز چالشبرانگیز هستند. مدلهای یادگیری ماشین صرفاً ابزارهای آماری هستند و فاقد درک مفاهیم عمیق اخلاقی یا توانایی استدلال درباره آنها میباشند. همچنین، دادههای آموزشی این مدلها غالباً بازتابدهنده ارزشهای کشورهای صنعتی غربی است و ممکن است سایر دیدگاههای فرهنگی و اجتماعی را نادیده بگیرد.
نمونهای از شکستها
یکی از مثالهای بارز در این زمینه، ابزار «Ask Delphi» است که در سال ۲۰۲۱ توسط موسسه «Allen AI» طراحی شد تا قضاوتهای اخلاقی ساده را شبیهسازی کند. این ابزار در ابتدا توانست برای برخی سوالات ابتدایی پاسخهایی منطقی و قابل قبول ارائه دهد، اما با تغییرات جزئی در نحوه فرمولبندی سوالات، نتایج کاملاً متفاوت و گاه غیراخلاقی ارائه میکرد. بهعنوان مثال، در پاسخ به سوالاتی با محتوای مشابه اما اندکی تغییر در کلمات، ابزار گاه قضاوتهای توهینآمیز، تبعیضآمیز یا کاملاً غیرقابلقبولی داشت. این مسئله ضعف الگوریتم در درک عمیق اخلاق و تأثیرپذیری آن از تعصبات موجود در دادههای آموزشی را نشان داد و بحثهای گستردهای درباره قابلیت اعتماد چنین سیستمهایی بهوجود آورد.
چشمانداز آینده
اگرچه تلاشهای «OpenAI» و دانشگاه «دوک» گامی مهم در جهت ارتقای هوش مصنوعی اخلاقمحور محسوب میشود، اما چالشهای فلسفی و فنی متعددی همچنان وجود دارد. اینکه آیا این الگوریتمها قادر خواهند بود اخلاق انسانی را بهدرستی پیشبینی کنند یا صرفاً بازتابی از تعصبات موجود در دادههای آموزشی باشند، موضوعی است که باید در آینده روشن شود.