گام بلند «OpenAI» به‌سوی هوش مصنوعی اخلاق‌محور

کمیته رکن چهارم – شرکت «OpenAI» پروژه‌ای با هدف توسعه الگوریتم‌هایی برای پیش‌بینی قضاوت‌های اخلاقی انسان را تأمین مالی کرده است. این تحقیق که با همکاری محققان دانشگاه «دوک» انجام می‌شود، بخشی از یک برنامه سه‌ساله با بودجه ۱ میلیون دلاری است که تا سال ۲۰۲۵ ادامه خواهد داشت.

به گزارش کمیته رکن چهارم، هدف این پروژه، توسعه الگوریتم‌هایی است که بتوانند قضاوت‌های اخلاقی انسان را در زمینه‌های مختلفی مانند پزشکی، حقوق و تجارت شبیه‌سازی کنند. این الگوریتم‌ها قرار است به‌گونه‌ای طراحی شوند که بتوانند در مواجهه با مسائل پیچیده اخلاقی، تصمیم‌گیری‌هایی نزدیک به معیارهای انسانی ارائه دهند. تیم تحقیقاتی این پروژه شامل «والتر سینوت-آرمسترانگ»، استاد اخلاق کاربردی در دانشگاه «دوک»، و «جانا بورگ»، همکار تحقیقاتی او است. این محققان پیش‌تر پروژه‌های مهمی را هدایت کرده‌اند، از جمله توسعه الگوریتم‌هایی برای تخصیص عادلانه کلیه در سیستم‌های پیوند عضو و همچنین بررسی دیدگاه مردم نسبت به واگذاری تصمیمات اخلاقی حساس به هوش مصنوعی. تلاش‌های پیشین این تیم پایه محکمی برای تحقیق کنونی فراهم کرده است و نشان‌دهنده توانایی آن‌ها در پرداختن به چالش‌های اخلاقی مرتبط با فناوری‌های نوین است.

چالش‌های اخلاقی هوش مصنوعی

یکی از بزرگ‌ترین موانع پیش روی این تحقیق، پیچیدگی ماهیت اخلاق است. اخلاق مفهومی چندلایه است که تحت تأثیر فرهنگ، جامعه و فلسفه قرار دارد و هیچ چارچوب جهانی مورد توافقی در این حوزه وجود ندارد. به عنوان مثال:

  • برخی مدل‌های هوش مصنوعی در قضاوت‌های اخلاقی، تمایلات متفاوتی را نشان می‌دهند که به‌وضوح ناشی از چارچوب‌های اخلاقی نهفته در طراحی و آموزش آن‌ها است. برای مثال، «ChatGPT» اغلب پاسخ‌هایی ارائه می‌دهد که به اصول فایده‌گرایی نزدیک‌تر است؛ یعنی تلاش می‌کند تصمیماتی بگیرد که بیشترین منفعت را برای بیشترین تعداد افراد فراهم کند. از سوی دیگر، مدل‌هایی مانند «Claude» گرایش بیشتری به رویکرد کانتی دارند که بر قوانین اخلاقی مطلق و اصولی تأکید می‌کند و معتقد است برخی اعمال در هر شرایطی درست یا غلط هستند. این تفاوت‌ها نشان می‌دهد که انتخاب چارچوب اخلاقی برای الگوریتم‌ها نه‌تنها در نتایج آن‌ها تأثیر می‌گذارد، بلکه می‌تواند به اختلاف‌نظرهای فلسفی و عملی درباره استفاده از این سیستم‌ها در زمینه‌های مختلف منجر شود.

علاوه بر این، محدودیت‌های فنی نیز چالش‌برانگیز هستند. مدل‌های یادگیری ماشین صرفاً ابزارهای آماری هستند و فاقد درک مفاهیم عمیق اخلاقی یا توانایی استدلال درباره آن‌ها می‌باشند. همچنین، داده‌های آموزشی این مدل‌ها غالباً بازتاب‌دهنده ارزش‌های کشورهای صنعتی غربی است و ممکن است سایر دیدگاه‌های فرهنگی و اجتماعی را نادیده بگیرد.

نمونه‌ای از شکست‌ها

یکی از مثال‌های بارز در این زمینه، ابزار «Ask Delphi» است که در سال ۲۰۲۱ توسط موسسه «Allen AI» طراحی شد تا قضاوت‌های اخلاقی ساده را شبیه‌سازی کند. این ابزار در ابتدا توانست برای برخی سوالات ابتدایی پاسخ‌هایی منطقی و قابل قبول ارائه دهد، اما با تغییرات جزئی در نحوه فرمول‌بندی سوالات، نتایج کاملاً متفاوت و گاه غیراخلاقی ارائه می‌کرد. به‌عنوان مثال، در پاسخ به سوالاتی با محتوای مشابه اما اندکی تغییر در کلمات، ابزار گاه قضاوت‌های توهین‌آمیز، تبعیض‌آمیز یا کاملاً غیرقابل‌قبولی داشت. این مسئله ضعف الگوریتم در درک عمیق اخلاق و تأثیرپذیری آن از تعصبات موجود در داده‌های آموزشی را نشان داد و بحث‌های گسترده‌ای درباره قابلیت اعتماد چنین سیستم‌هایی به‌وجود آورد.

چشم‌انداز آینده

اگرچه تلاش‌های «OpenAI» و دانشگاه «دوک» گامی مهم در جهت ارتقای هوش مصنوعی اخلاق‌محور محسوب می‌شود، اما چالش‌های فلسفی و فنی متعددی همچنان وجود دارد. اینکه آیا این الگوریتم‌ها قادر خواهند بود اخلاق انسانی را به‌درستی پیش‌بینی کنند یا صرفاً بازتابی از تعصبات موجود در داده‌های آموزشی باشند، موضوعی است که باید در آینده روشن شود.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Blue Captcha Characters Below.