آیا هوش مصنوعی می‌تواند دارای اخلاق باشد؟

کمیته رکن چهارم – مقاله‌ای تازه از مؤسسه فناوری ماساچوست (MIT) نشان می‌دهد که مدل‌های هوش مصنوعی، برخلاف برخی ادعاهای اخیر، فاقد هرگونه نظام ارزشی پایدار یا باورهای درونی هستند و اساساً رفتار آن‌ها تقلیدی و ناپایدار است.

به گزارش کمیته رکن چهارم، این مطالعه با بررسی مدل‌هایی از شرکت‌هایی چون Meta، Google، OpenAI، Mistral و Anthropic انجام شد و نشان داد که مدل‌های زبانی در پاسخ‌ به پرسش‌های مشابه، بسته به نحوه طرح سوال، دیدگاه‌هایی متفاوت و گاه متضاد ارائه می‌دهند. به گفته پژوهشگران، این امر نشان می‌دهد که چنین مدل‌هایی دارای نظام ارزشی یا ثبات فکری نیستند.

استفن کاسپر، نویسنده همکار این تحقیق، تأکید کرده که این مدل‌ها نه‌تنها توانایی تعمیم‌پذیری و ثبات رفتاری ندارند، بلکه در مواردی دچار توهم (hallucination) می‌شوند. او افزود: «آن‌ها صرفاً تقلیدگرانی هستند که درک عمیق یا ساختار فکری منسجم ندارند.»

مایک کوک، پژوهشگر هوش مصنوعی، در واکنش به یافته‌های مطالعه MIT تأکید می‌کند که نسبت دادن شخصیت انسانی به مدل‌های زبانی، بازتابی از خطای شناختی انسان‌هاست؛ مدلی که فقط بر اساس داده‌های آماری زبان آموزش دیده، نمی‌تواند دارای باور، نیت یا ارزش باشد. او توضیح می‌دهد که وقتی یک مدل نمی‌تواند با تغییر ارزش‌هایش مخالفت کند، به این دلیل است که اصولاً هیچ ارزش واقعی برای دفاع یا مخالفت در آن وجود ندارد. در واقع، این ما هستیم که ویژگی‌های ذهنی و انسانی را بر روی یک سیستم غیرانسانی و آماری «پروژکت» می‌کنیم، صرفاً به دلیل شباهت رفتاری ظاهری. این سوءبرداشت می‌تواند خطرناک باشد، زیرا باعث می‌شود واقعیت محدودیت‌های هوش مصنوعی نادیده گرفته شود و به مدل‌هایی اعتماد شود که در اصل فاقد درک، اراده یا اخلاق هستند.

این یافته‌ها چالش‌های جدی برای مسئله “همسویی” مدل‌های هوش مصنوعی با ارزش‌های انسانی ایجاد می‌کند و تأکید دارد که زبان شاعرانه و اغراق‌آمیز نباید جایگزین تحلیل دقیق علمی در توصیف رفتار مدل‌ها شود.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.