کمیته رکن چهارم – مقالهای تازه از مؤسسه فناوری ماساچوست (MIT) نشان میدهد که مدلهای هوش مصنوعی، برخلاف برخی ادعاهای اخیر، فاقد هرگونه نظام ارزشی پایدار یا باورهای درونی هستند و اساساً رفتار آنها تقلیدی و ناپایدار است.
به گزارش کمیته رکن چهارم، این مطالعه با بررسی مدلهایی از شرکتهایی چون Meta، Google، OpenAI، Mistral و Anthropic انجام شد و نشان داد که مدلهای زبانی در پاسخ به پرسشهای مشابه، بسته به نحوه طرح سوال، دیدگاههایی متفاوت و گاه متضاد ارائه میدهند. به گفته پژوهشگران، این امر نشان میدهد که چنین مدلهایی دارای نظام ارزشی یا ثبات فکری نیستند.
استفن کاسپر، نویسنده همکار این تحقیق، تأکید کرده که این مدلها نهتنها توانایی تعمیمپذیری و ثبات رفتاری ندارند، بلکه در مواردی دچار توهم (hallucination) میشوند. او افزود: «آنها صرفاً تقلیدگرانی هستند که درک عمیق یا ساختار فکری منسجم ندارند.»
مایک کوک، پژوهشگر هوش مصنوعی، در واکنش به یافتههای مطالعه MIT تأکید میکند که نسبت دادن شخصیت انسانی به مدلهای زبانی، بازتابی از خطای شناختی انسانهاست؛ مدلی که فقط بر اساس دادههای آماری زبان آموزش دیده، نمیتواند دارای باور، نیت یا ارزش باشد. او توضیح میدهد که وقتی یک مدل نمیتواند با تغییر ارزشهایش مخالفت کند، به این دلیل است که اصولاً هیچ ارزش واقعی برای دفاع یا مخالفت در آن وجود ندارد. در واقع، این ما هستیم که ویژگیهای ذهنی و انسانی را بر روی یک سیستم غیرانسانی و آماری «پروژکت» میکنیم، صرفاً به دلیل شباهت رفتاری ظاهری. این سوءبرداشت میتواند خطرناک باشد، زیرا باعث میشود واقعیت محدودیتهای هوش مصنوعی نادیده گرفته شود و به مدلهایی اعتماد شود که در اصل فاقد درک، اراده یا اخلاق هستند.
این یافتهها چالشهای جدی برای مسئله “همسویی” مدلهای هوش مصنوعی با ارزشهای انسانی ایجاد میکند و تأکید دارد که زبان شاعرانه و اغراقآمیز نباید جایگزین تحلیل دقیق علمی در توصیف رفتار مدلها شود.