کمیته رکن چهارم – پژوهشی مشترک از دانشگاههای هاروارد، براون و توبینگن نشان میدهد که مدلهای پیشرفته هوش مصنوعی در نحوه پردازش اطلاعات، رفتاری شبیه انسانها از خود نشان میدهند.

به گزارش کمیته رکن چهارم، پژوهشی جدید که توسط محققان دانشگاههای هاروارد، براون و توبینگن انجام شده، نشان میدهد که شباهت مدلهای هوش مصنوعی به انسانها تنها در نتایج نهایی خلاصه نمیشود، بلکه فرآیندهای درونی این مدلها نیز شباهتهایی به نحوه پردازش اطلاعات در مغز انسان دارند.
در این مطالعه، محققان با بررسی مدلهایی مانند GPT و Vision Transformers (ViT) به جای تمرکز صرف بر خروجی، نحوه تغییر پیشبینیهای داخلی مدل را در حین عبور دادهها از لایههای مختلف شبکه عصبی بررسی کردند. آنها شاخصهایی مانند میزان عدم قطعیت، اطمینان به پاسخ صحیح، و تفاوت بین پاسخ درست و پاسخ شهودی اما اشتباه را تحلیل کردند.
مطالعه در پنج حوزه مختلف مانند یادآوری اطلاعات عمومی، تشخیص گزینهها، استدلال منطقی و تشخیص تصویر در شرایط جدید انجام شد. در همه موارد، نتایج نشان داد که مدلهای هوش مصنوعی نه تنها پاسخهایی مشابه انسان ارائه میدهند، بلکه مسیر فکری آنها در طول پردازش داده نیز شباهتهایی عمیق به تصمیمگیری انسان دارد.
برای مثال، در آزمونهای تشخیص تصویر، هم مدلها و هم انسانها در مواجهه با موارد جدید دچار تردید میشدند. همچنین در حوزه یادآوری اطلاعات، گرایش اولیه به پاسخ شهودی نادرست و سپس اصلاح آن مشاهده شد؛ رفتاری که در انسان نیز رایج است.
به گفته پژوهشگران، این نتایج افق جدیدی برای فهم بهتر مغز انسان و توسعه مدلهای قابل تبیینتر در هوش مصنوعی باز میکند. آنها تاکید دارند که یافتهها محدود به معماریهای خاصی مانند LLaMA-2 و ViT هستند و نمیتوان آنها را به تمامی مدلهای هوش مصنوعی تعمیم داد، اما این مطالعه پایهای مهم برای تحقیقات آینده محسوب میشود.
