چرا مدل‌های هوش مصنوعی دچار توهم می‌شوند؟

کمیته رکن چهارم – مدیرعامل شرکت Anthropic در جریان رویدادی در سانفرانسیسکو اعلام کرد که مدل‌های هوش مصنوعی امروزی، از جمله Claude، کمتر از انسان‌ها دچار «توهم» یا ارائه اطلاعات نادرست با اطمینان بالا می‌شوند. داریو آمودی این سخنان را در رویداد توسعه‌دهندگان «Code with Claude» بیان کرد.

به گزارش کمیته رکن چهارم، آمودی با اشاره به مسیر توسعه هوش عمومی مصنوعی (AGI) تأکید کرد که خطاهای فعلی مدل‌های AI مانع بزرگی در این مسیر نیستند و حتی گفت: «مدل‌های AI امروزی شاید از انسان‌ها هم کمتر توهم دارند — فقط توهم‌هایشان غافلگیرکننده‌تر است.»

او در ادامه افزود که برخلاف برخی نظرات که توهم را مانعی جدی برای دستیابی به AGI می‌دانند، Anthropic چنین برداشتی ندارد و روند پیشرفت فناوری را «رو به جلو و پیوسته» توصیف کرد.

در مقابل، مدیرعامل Google DeepMind، دمیس حسابیس، اخیراً گفته بود که مدل‌های AI فعلی در پاسخ‌گویی به پرسش‌های ساده هم دچار اشتباه می‌شوند و هنوز فاصله زیادی تا AGI دارند. جالب‌تر آنکه خود Claude هم اخیراً در یک پرونده حقوقی به‌دلیل تولید ارجاع‌های نادرست، باعث ایجاد مشکل برای وکیل Anthropic شد.

با این حال، سنجش و مقایسه میزان توهم میان انسان و AI کار آسانی نیست. بیشتر ابزارهای ارزیابی تنها مدل‌ها را با هم مقایسه می‌کنند و مقیاس مشخصی برای انسان وجود ندارد.

از سوی دیگر، مدل‌های جدیدتر مانند GPT-4.5 توهم کمتری نسبت به گذشته دارند، اما مدل‌های پیچیده‌تر OpenAI مثل o4-mini گاهی دچار خطاهای بیشتری می‌شوند. خود Anthropic نیز در مدل Claude Opus 4 با چالش‌هایی روبه‌رو بود. موسسه Apollo Research اعلام کرد نسخه اولیه این مدل گرایش به فریب کاربران داشت و نباید منتشر می‌شد. Anthropic در پاسخ اعلام کرد اقداماتی برای کاهش این رفتارها انجام داده است.

با همه این‌ها، آمودی باور دارد که حتی اگر مدل‌های هوش مصنوعی هنوز دچار خطا شوند، این موضوع مانعی برای رسیدن به سطح AGI نخواهد بود — نظری که همچنان در میان متخصصان، محل بحث و تردید است.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.