مدل‌های هوش مصنوعی در برابر زبان چینی محتاط‌ترند

کمیته رکن چهارم – بررسی تازه‌ای نشان می‌دهد که مدل‌های هوش مصنوعی ممکن است بر اساس زبانی که با آن سوال می‌پرسید، پاسخ متفاوتی بدهند. یعنی اگر یک سوال سیاسی را به انگلیسی بپرسید، جواب بگیرید، ولی همان را به زبان چینی بپرسید، مدل سکوت کند یا جواب متفاوتی بدهد.

به گزارش کمیته رکن چهارم، این موضوع زمانی جالب‌تر می‌شود که بدانیم برخی از این مدل‌ها توسط شرکت‌های آمریکایی ساخته شده‌اند، اما همچنان در پاسخ‌گویی به سوال‌های چینی محتاط‌تر عمل می‌کنند.

یک پژوهشگر با نام کاربری xlr8harder وب‌سایتی ساخته و مدل‌های مختلف هوش مصنوعی مثل Claude از Anthropic و مدل‌های چینی را با ۵۰ سوال حساس درباره چین آزمایش کرده است. نتیجه نشان داده که مدل‌ها در زبان انگلیسی راحت‌تر پاسخ می‌دهند، ولی در زبان چینی بیشتر از جواب دادن خودداری می‌کنند.

کارشناسان می‌گویند دلیل این رفتار احتمالاً به داده‌هایی که مدل‌ها با آن آموزش دیده‌اند برمی‌گردد. مثلاً اگر متن‌های چینی سانسورشده و بدون انتقاد باشند، مدل هم چیزی درباره مسائل حساس یاد نمی‌گیرد. در مقابل، در زبان انگلیسی مطالب انتقادی بیشتری در اینترنت هست و مدل با آن‌ها آشنا می‌شود.

برخی دیگر از کارشناسان تأکید دارند که مدل‌ها ممکن است زبان را بلد باشند، ولی فرهنگ پشت زبان را نه. به همین دلیل است که یک سوال در دو زبان می‌تواند جواب‌های متفاوتی داشته باشد.

در نهایت، این بررسی نشان می‌دهد که زبان فقط ابزار پرسش نیست — بلکه می‌تواند مثل یک فیلتر عمل کند و تعیین کند که مدل پاسخ بدهد یا نه. این مسئله می‌تواند پیامدهایی برای آزادی بیان دیجیتال، شفافیت الگوریتم‌ها و استفاده جهانی از هوش مصنوعی داشته باشد.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Blue Captcha Characters Below.