کمیته رکن چهارم – بررسی تازهای نشان میدهد که مدلهای هوش مصنوعی ممکن است بر اساس زبانی که با آن سوال میپرسید، پاسخ متفاوتی بدهند. یعنی اگر یک سوال سیاسی را به انگلیسی بپرسید، جواب بگیرید، ولی همان را به زبان چینی بپرسید، مدل سکوت کند یا جواب متفاوتی بدهد.
به گزارش کمیته رکن چهارم، این موضوع زمانی جالبتر میشود که بدانیم برخی از این مدلها توسط شرکتهای آمریکایی ساخته شدهاند، اما همچنان در پاسخگویی به سوالهای چینی محتاطتر عمل میکنند.
یک پژوهشگر با نام کاربری xlr8harder وبسایتی ساخته و مدلهای مختلف هوش مصنوعی مثل Claude از Anthropic و مدلهای چینی را با ۵۰ سوال حساس درباره چین آزمایش کرده است. نتیجه نشان داده که مدلها در زبان انگلیسی راحتتر پاسخ میدهند، ولی در زبان چینی بیشتر از جواب دادن خودداری میکنند.
کارشناسان میگویند دلیل این رفتار احتمالاً به دادههایی که مدلها با آن آموزش دیدهاند برمیگردد. مثلاً اگر متنهای چینی سانسورشده و بدون انتقاد باشند، مدل هم چیزی درباره مسائل حساس یاد نمیگیرد. در مقابل، در زبان انگلیسی مطالب انتقادی بیشتری در اینترنت هست و مدل با آنها آشنا میشود.
برخی دیگر از کارشناسان تأکید دارند که مدلها ممکن است زبان را بلد باشند، ولی فرهنگ پشت زبان را نه. به همین دلیل است که یک سوال در دو زبان میتواند جوابهای متفاوتی داشته باشد.
در نهایت، این بررسی نشان میدهد که زبان فقط ابزار پرسش نیست — بلکه میتواند مثل یک فیلتر عمل کند و تعیین کند که مدل پاسخ بدهد یا نه. این مسئله میتواند پیامدهایی برای آزادی بیان دیجیتال، شفافیت الگوریتمها و استفاده جهانی از هوش مصنوعی داشته باشد.