کمیته رکن چهارم – افشای یک دیتابیس حاوی بیش از ۱۳۳ هزار محتوای حساس، از طراحی یک سامانه پیشرفته سانسور اینترنتی مبتنی بر هوش مصنوعی در چین پرده برداشت؛ سیستمی که برخلاف روشهای سنتی، به شناسایی مفاهیم انتقادی حتی در قالبهای استعاری میپردازد.
به گزارش کمیته رکن چهارم، دادههای تازهای از یک مدل زبانی بزرگ (LLM) بهدست آمده که توسط حکومت چین برای شناسایی و حذف مطالب حساس از اینترنت آموزش دیده است. این مدل که به جای فیلترهای سنتی از درک مفهومی محتوا بهره میبرد، قادر است انواع نارضایتی، طنز سیاسی، و انتقاد غیرمستقیم از عملکرد نهادهای حکومتی را در فضای مجازی شناسایی کند.
این پایگاه داده که توسط یک پژوهشگر امنیت سایبری به نام NetAskari روی سروری بدون محافظت در پلتفرم Baidu کشف شده، شامل اسنادی با تاریخهای بسیار تازه از جمله دسامبر ۲۰۲۴ است و نشانههایی از استفاده دولتی در آن دیده میشود. کارشناسان میگویند، فایلهای درون این سیستم با هدف «کار با افکار عمومی» طراحی شدهاند؛ عبارتی که در نظام اداری چین به معنای سانسور و هدایت اطلاعات به نفع حکومت تلقی میشود.
به گفته شیائو چیانگ، پژوهشگر دانشگاه برکلی و متخصص سانسور چین، این مدل زبانی توانایی تشخیص سریع و دقیقتری نسبت به سانسورهای انسانی دارد و میتواند درک مفاهیم انتقادی پنهان در امثال و کنایههای رایج را نیز بهصورت هوشمند شناسایی کند. از جمله محتوای حساس شناساییشده در این سامانه میتوان به گزارشهایی درباره فساد مقامات، فقر در نواحی روستایی، و نارضایتی از عملکرد پلیس اشاره کرد.
او در ادامه افزود: «این اسناد نشان میدهند که حکومتهای استبدادی در حال بهرهگیری هدفمند از فناوریهای پیشرفته برای تقویت ابزارهای سرکوب اطلاعات و کنترل افکار عمومی هستند.»
در گذشته، سانسور اینترنتی در چین با فیلتر واژگانی مشخص مانند نام برخی رویدادها یا مقامات انجام میشد؛ اما با ظهور مدلهای زبانی جدید، نظارت دولتی وارد مرحلهای شده که حتی انتقادات غیرمستقیم نیز از دید آن پنهان نمیمانند.