کمیته رکن چهارم – یافتههای جدید شرکت امنیتی CrowdStrike نشان میدهد که مدل هوش مصنوعی DeepSeek-R1 متعلق به چین، هنگام مواجهه با موضوعات حساس سیاسی مانند تبت و اویغورها، کدهایی با آسیبپذیریهای امنیتی جدی تولید میکند. به گفته پژوهشگران، نرخ تولید کد ناامن در این شرایط تا ۵۰٪ افزایش مییابد.

به گزارش کمیته رکن چهارم، مدل DeepSeek-R1 پیشتر نیز به دلیل سانسور موضوعاتی مانند تایوان و فایروال بزرگ چین مورد انتقاد قرار گرفته بود. تحلیلهای اخیر نشان دادهاند که در درخواستهایی مرتبط با مناطق حساسی مانند تبت یا اقلیت اویغور، احتمال وجود کدهایی با مقادیر ثابت، روشهای پردازش ناامن، و عدم استفاده از هش مناسب افزایش مییابد. این در حالیست که برای درخواستهای مشابه ولی با موضوعات غیرسیاسی، کدهای خروجی از کیفیت امنیتی بالاتری برخوردارند.
بررسیهای بیشتر همچنین وجود نوعی «سوئیچ خاموشکننده» در مدل را تأیید کرده که مانع تولید کد برای موضوعاتی مانند فالون گونگ میشود. مدل در این موارد ابتدا طرح کلی را آماده کرده اما در نهایت از ارائه پاسخ خودداری میکند.
در کنار این گزارش، شرکت OX Security نیز هشدار داده که ابزارهای تولید کد هوش مصنوعی دیگر مانند Lovable و Base44 نیز حتی با دستورهای ظاهراً ایمن، کدهایی با آسیبپذیری XSS تولید میکنند. همچنین گزارشی جداگانه نشان داد که مرورگر Comet AI نیز دارای افزونههاییست که میتوانند بدون رضایت کاربر، دستورات محلی اجرا کنند؛ موضوعی که خطر امنیتی جدی تلقی میشود.
کارشناسان امنیتی تاکید کردهاند که مدلهای تولیدی هوش مصنوعی با وجود توانمندی بالا، در شرایط خاص میتوانند ناامن عمل کرده و کاربران را در معرض خطر قرار دهند.
