تولید کد ناامن توسط هوش مصنوعی چینی DeepSeek

کمیته رکن چهارم – یافته‌های جدید شرکت امنیتی CrowdStrike نشان می‌دهد که مدل هوش مصنوعی DeepSeek-R1 متعلق به چین، هنگام مواجهه با موضوعات حساس سیاسی مانند تبت و اویغورها، کدهایی با آسیب‌پذیری‌های امنیتی جدی تولید می‌کند. به گفته پژوهشگران، نرخ تولید کد ناامن در این شرایط تا ۵۰٪ افزایش می‌یابد.

به گزارش کمیته رکن چهارم، مدل DeepSeek-R1 پیش‌تر نیز به دلیل سانسور موضوعاتی مانند تایوان و فایروال بزرگ چین مورد انتقاد قرار گرفته بود. تحلیل‌های اخیر نشان داده‌اند که در درخواست‌هایی مرتبط با مناطق حساسی مانند تبت یا اقلیت اویغور، احتمال وجود کدهایی با مقادیر ثابت، روش‌های پردازش ناامن، و عدم استفاده از هش مناسب افزایش می‌یابد. این در حالی‌ست که برای درخواست‌های مشابه ولی با موضوعات غیرسیاسی، کدهای خروجی از کیفیت امنیتی بالاتری برخوردارند.

بررسی‌های بیشتر همچنین وجود نوعی «سوئیچ خاموش‌کننده» در مدل را تأیید کرده که مانع تولید کد برای موضوعاتی مانند فالون گونگ می‌شود. مدل در این موارد ابتدا طرح کلی را آماده کرده اما در نهایت از ارائه پاسخ خودداری می‌کند.

در کنار این گزارش، شرکت OX Security نیز هشدار داده که ابزارهای تولید کد هوش مصنوعی دیگر مانند Lovable و Base44 نیز حتی با دستورهای ظاهراً ایمن، کدهایی با آسیب‌پذیری XSS تولید می‌کنند. همچنین گزارشی جداگانه نشان داد که مرورگر Comet AI نیز دارای افزونه‌هایی‌ست که می‌توانند بدون رضایت کاربر، دستورات محلی اجرا کنند؛ موضوعی که خطر امنیتی جدی تلقی می‌شود.

کارشناسان امنیتی تاکید کرده‌اند که مدل‌های تولیدی هوش مصنوعی با وجود توانمندی بالا، در شرایط خاص می‌توانند ناامن عمل کرده و کاربران را در معرض خطر قرار دهند.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Blue Captcha Characters Below.