کمیته رکن چهارم – تحقیقات جدید نشان میدهد که مدلهای هوش مصنوعی، بهویژه مدلهای زبانی بزرگ (LLMs) مانند ChatGPT، GPT-4 و Bard، میتوانند ابزار قدرتمندی برای تولید بدافزارهای پیشرفته و انجام حملات سایبری پیچیده باشند.
به گزارش کمیته رکن چهارم، پژوهشگران واحد ۴۲ شرکت «Palo Alto Networks» اعلام کردهاند که این مدلها قادر به تولید بیش از ۱۰,۰۰۰ نسخه جدید از بدافزارهای جاوا اسکریپت هستند. این بدافزارها با بازنویسی و ایجاد تغییرات ظریف در کدهای موجود، به گونهای طراحی شدهاند که از شناسایی توسط ابزارهای امنیتی فرار کنند.
مدلهای زبانی بزرگ از فناوری یادگیری عمیق برای پردازش و تولید زبان طبیعی استفاده میکنند و قابلیتهای زیر را برای سوءاستفاده در اختیار مجرمان قرار میدهند:
- تولید کدهای جدید: مدلها قادر به نوشتن کدهایی هستند که شبیه به زبانهای برنامهنویسی مانند جاوا اسکریپت است.
- بازنویسی کدهای مخرب موجود: این مدلها میتوانند کدهای موجود را تغییر دهند تا کارکرد مخرب آنها حفظ شود، اما از دید سیستمهای امنیتی پنهان بماند.
- مبهمسازی کد: تغییراتی مانند تغییر نام متغیرها، تقسیم رشتهها، و اضافه کردن کدهای بیضرر باعث میشود کد طبیعیتر و غیرقابل شناسایی به نظر برسد.
در آزمایشی مشخص شد که این بدافزارهای تولید شده توسط مدلهای زبانی، در ۸۸٪ موارد توسط سیستمهای شناسایی بدافزار به عنوان بیضرر تشخیص داده شدند.
همزمان، محققان از حملهای به نام «TPUXtract» پرده برداشتهاند که اطلاعات حساس مدلهای یادگیری ماشینی را از تراشههای «Google Edge TPU» با دقت ۹۹.۹۱٪ استخراج میکند. این حمله با استفاده از تحلیل سیگنالهای الکترومغناطیسی دستگاه انجام شده و میتواند به سرقت مالکیت فکری و اطلاعات حساس منجر شود.
این یافتهها نشاندهنده آسیبپذیریهای جدی در امنیت سایبری است. کارشناسان پیشنهاد میکنند که برای مقابله با این تهدیدات، از ابزارهای پیشرفتهتر برای رمزنگاری دادهها، فیلتر کردن سیگنالهای الکترومغناطیسی، و ارتقای سامانههای شناسایی بدافزار استفاده شود.
یک منبع مطلع از این پرونده به کمیته گفت که پیشرفت فناوری هوش مصنوعی، در کنار فرصتها، تهدیدات جدیدی را ایجاد کرده است که نیازمند توجه فوری سازمانها و متخصصان امنیتی است.