هوش مصنوعی در خدمت جرایم سایبری: تولید هزاران بدافزار غیرقابل شناسایی

کمیته رکن چهارم – تحقیقات جدید نشان می‌دهد که مدل‌های هوش مصنوعی، به‌ویژه مدل‌های زبانی بزرگ (LLMs) مانند ChatGPT، GPT-4 و Bard، می‌توانند ابزار قدرتمندی برای تولید بدافزارهای پیشرفته و انجام حملات سایبری پیچیده باشند.

به گزارش کمیته رکن چهارم، پژوهشگران واحد ۴۲ شرکت «Palo Alto Networks» اعلام کرده‌اند که این مدل‌ها قادر به تولید بیش از ۱۰,۰۰۰ نسخه جدید از بدافزارهای جاوا اسکریپت هستند. این بدافزارها با بازنویسی و ایجاد تغییرات ظریف در کدهای موجود، به گونه‌ای طراحی شده‌اند که از شناسایی توسط ابزارهای امنیتی فرار کنند.

مدل‌های زبانی بزرگ از فناوری یادگیری عمیق برای پردازش و تولید زبان طبیعی استفاده می‌کنند و قابلیت‌های زیر را برای سوءاستفاده در اختیار مجرمان قرار می‌دهند:

  • تولید کدهای جدید: مدل‌ها قادر به نوشتن کدهایی هستند که شبیه به زبان‌های برنامه‌نویسی مانند جاوا اسکریپت است.
  • بازنویسی کدهای مخرب موجود: این مدل‌ها می‌توانند کدهای موجود را تغییر دهند تا کارکرد مخرب آن‌ها حفظ شود، اما از دید سیستم‌های امنیتی پنهان بماند.
  • مبهم‌سازی کد: تغییراتی مانند تغییر نام متغیرها، تقسیم رشته‌ها، و اضافه کردن کدهای بی‌ضرر باعث می‌شود کد طبیعی‌تر و غیرقابل شناسایی به نظر برسد.

در آزمایشی مشخص شد که این بدافزارهای تولید شده توسط مدل‌های زبانی، در ۸۸٪ موارد توسط سیستم‌های شناسایی بدافزار به عنوان بی‌ضرر تشخیص داده شدند.

هم‌زمان، محققان از حمله‌ای به نام «TPUXtract» پرده برداشته‌اند که اطلاعات حساس مدل‌های یادگیری ماشینی را از تراشه‌های «Google Edge TPU» با دقت ۹۹.۹۱٪ استخراج می‌کند. این حمله با استفاده از تحلیل سیگنال‌های الکترومغناطیسی دستگاه انجام شده و می‌تواند به سرقت مالکیت فکری و اطلاعات حساس منجر شود.

این یافته‌ها نشان‌دهنده آسیب‌پذیری‌های جدی در امنیت سایبری است. کارشناسان پیشنهاد می‌کنند که برای مقابله با این تهدیدات، از ابزارهای پیشرفته‌تر برای رمزنگاری داده‌ها، فیلتر کردن سیگنال‌های الکترومغناطیسی، و ارتقای سامانه‌های شناسایی بدافزار استفاده شود.

یک منبع مطلع از این پرونده به کمیته گفت که پیشرفت فناوری هوش مصنوعی، در کنار فرصت‌ها، تهدیدات جدیدی را ایجاد کرده است که نیازمند توجه فوری سازمان‌ها و متخصصان امنیتی است.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Green Captcha Characters Below.