استفاده مهاجمان از GPT-4 برای تولید کد مخرب

کمیته رکن چهارم– پژوهشگران امنیت سایبری از شناسایی بدافزار جدیدی به نام MalTerminal خبر دادند که یکی از نخستین نمونه‌های بدافزارهای مجهز به مدل‌های زبانی بزرگ محسوب می‌شود. این بدافزار در کنفرانس LABScon 2025 توسط تیم SentinelLABS از شرکت SentinelOne معرفی شده است.

به گزارش کمیته رکن چهارم، MalTerminal در قالب یک فایل اجرایی ویندوزی کشف شده و از رابط API مدل GPT-4 برای تولید بلادرنگ باج‌افزار یا ایجاد شل معکوس استفاده می‌کند. اگرچه تاکنون شواهدی از استفاده عملی آن در حملات وجود ندارد، اما محققان آن را نمونه‌ای آزمایشی یا ابزار تست برای تیم‌های امنیتی توصیف کرده‌اند. بررسی‌ها نشان می‌دهد این بدافزار احتمالاً پیش از نوامبر ۲۰۲۳ توسعه یافته است، زمانی که دسترسی به رابط چت OpenAI غیرفعال شد.

همراه با این بدافزار، اسکریپت‌های پایتون و ابزاری به نام FalconShield نیز شناسایی شده‌اند. FalconShield با تحلیل فایل‌های کد و استفاده از GPT قادر است تشخیص دهد که آیا کدی مخرب است یا خیر. SentinelOne تأکید کرده است که ادغام LLMها در بدافزارها نشان‌دهنده جهشی در توانایی مهاجمان است، زیرا این ابزارها می‌توانند در لحظه منطق مخرب تولید کنند.

در گزارشی جداگانه، شرکت StrongestLayer هشدار داده که مهاجمان با استفاده از دستورات مخفی در ایمیل‌های فیشینگ می‌توانند سیستم‌های امنیتی مبتنی بر هوش مصنوعی را فریب دهند. این تکنیک با پنهان‌سازی دستورها در کد HTML باعث می‌شود ایمیل‌های مخرب به‌عنوان امن شناسایی شوند. پس از باز شدن فایل ضمیمه، مهاجمان از آسیب‌پذیری Follina بهره‌برداری کرده و با اجرای اسکریپت PowerShell بدافزار اضافی نصب و سیستم قربانی را آلوده می‌کنند.

همچنین، بر اساس گزارش Trend Micro، مهاجمان از ژانویه ۲۰۲۵ از سرویس‌های هوش مصنوعی سازنده وب‌سایت مانند Lovable و Netlify برای ایجاد صفحات جعلی CAPTCHA در حملات فیشینگ استفاده کرده‌اند. این صفحات ابتدا قربانی را با آزمون ساده‌ای مطمئن کرده و سپس به سایت‌های جعلی هدایت می‌کنند تا اطلاعات حساس او سرقت شود.

این گزارش‌ها نشان می‌دهد که رشد سریع ابزارهای هوش مصنوعی زایشی نه تنها فرصت‌های تازه‌ای برای صنعت ایجاد کرده، بلکه بستر خطرناکی نیز برای مجرمان سایبری فراهم آورده است. کارشناسان تأکید می‌کنند که برای مقابله با این تهدیدات، سامانه‌های دفاعی باید بر اساس شناسایی رفتار هوش مصنوعی مهاجم بازطراحی شوند.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Green Captcha Characters Below.