کمیته رکن چهارم– پژوهشگران امنیت سایبری از شناسایی بدافزار جدیدی به نام MalTerminal خبر دادند که یکی از نخستین نمونههای بدافزارهای مجهز به مدلهای زبانی بزرگ محسوب میشود. این بدافزار در کنفرانس LABScon 2025 توسط تیم SentinelLABS از شرکت SentinelOne معرفی شده است.

به گزارش کمیته رکن چهارم، MalTerminal در قالب یک فایل اجرایی ویندوزی کشف شده و از رابط API مدل GPT-4 برای تولید بلادرنگ باجافزار یا ایجاد شل معکوس استفاده میکند. اگرچه تاکنون شواهدی از استفاده عملی آن در حملات وجود ندارد، اما محققان آن را نمونهای آزمایشی یا ابزار تست برای تیمهای امنیتی توصیف کردهاند. بررسیها نشان میدهد این بدافزار احتمالاً پیش از نوامبر ۲۰۲۳ توسعه یافته است، زمانی که دسترسی به رابط چت OpenAI غیرفعال شد.
همراه با این بدافزار، اسکریپتهای پایتون و ابزاری به نام FalconShield نیز شناسایی شدهاند. FalconShield با تحلیل فایلهای کد و استفاده از GPT قادر است تشخیص دهد که آیا کدی مخرب است یا خیر. SentinelOne تأکید کرده است که ادغام LLMها در بدافزارها نشاندهنده جهشی در توانایی مهاجمان است، زیرا این ابزارها میتوانند در لحظه منطق مخرب تولید کنند.
در گزارشی جداگانه، شرکت StrongestLayer هشدار داده که مهاجمان با استفاده از دستورات مخفی در ایمیلهای فیشینگ میتوانند سیستمهای امنیتی مبتنی بر هوش مصنوعی را فریب دهند. این تکنیک با پنهانسازی دستورها در کد HTML باعث میشود ایمیلهای مخرب بهعنوان امن شناسایی شوند. پس از باز شدن فایل ضمیمه، مهاجمان از آسیبپذیری Follina بهرهبرداری کرده و با اجرای اسکریپت PowerShell بدافزار اضافی نصب و سیستم قربانی را آلوده میکنند.
همچنین، بر اساس گزارش Trend Micro، مهاجمان از ژانویه ۲۰۲۵ از سرویسهای هوش مصنوعی سازنده وبسایت مانند Lovable و Netlify برای ایجاد صفحات جعلی CAPTCHA در حملات فیشینگ استفاده کردهاند. این صفحات ابتدا قربانی را با آزمون سادهای مطمئن کرده و سپس به سایتهای جعلی هدایت میکنند تا اطلاعات حساس او سرقت شود.
این گزارشها نشان میدهد که رشد سریع ابزارهای هوش مصنوعی زایشی نه تنها فرصتهای تازهای برای صنعت ایجاد کرده، بلکه بستر خطرناکی نیز برای مجرمان سایبری فراهم آورده است. کارشناسان تأکید میکنند که برای مقابله با این تهدیدات، سامانههای دفاعی باید بر اساس شناسایی رفتار هوش مصنوعی مهاجم بازطراحی شوند.
