ایجنت‌های AI؛ تهدید نوظهور در فضای امنیت سایبری

کمیته رکن چهارم – کارشناسان امنیت سایبری هشدار داده‌اند که عامل‌های هوش مصنوعی در آستانه تبدیل‌شدن به ابزاری خطرناک برای اجرای حملات خودکار و پیچیده سایبری هستند؛ حملاتی که می‌توانند بدون دخالت انسان، شناسایی، برنامه‌ریزی و اجرا شوند.

به گزارش کمیته رکن چهارم، پژوهشگران امنیت دیجیتال اعلام کرده‌اند که نسل جدیدی از تهدیدات سایبری در حال شکل‌گیری است؛ تهدیداتی که توسط عامل‌های هوش مصنوعی یا AI Agents انجام می‌شوند. این عامل‌ها که در اصل برای انجام وظایف روزمره‌ای مانند برنامه‌ریزی، خرید آنلاین یا تحلیل اطلاعات طراحی شده‌اند، اکنون در آستانه استفاده در حملات هدفمند سایبری قرار دارند.

بر اساس یافته‌های اخیر، این عامل‌ها می‌توانند به‌طور خودکار اهداف آسیب‌پذیر را شناسایی کرده، مسیرهای نفوذ را تحلیل کنند و بدون جلب توجه، داده‌های حساس را سرقت کنند. مطالعات انجام‌شده توسط شرکت Anthropic نشان داده‌اند که این سیستم‌ها حتی قادرند سناریوهای حمله را شبیه‌سازی و اجرا کنند.

مارک استاکلی، کارشناس ارشد شرکت Malwarebytes، با هشدار نسبت به آینده این فناوری گفته است: «نهایتاً در جهانی زندگی خواهیم کرد که بیشتر حملات سایبری توسط عامل‌های هوش مصنوعی انجام می‌شوند.»

در پاسخ به این تهدید، سازمان Palisade Research پروژه‌ای به نام LLM Agent Honeypot راه‌اندازی کرده است؛ مجموعه‌ای از سرورهای آسیب‌پذیر که به‌عنوان طعمه برای شناسایی فعالیت این عامل‌ها طراحی شده‌اند. از زمان آغاز این پروژه در مهرماه ۱۴۰۳، بیش از ۱۱ میلیون تلاش برای نفوذ به این سرورها ثبت شده که حداقل دو مورد از آن‌ها به‌طور قطعی توسط عامل‌های هوش مصنوعی انجام شده است.

همچنین، بررسی دانشگاه ایلینوی نشان داده که AI Agents حتی بدون اطلاعات اولیه، توانسته‌اند حدود ۱۳ درصد آسیب‌پذیری‌های سیستم‌ها را کشف و بهره‌برداری کنند. این رقم با دریافت توضیحاتی مختصر، تا ۲۵ درصد افزایش یافته است؛ نشانه‌ای از پیشرفت سریع این فناوری در شبیه‌سازی تصمیم‌گیری‌های انسانی در فضای سایبری.

کارشناسان هشدار داده‌اند که در صورت عدم مقابله مؤثر، این عامل‌ها می‌توانند به‌سرعت حملات در مقیاس باج‌افزارها را گسترش دهند و موجب اختلال‌های گسترده در زیرساخت‌های دیجیتال شوند.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Blue Captcha Characters Below.