سوءاستفاده مهاجمان از AI crawlerها شدت گرفت

کمیته رکن چهارم– پژوهشگران امنیتی نسبت به ظهور حمله‌ای جدید با نام «پنهان‌سازی هدفمند برای هوش مصنوعی» (AI-targeted cloaking) هشدار داده‌اند؛ حمله‌ای که AI crawlerهایی مانند ChatGPT Atlas را فریب می‌دهد تا اطلاعات جعلی را به‌عنوان واقعیت بازگو کنند.

به گزارش کمیته رکن چهارم، این حمله با ارائه محتوای متفاوت به AI crawlerها و کاربران انسانی، اطلاعات نادرست را به مدل‌های زبانی می‌خوراند. مهاجمان با تشخیص User Agent می‌توانند صفحاتی ویژه برای AI crawlerها ارسال کنند که با محتوای واقعی سایت تفاوت دارد؛ این محتوا به‌عنوان منبع اصلی پاسخ‌ها و تحلیل‌های هوش مصنوعی مورد استفاده قرار می‌گیرد.

بررسی‌ها نشان می‌دهد مرورگرهای عامل‌محور مانند ChatGPT Atlas، Claude، Gemini، Manus AI و Perplexity در برابر این حمله بسیار آسیب‌پذیر هستند. آن‌ها توانسته‌اند بدون نیاز به حملات پیچیده، وظایف خطرناک مانند تزریق SQL، دور زدن دیوارهای پرداخت، ربایش نشست‌ها و تنظیم مجدد رمز عبور را اجرا کنند.

مطالعه گروه hCaptcha نیز تایید کرده که این مرورگرها بسیاری از درخواست‌های مخرب را تنها به دلیل ضعف فنی رد می‌کنند، نه وجود مکانیزم‌های امنیتی. به‌عنوان مثال، ChatGPT Atlas در قالب اشکال‌زدایی قادر به انجام وظایف خطرناک بود و Claude نیز به‌راحتی رمز عبور را ریست کرد.

حمله AI-targeted cloaking از نظر فنی ساده اما از نظر تاثیر، بسیار گسترده است. این روش می‌تواند صحت خروجی مدل‌های زبانی بزرگ را زیر سؤال برده و اعتماد کاربران را نسبت به ابزارهای AI کاهش دهد. تقویت کنترل‌های امنیتی و بررسی اعتبار محتوا از منابع متنوع، برای مقابله با این تهدید حیاتی است.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.