کمیته رکن چهارم – پژوهشگران شرکت Check Point چندین آسیبپذیری مهم در Claude Code، دستیار کدنویسی مبتنی بر هوش مصنوعی شرکت Anthropic، کشف کردهاند که میتواند به اجرای کد از راه دور (RCE) و سرقت کلیدهای API منجر شود.

به گزارش کمیته رکن چهارم، در برخی سناریوها تنها باز کردن یک مخزن (repository) مخرب کافی است تا زنجیره حمله فعال شود، حتی اگر کاربر هیچ کدی را بهصورت دستی اجرا نکند.
بررسیها نشان میدهد یکی از این نقصها با امتیاز CVSS 8.7 امکان تزریق کد و اجرای دستورات shell را از طریق فایل تنظیمات .claude/settings.json فراهم میکرد و به مهاجم اجازه میداد مکانیزم رضایت کاربر را دور بزند. آسیبپذیری دیگری با شناسه CVE-2025-59536 و امتیاز ۸٫۷ نیز هنگام مقداردهی اولیه ابزار، دستورات shell را بهطور خودکار اجرا میکرد و از طریق فایلهای .mcp.json و تنظیمات مربوط به Model Context Protocol قابل سوءاستفاده بود. همچنین نقصی با شناسه CVE-2026-21852 میتوانست در صورت تغییر مقدار ANTHROPIC_BASE_URL به یک سرور تحت کنترل مهاجم، منجر به ارسال درخواستهای API پیش از نمایش پیام اعتماد و در نتیجه افشای API Key کاربر شود.
این یافتهها نشان میدهد در محیطهای توسعه مبتنی بر هوش مصنوعی، فایلهای پیکربندی و تنظیمات پروژه اکنون بخشی از «لایه اجرایی» محسوب میشوند. Claude Code قادر است دستورات shell اجرا کند، به سرویسهای خارجی متصل شود و از کلیدهای API برای دسترسی به منابع ابری استفاده کند؛ بنابراین فایلهایی مانند .claude/settings.json، .mcp.json و .env دیگر صرفاً تنظیمات ساده نیستند و میتوانند به نقطه ورود حمله تبدیل شوند.
Check Point هشدار داده است که زنجیره تأمین نرمافزار دیگر تنها به سورسکد محدود نمیشود و لایههای اتوماسیون و پیکربندی ابزارهای AI نیز باید بهعنوان بخشی از سطح حمله در نظر گرفته شوند. در صورت بهرهبرداری موفق، مهاجمان میتوانند کد مخرب روی سیستم توسعهدهنده اجرا کنند، کلیدهای API را سرقت کنند، به فایلهای پروژه دسترسی یابند و حتی دادههای ذخیرهشده در فضای ابری را تغییر دهند.
Anthropic اعلام کرده این آسیبپذیریها در نسخههای جدید Claude Code برطرف شدهاند و به توسعهدهندگان توصیه شده است از نسخههای بهروز استفاده کرده، مخازن ناشناس را بدون بررسی باز نکنند و کلیدهای API را بهصورت محدود و دورهای تغییر دهند. این رخداد بار دیگر نشان میدهد در عصر Agentic AI، «باز کردن پروژه» میتواند عملاً معادل «اجرای کد» باشد و مدل تهدید در ابزارهای توسعه مبتنی بر هوش مصنوعی بهطور اساسی تغییر کرده است.
منبع: The Hacker News
