نسخه عمومی چارچوب امنیت AI در سال ۲۰۲۶ منتشر می‌شود

کمیته رکن چهارم– مؤسسه ملی استاندارد و فناوری ایالات متحده (NIST) از طرح مفهومی جدیدی با عنوان «پوشش‌های کنترلی برای ایمن‌سازی سیستم‌های هوش مصنوعی» یا COSAIS رونمایی کرد. این طرح با هدف تطبیق چارچوب‌های امنیتی موجود با تهدیدهای خاص هوش مصنوعی ارائه شده و گامی مهم برای بازتعریف استانداردهای امنیتی در این حوزه به شمار می‌رود.

به گزارش کمیته رکن چهارم، برخلاف نرم‌افزارهای متداول، سیستم‌های هوش مصنوعی با تهدیدهای نوظهوری مانند مسموم‌سازی داده‌های آموزشی، تزریق پرامپت، وارون‌سازی مدل و حملات تخاصمی روبه‌رو هستند. این تهدیدها به دلیل ماهیت پویا و یادگیرنده مدل‌ها، نیازمند راهکارهایی فراتر از کنترل‌های سنتی فناوری اطلاعات‌اند.

طرح COSAIS بر پایه چارچوب امنیتی SP 800-53 توسعه یافته و کنترل‌های آن به‌طور ویژه برای مقابله با ریسک‌های مرتبط با یادگیری ماشین و عامل‌های هوشمند تنظیم شده است. در تدوین این طرح از منابعی مانند چارچوب مدیریت ریسک هوش مصنوعی، شیوه‌های توسعه امن و طبقه‌بندی حملات تخاصمی بهره گرفته شده تا راهکارها هم از نظر فنی معتبر و هم برای تیم‌های امنیتی عملی باشند.

پنج حوزه کلیدی هوش مصنوعی شامل مدل‌های مولد مانند LLMها، سیستم‌های پیش‌بینی‌کننده، عامل‌های تک‌عاملی، سیستم‌های چندعاملی و محیط‌های توسعه به‌عنوان نقاط تمرکز اصلی در نظر گرفته شده‌اند. برای هر حوزه مجموعه‌ای از کنترل‌های تطبیقی پیشنهاد شده است؛ از جمله اعتبارسنجی خروجی و نظارت بر رفتار مدل در برابر تزریق پرامپت برای مدل‌های مولد و اعمال کنترل دسترسی و مستندسازی تصمیمات در محیط‌های توسعه.

NIST اعلام کرده نسخه اولیه عمومی COSAIS در سال ۲۰۲۶ منتشر خواهد شد و انتظار می‌رود به مرجع جدیدی برای ایمن‌سازی سیستم‌های هوش مصنوعی تبدیل شود. همچنین از متخصصان امنیت و توسعه‌دهندگان دعوت شده تا در تکمیل و بهبود این چارچوب مشارکت کنند.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.