کشف مدل‌های مخرب هوش مصنوعی در پلتفرم Hugging Face

کمیته رکن چهارم – محققان امنیت سایبری دو مدل مخرب هوش مصنوعی را در پلتفرم Hugging Face شناسایی کرده‌اند که با استفاده از یک روش پیچیده از شناسایی امنیتی فرار کرده‌اند. این مدل‌ها از فایل‌هایی به نام pickle «پیکل» که برای ذخیره و انتقال داده‌های هوش مصنوعی به کار می‌روند، استفاده کرده و به کدی آلوده بودند که می‌توانست از راه دور به سرورهای مشخصی متصل شود.

به گزارش کمیته رکن چهارم، پلتفرم Hugging Face یکی از برجسته‌ترین پلتفرم‌های هوش مصنوعی و یادگیری ماشین است که به ارائه مدل‌های زبانی بزرگ و ابزارهای پردازش زبان طبیعی می‌پردازد. با وجود محبوبیت این پلتفرم، مشکلات امنیتی نیز مطرح شده است. به‌عنوان نمونه، کارلو زانکی، محقق شرکت ReversingLabs، در گزارشی اعلام کرد که دو مدل مخرب در این پلتفرم شناسایی شده‌اند که حاوی بدافزاری بودند. این بدافزار از طریق برقراری ارتباط مخفیانه با یک آدرس اینترنتی خاص، امکان کنترل از راه دور را برای مهاجمان فراهم می‌کرد. این روش که «nullifAI» نام دارد، به‌منظور عبور از ابزارهای امنیتی طراحی شده و باعث نگرانی‌هایی در مورد امنیت مدل‌های موجود در Hugging Face شده است.

فایل‌های پیکل که به‌طور معمول برای ذخیره و انتقال مدل‌های هوش مصنوعی به کار می‌روند، به‌دلیل توانایی اجرای کدهای دلخواه به محض بارگذاری، یک خطر امنیتی بالقوه محسوب می‌شوند. در این مورد، فایل‌های پیکل به‌جای استفاده از قالب استاندارد فشرده‌سازی ZIP، با فرمت فشرده‌سازی ۷z ذخیره شده بودند. این امر باعث شده بود که ابزارهای امنیتی موجود، مانند ابزار «Picklescan»، قادر به شناسایی محتوای مخرب نباشند.

محققان توضیح داده‌اند که چون محتوای آلوده در ابتدای فایل پیکل قرار گرفته بود، کدهای مخرب پیش از آنکه خطایی در پردازش فایل شناسایی شود، اجرا می‌شدند. همین امر به مدل‌ها اجازه می‌داد تا به راحتی از بررسی‌های امنیتی پلتفرم Hugging Face عبور کنند.

پس از این کشف، ابزار امنیتی Picklescan به‌روزرسانی شد تا بتواند این نوع تهدیدها را نیز شناسایی کند. زانکی تأکید کرد که نقص امنیتی مذکور به دلیل نحوه سریال‌سازی داده‌ها در فایل‌های پیکل است که باعث می‌شود کدهای موجود به ترتیب اجرا شوند و فرصت شناسایی تهدید کاهش یابد.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.