کمیته رکن چهارم – محققان امنیت سایبری دو مدل مخرب هوش مصنوعی را در پلتفرم Hugging Face شناسایی کردهاند که با استفاده از یک روش پیچیده از شناسایی امنیتی فرار کردهاند. این مدلها از فایلهایی به نام pickle «پیکل» که برای ذخیره و انتقال دادههای هوش مصنوعی به کار میروند، استفاده کرده و به کدی آلوده بودند که میتوانست از راه دور به سرورهای مشخصی متصل شود.
به گزارش کمیته رکن چهارم، پلتفرم Hugging Face یکی از برجستهترین پلتفرمهای هوش مصنوعی و یادگیری ماشین است که به ارائه مدلهای زبانی بزرگ و ابزارهای پردازش زبان طبیعی میپردازد. با وجود محبوبیت این پلتفرم، مشکلات امنیتی نیز مطرح شده است. بهعنوان نمونه، کارلو زانکی، محقق شرکت ReversingLabs، در گزارشی اعلام کرد که دو مدل مخرب در این پلتفرم شناسایی شدهاند که حاوی بدافزاری بودند. این بدافزار از طریق برقراری ارتباط مخفیانه با یک آدرس اینترنتی خاص، امکان کنترل از راه دور را برای مهاجمان فراهم میکرد. این روش که «nullifAI» نام دارد، بهمنظور عبور از ابزارهای امنیتی طراحی شده و باعث نگرانیهایی در مورد امنیت مدلهای موجود در Hugging Face شده است.
فایلهای پیکل که بهطور معمول برای ذخیره و انتقال مدلهای هوش مصنوعی به کار میروند، بهدلیل توانایی اجرای کدهای دلخواه به محض بارگذاری، یک خطر امنیتی بالقوه محسوب میشوند. در این مورد، فایلهای پیکل بهجای استفاده از قالب استاندارد فشردهسازی ZIP، با فرمت فشردهسازی ۷z ذخیره شده بودند. این امر باعث شده بود که ابزارهای امنیتی موجود، مانند ابزار «Picklescan»، قادر به شناسایی محتوای مخرب نباشند.
محققان توضیح دادهاند که چون محتوای آلوده در ابتدای فایل پیکل قرار گرفته بود، کدهای مخرب پیش از آنکه خطایی در پردازش فایل شناسایی شود، اجرا میشدند. همین امر به مدلها اجازه میداد تا به راحتی از بررسیهای امنیتی پلتفرم Hugging Face عبور کنند.
پس از این کشف، ابزار امنیتی Picklescan بهروزرسانی شد تا بتواند این نوع تهدیدها را نیز شناسایی کند. زانکی تأکید کرد که نقص امنیتی مذکور به دلیل نحوه سریالسازی دادهها در فایلهای پیکل است که باعث میشود کدهای موجود به ترتیب اجرا شوند و فرصت شناسایی تهدید کاهش یابد.