کمیته رکن چهارم – محققان استرالیا ادعا میکنند که هوش مصنوعی سیستم Cylance Protect بلکبری را فریب دادهاند و این سیستم بدافزار ارائهشده را تشخیص نداده است.
محققان استرالیا ادعا میکنند که هوش مصنوعی سیستم Cylance Protect بلکبری را فریب دادهاند و این سیستم بدافزار ارائهشده را تشخیص نداده است.
محققان Skylight Cyber با استفاده از “روش دور زدن جهانی” موفق شدند تا این سیستم را به نحوی گول بزنند که یک بدافزار را بهعنوان نرمافزاری امن تشخیص بدهد.
این محققان اظهار داشتند که: «کاربریهای هوش مصنوعی در امنیت مشخص و بالقوه مفید است. بااینحال، محصولات مبتنی بر هوش مصنوعی منجر به سطح جدید و منحصربهفردی از حملات میشوند.»
به این ترتیب اگر بتوان به نحوه کار مدلی خاص و قابلیتهای مورداستفادهاش برای نتیجهگیری پی برد، میتوان آن را بهصورت دائمی گول زد و یک راه فرار فراگیر ایجاد کرد.
این محققان بعد از انجام تحقیقات گسترده روی این سیستم توانستند راه فرار عجیبی را به سمت بازی ویژهای ایجاد کنند.
این محققان در این رابطه بیان کردند که: «با ترکیب تحلیل فرایند استخراج ویژگی این سیستم با اتکای قویاش بر رشتهها و تعصب بیشازحدش بر این بازی خاص توانستیم راه فرار ساده و سرگرمکنندهای ایجاد کنیم.»
آنها همچنین اظهار داشتند که با افزودن فهرستی خاص از رشتهها به یک فایل مخرب توانستند امتیاز آن را برای اجتناب از شناسایی تغییر بدهد. این روش برای ۱۰۰ درصد از ۱۰ بدافزار برتر می ماه سال ۲۰۱۹ و نزدیک به ۹۰ درصد از ۳۸۴ بدافزار امتحان شده جوابگو بود.
این محققان برای تست این روش، فهرستی از ۱۰ بدافزار برتر منتخب مرکز امنیت اینترنت را آپلود کردند. سپس نتایج حاصله نشان داد که امتیازهای منفی به مثبت تبدیل شدند و به این ترتیب، این سیستم از تشخیص برخی از خطرناکترین بدافزارهای دنیا بازماند.
این محققان سرانجام اعلام کردند که این روش فرار در سیستمهای امنیتی ارائه شده از جانب کمپانیهای دیگر فعال در زمینهٔ هوش مصنوعی نیز جوابگو است، و آنها باید به دنبال راهی برای برطرف سازی این نقیصه بزرگ باشند.
منبع : رایورز