نقش فراتر از انتظار هوش مصنوعی در امنیت سایبری

کمیته رکن چهارم – در اولین روز از کنفرانس RASC، کارشناسان امنیت سایبری درباره نقش هوش مصنوعی در امنیت سایبری و نحوه استفاده از آن در این بخش بحث کردند.

هوش مصنوعی مزایای بالقوه عظیمی در امنیت سایبری دارد، از جمله شناسایی به‌موقع تهدیدات در یک شبکه یا سیستم، پیشگیری از حملات فیشینگ و برنامه‌های تهاجمی امنیت سایبری. همچنین امید است که این فناوری‌ها با کاهش بار کاری تیم‌های امنیتی به کاهش شکاف مهارت‌های سایبری کمک کنند.

با این حال، اصطلاح «هوش مصنوعی» اغلب در سال‌های اخیر به یک کلمه رایج تبدیل شده است و بسیاری از فروشندگان محصول و سازمان‌ها استفاده خود از این فناوری را اشتباه می‌فهمند یا به اشتباه توضیح می‌دهند.

دایانا کلی، مدیر فروش در شرکت Cyberize در روز اول کنفرانس RSA 2023 گفت که ارزیابی دقیق نقش این فناوری‌ها مهم است، زیرا می‌تواند منجر به انتظارات غیرواقعی شود که بالقوه «عواقب جدی» از جمله در امنیت سایبری دارد.

او خاطرنشان کرد: دلیل اینکه ما باید تبلیغات را از واقعیت جدا کنیم این است که به این سیستم‌ها اعتماد داریم.

کلی مشاهده کرد که قابلیت‌های هوش مصنوعی عموماً بیش از حد مورد استفاده قرار گرفته است. به عنوان مثال، توسعه خودروهای کاملاً خودران به‌عنوان چالشی بسیار دشوارتر از آنچه قبلاً پیش‌بینی می‌شد، ثابت شده است. کلی خاطرنشان کرد که ترس در مورد استفاده‌های بالقوه دیستوپیایی هوش مصنوعی از لحاظ فنی ممکن است اما مطمئناً برای آینده قابل پیش‌بینی نیست.

او افزود که توانایی‌های هوش مصنوعی معمولاً بیش از حد تخمین زده می‌شود. کلی سؤالی را که از ChatGPT درباره کتاب‌های امنیت سایبری که او نوشته است، مطرح کرد – این سؤال با پنج کتاب پاسخ داده شد که وی در نوشتن هیچ‌کدام از آن‌ها مشارکت نداشته است.

با این وجود، فناوری‌های هوش مصنوعی نقش مهمی را در امنیت سایبری ایفا می‌کنند. تا کنون عمدتاً در استدلال در مورد داده‌های فعالیت و گزارش‌هایی که به دنبال ناهنجاری‌ها هستند.

برای اینکه سازمان‌ها بتوانند از هوش مصنوعی به طور مؤثر استفاده کنند، باید اشکال مختلف هوش مصنوعی و نحوه استفاده از آن‌ها را درک کنند. سپس، آن‌ها می‌توانند سؤالات درستی از فروشندگان بپرسند تا بفهمند آیا آن‌ها به فناوری هوش مصنوعی ارائه شده نیاز دارند یا خیر.

هوش مصنوعی طیف وسیعی از فناوری‌ها را پوشش می‌دهد و تفاوت‌های آن‌ها باید درک شود. به عنوان مثال، یادگیری ماشینی زیرمجموعه‌ای از هوش مصنوعی است و نقش‌ها و قابلیت‌های بسیار متفاوتی در مقایسه با سیستم‌های هوش مصنوعی مولد مانند ChatGPT دارد.

کلی گفت مهم است که بدانیم سیستم‌های هوش مصنوعی مولد مانند پاسخ‌های ChatGPT بر اساس داده‌هایی هستند که روی آن‌ها آموزش دیده‌اند. به همین دلیل است که ChatGPT سؤال درباره کتاب‌هایش را اشتباه پاسخ داده است. او اظهار داشت: احتمال زیادی وجود داشت که من آن کتاب‌ها را نوشته باشم.

ChatGPT که بر روی اطلاعات در سراسر اینترنت آموزش دیده است، اشتباهات زیادی را مرتکب خواهد شد چون اشتباهات زیادی در اینترنت وجود دارد.

همچنین تغییرات قابل توجهی در نحوه عملکرد مدل‌های مختلف هوش مصنوعی مولد و کاربرد آن‌ها وجود دارد.

مدل‌های یادگیری بدون نظارت وجود دارد که در آن الگوریتم‌ها، الگوها و ناهنجاری‌ها را بدون دخالت انسان کشف می‌کنند. این مدل‌ها در کشف الگوهایی که انسان‌ها نمی‌توانند تشخیص دهند، نقش دارند. در امنیت سایبری، این شامل یافتن ارتباط با نوعی بدافزار و یک عامل تهدید خاص و کاربرانی است که به احتمال زیاد روی یک لینک فیشینگ کلیک می‌کنند؛ به عنوان مثال، کسانی که از رمزهای عبور مجدد استفاده می‌کنند.

با این حال، مدل‌های هوش مصنوعی بدون نظارت دارای اشکالاتی هستند زیرا خروجی آن بر اساس احتمال است. مسائلی وجود دارد که وقتی اشتباه کردن تأثیر بسیار بالایی دارد. این می‌تواند شامل واکنش بیش از حد در هنگام شناسایی بدافزار و خاموش کردن کل سیستم باشد.

هدف یادگیری تحت نظارت آموزش مدل‌های هوش مصنوعی با مجموعه داده‌های برچسب‌گذاری‌شده برای پیش‌بینی دقیق نتایج است. این امر آن را در پیش‌بینی و طبقه‌بندی بر اساس اطلاعات شناخته‌شده مفید می‌کند – مانند قانونی بودن یا فیشینگ بودن ایمیل. با این حال، یادگیری تحت نظارت به منابع زیادی و به روز رسانی مداوم نیاز دارد تا اطمینان حاصل شود که هوش مصنوعی از دقت بالایی برخوردار است.

کلی همچنین تعدادی از خطرات سایبری عمدی و غیرعمدی را با هوش مصنوعی مطرح کرد. عمدی شامل ایجاد بدافزار و سوگیری داده‌های ناخواسته از داده‌هایی است که روی آن آموزش داده شده است.

بنابراین، مهم است که سازمان‌ها این مسائل را درک کنند و سؤالات مناسبی را از فروشندگان امنیت سایبری که راه‌حل‌های مبتنی بر هوش مصنوعی ارائه می‌دهند بپرسند.

این‌ها شامل نحوه آموزش هوش مصنوعی است، به عنوان مثال، چه مجموعه داده‌هایی استفاده می‌شود و چرا آن‌ها تحت نظارت یا بدون نظارت هستند.

سازمان‌ها همچنین باید اطمینان حاصل کنند که فروشندگان در سیستم‌های خود انعطاف‌پذیری ایجاد کرده‌اند تا از بروز مشکلات عمدی و غیرعمدی جلوگیری کنند. به عنوان مثال، آیا آن‌ها یک چرخه عمر توسعه نرم‌افزار امن (SSDLC) دارند؟

در نهایت، بررسی دقیق اینکه آیا مزایای هوش مصنوعی بازده واقعی سرمایه‌گذاری را فراهم می کند، حیاتی است. کلی گفت: شما بهترین موقعیت را برای ارزیابی این موضوع دارید.

او افزود که استفاده از دانشمندان داده و پلتفرم‌هایی مانند MLCommons می‌تواند به این ارزیابی کمک کند.

منبع: Infosecurity

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Blue Captcha Characters Below.