کمیته رکن چهارم – در اولین روز از کنفرانس RASC، کارشناسان امنیت سایبری درباره نقش هوش مصنوعی در امنیت سایبری و نحوه استفاده از آن در این بخش بحث کردند.
هوش مصنوعی مزایای بالقوه عظیمی در امنیت سایبری دارد، از جمله شناسایی بهموقع تهدیدات در یک شبکه یا سیستم، پیشگیری از حملات فیشینگ و برنامههای تهاجمی امنیت سایبری. همچنین امید است که این فناوریها با کاهش بار کاری تیمهای امنیتی به کاهش شکاف مهارتهای سایبری کمک کنند.
با این حال، اصطلاح «هوش مصنوعی» اغلب در سالهای اخیر به یک کلمه رایج تبدیل شده است و بسیاری از فروشندگان محصول و سازمانها استفاده خود از این فناوری را اشتباه میفهمند یا به اشتباه توضیح میدهند.
دایانا کلی، مدیر فروش در شرکت Cyberize در روز اول کنفرانس RSA 2023 گفت که ارزیابی دقیق نقش این فناوریها مهم است، زیرا میتواند منجر به انتظارات غیرواقعی شود که بالقوه «عواقب جدی» از جمله در امنیت سایبری دارد.
او خاطرنشان کرد: دلیل اینکه ما باید تبلیغات را از واقعیت جدا کنیم این است که به این سیستمها اعتماد داریم.
کلی مشاهده کرد که قابلیتهای هوش مصنوعی عموماً بیش از حد مورد استفاده قرار گرفته است. به عنوان مثال، توسعه خودروهای کاملاً خودران بهعنوان چالشی بسیار دشوارتر از آنچه قبلاً پیشبینی میشد، ثابت شده است. کلی خاطرنشان کرد که ترس در مورد استفادههای بالقوه دیستوپیایی هوش مصنوعی از لحاظ فنی ممکن است اما مطمئناً برای آینده قابل پیشبینی نیست.
او افزود که تواناییهای هوش مصنوعی معمولاً بیش از حد تخمین زده میشود. کلی سؤالی را که از ChatGPT درباره کتابهای امنیت سایبری که او نوشته است، مطرح کرد – این سؤال با پنج کتاب پاسخ داده شد که وی در نوشتن هیچکدام از آنها مشارکت نداشته است.
با این وجود، فناوریهای هوش مصنوعی نقش مهمی را در امنیت سایبری ایفا میکنند. تا کنون عمدتاً در استدلال در مورد دادههای فعالیت و گزارشهایی که به دنبال ناهنجاریها هستند.
برای اینکه سازمانها بتوانند از هوش مصنوعی به طور مؤثر استفاده کنند، باید اشکال مختلف هوش مصنوعی و نحوه استفاده از آنها را درک کنند. سپس، آنها میتوانند سؤالات درستی از فروشندگان بپرسند تا بفهمند آیا آنها به فناوری هوش مصنوعی ارائه شده نیاز دارند یا خیر.
هوش مصنوعی طیف وسیعی از فناوریها را پوشش میدهد و تفاوتهای آنها باید درک شود. به عنوان مثال، یادگیری ماشینی زیرمجموعهای از هوش مصنوعی است و نقشها و قابلیتهای بسیار متفاوتی در مقایسه با سیستمهای هوش مصنوعی مولد مانند ChatGPT دارد.
کلی گفت مهم است که بدانیم سیستمهای هوش مصنوعی مولد مانند پاسخهای ChatGPT بر اساس دادههایی هستند که روی آنها آموزش دیدهاند. به همین دلیل است که ChatGPT سؤال درباره کتابهایش را اشتباه پاسخ داده است. او اظهار داشت: احتمال زیادی وجود داشت که من آن کتابها را نوشته باشم.
ChatGPT که بر روی اطلاعات در سراسر اینترنت آموزش دیده است، اشتباهات زیادی را مرتکب خواهد شد چون اشتباهات زیادی در اینترنت وجود دارد.
همچنین تغییرات قابل توجهی در نحوه عملکرد مدلهای مختلف هوش مصنوعی مولد و کاربرد آنها وجود دارد.
مدلهای یادگیری بدون نظارت وجود دارد که در آن الگوریتمها، الگوها و ناهنجاریها را بدون دخالت انسان کشف میکنند. این مدلها در کشف الگوهایی که انسانها نمیتوانند تشخیص دهند، نقش دارند. در امنیت سایبری، این شامل یافتن ارتباط با نوعی بدافزار و یک عامل تهدید خاص و کاربرانی است که به احتمال زیاد روی یک لینک فیشینگ کلیک میکنند؛ به عنوان مثال، کسانی که از رمزهای عبور مجدد استفاده میکنند.
با این حال، مدلهای هوش مصنوعی بدون نظارت دارای اشکالاتی هستند زیرا خروجی آن بر اساس احتمال است. مسائلی وجود دارد که وقتی اشتباه کردن تأثیر بسیار بالایی دارد. این میتواند شامل واکنش بیش از حد در هنگام شناسایی بدافزار و خاموش کردن کل سیستم باشد.
هدف یادگیری تحت نظارت آموزش مدلهای هوش مصنوعی با مجموعه دادههای برچسبگذاریشده برای پیشبینی دقیق نتایج است. این امر آن را در پیشبینی و طبقهبندی بر اساس اطلاعات شناختهشده مفید میکند – مانند قانونی بودن یا فیشینگ بودن ایمیل. با این حال، یادگیری تحت نظارت به منابع زیادی و به روز رسانی مداوم نیاز دارد تا اطمینان حاصل شود که هوش مصنوعی از دقت بالایی برخوردار است.
کلی همچنین تعدادی از خطرات سایبری عمدی و غیرعمدی را با هوش مصنوعی مطرح کرد. عمدی شامل ایجاد بدافزار و سوگیری دادههای ناخواسته از دادههایی است که روی آن آموزش داده شده است.
بنابراین، مهم است که سازمانها این مسائل را درک کنند و سؤالات مناسبی را از فروشندگان امنیت سایبری که راهحلهای مبتنی بر هوش مصنوعی ارائه میدهند بپرسند.
اینها شامل نحوه آموزش هوش مصنوعی است، به عنوان مثال، چه مجموعه دادههایی استفاده میشود و چرا آنها تحت نظارت یا بدون نظارت هستند.
سازمانها همچنین باید اطمینان حاصل کنند که فروشندگان در سیستمهای خود انعطافپذیری ایجاد کردهاند تا از بروز مشکلات عمدی و غیرعمدی جلوگیری کنند. به عنوان مثال، آیا آنها یک چرخه عمر توسعه نرمافزار امن (SSDLC) دارند؟
در نهایت، بررسی دقیق اینکه آیا مزایای هوش مصنوعی بازده واقعی سرمایهگذاری را فراهم می کند، حیاتی است. کلی گفت: شما بهترین موقعیت را برای ارزیابی این موضوع دارید.
او افزود که استفاده از دانشمندان داده و پلتفرمهایی مانند MLCommons میتواند به این ارزیابی کمک کند.
منبع: Infosecurity