گزارش سالانه HackerOne: هوش مصنوعی به‌عنوان تهدیدی جدی برای امنیت سایبری سازمان‌ها

کمیته رکن چهارم – طبق نظرسنجی اخیر پلتفرم HackerOne، حدود ۴۸ درصد از متخصصان امنیتی، هوش مصنوعی را بزرگ‌ترین تهدید برای امنیت سازمان‌ها دانسته و نگرانی‌هایی از قبیل نشت داده‌ها و هک مدل‌های هوش مصنوعی را مطرح کرده‌اند.

 

 

به گزارش کمیته رکن چهارم، یافته‌های جدید HackerOne پیش از انتشار کامل گزارش سالانه این شرکت با عنوان گزارش امنیت مبتنی بر هک، حاکی از نگرانی روزافزون جامعه امنیت سایبری نسبت به آسیب‌پذیری‌ها و مخاطرات هوش مصنوعی است. این پژوهش با شرکت ۵۰۰ متخصص امنیتی انجام شده و نشان می‌دهد که چالش‌هایی مانند نشت داده‌های آموزشی (۳۵ درصد)، استفاده غیرمجاز از هوش مصنوعی درون سازمان‌ها (۳۳ درصد)، و هک مدل‌های هوش مصنوعی توسط عوامل خارجی (۳۲ درصد) از جمله مسائل مهم برای متخصصان امنیتی محسوب می‌شوند.

این نظرسنجی همچنین به رویکردها و روش‌های مقابله با تهدیدات هوش مصنوعی پرداخته است. بر اساس این یافته‌ها، ۶۸ درصد از پاسخ‌دهندگان بر این باورند که بررسی‌های مستقل و بی‌طرفانه می‌تواند راهکاری مؤثر برای مدیریت ریسک‌های هوش مصنوعی باشد. در این راستا، گروه‌های حمله قرمز هوش مصنوعی (AI Red Teaming) با همکاری پژوهشگران امنیتی بین‌المللی، به شناسایی و رفع ریسک‌ها و آسیب‌های امنیتی و سوگیری‌های ممکن در مدل‌های هوش مصنوعی کمک می‌کنند.

طبق گزارش HackerOne، شرکت‌هایی مانند Anthropic، ادوبی و اسنپ با این پژوهشگران در تعامل هستند تا از آسیب‌پذیری‌های احتمالی و تهدیدات ناشی از کاربرد هوش مصنوعی جلوگیری کنند. به گفته میشیل پرینس، هم‌بنیان‌گذار HackerOne، اگرچه هنوز اجماع کاملی در مورد روش‌های امنیت هوش مصنوعی وجود ندارد، همکاری با جامعه امنیتی جهانی به عنوان راهکاری مؤثر شناخته شده است.

از سوی دیگر، پژوهش دیگری که با همکاری SANS Institute صورت گرفته، نشان می‌دهد که بیش از نیمی از پاسخ‌دهندگان (۵۸ درصد) باور دارند که هوش مصنوعی می‌تواند به نوعی “رقابت تسلیحاتی” میان تکنیک‌های امنیتی و مجرمان سایبری دامن بزند.

هوش مصنوعی با وجود تهدیداتی که دارد، می‌تواند در خودکارسازی وظایف تکراری و افزایش بهره‌وری تیم‌های امنیتی مؤثر باشد؛ ۷۱ درصد از پاسخ‌دهندگان به این پژوهش به کاربرد هوش مصنوعی در این حوزه اظهار رضایت کرده‌اند. با این حال، نگرانی اصلی کارشناسان همچنان پیرامون سوءاستفاده مجرمان سایبری از هوش مصنوعی است، به‌ویژه در زمینه‌های فیشینگ هوشمند و بهره‌برداری خودکار از آسیب‌پذیری‌ها که بیش از ۷۰ درصد از شرکت‌کنندگان به آن‌ها اشاره کرده‌اند.

HackerOne همچنین ابزار کمک‌رسان هوش مصنوعی خود به نام Hai را معرفی کرده که می‌تواند با خودکارسازی برخی از وظایف، تا پنج ساعت از زمان هفتگی تیم‌های امنیتی را ذخیره کند.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Green Captcha Characters Below.