کمیته رکن چهارم – گزارشهای جدید نشان میدهد که هکرهای ایرانی و چینی از ابزار هوش مصنوعی ChatGPT برای طراحی و اجرای حملات سایبری پیچیده استفاده میکنند. این ابزار، که به دلیل توانایی در تولید متنهای خلاقانه شناخته شده است، اکنون به یک سلاح خطرناک در دست هکرها تبدیل شده است.
به گزارش کمیته رکن چهارم و به نقل از گجت نیوز، OpenAI اعلام کرده که هکرها به ابزار ChatGPT، یکی از پیشرفتهترین مدلهای زبانی هوش مصنوعی، رخنه کرده و از آن برای اجرای بیش از ۲۰ حمله سایبری استفاده کردهاند. این حملات شامل ایجاد بدافزارهای پیچیده، حملات فیشینگ هدفمند، و سوءاستفاده از آسیبپذیریهای امنیتی بوده و نه تنها دولتها، بلکه کاربران عادی را نیز هدف قرار دادهاند.
بر اساس گزارشهای منتشر شده، هکرهای ایرانی و چینی با بهرهگیری از ChatGPT موفق به ایجاد بدافزارهایی شدهاند که قادر به سرقت اطلاعات حساس مانند رمزهای عبور، تاریخچه مرورگرها و حتی موقعیت مکانی کاربران هستند. ابزار ChatGPT با قابلیت تولید کدهای پیچیده و ارائه یک رابط کاربری ساده، حتی به افراد با دانش فنی محدود نیز امکان طراحی حملات سایبری را داده است.
نگرانیهای امنیتی و تلاشها برای مقابله: این تحولات نگرانیها درباره سوءاستفاده از هوش مصنوعی را افزایش داده است. اگرچه ChatGPT و ابزارهای مشابه میتوانند برای اهداف مثبتی مورد استفاده قرار گیرند، اما توانایی آنها در تولید محتوای مخرب، زمینه سوءاستفاده توسط هکرها را نیز فراهم کرده است.
OpenAI اعلام کرده که در حال توسعه ابزارهایی برای تشخیص و جلوگیری از تولید محتوای مخرب توسط مدلهای زبانی خود است. همچنین، این شرکت تأکید کرده که برای مقابله با این نوع تهدیدات، اقدامات جدیتری در دستور کار قرار خواهد داد. به همین منظور، همکاری بینالمللی بین شرکتهای فناوری، دولتها، و متخصصان امنیت سایبری برای توسعه استانداردهای قوی امنیتی در حوزه هوش مصنوعی، امری ضروری به نظر میرسد.
نتیجهگیری: با پیشرفت سریع فناوری هوش مصنوعی، جلوگیری از سوءاستفاده از این ابزار برای اهداف مخرب، یکی از چالشهای بزرگ آینده امنیت سایبری است. برای مقابله با تهدیدات ناشی از استفاده نادرست از هوش مصنوعی، نیاز به همکاری گسترده بین شرکتهای فناوری و سازمانهای دولتی بیش از هر زمان دیگری احساس میشود.