ضعف امنیتی ChatGPT در برابر متن‌های مخفی

کمیته رکن چهارم – تحقیقات جدید نشان می‌دهد که قابلیت جستجوی ChatGPT، یکی از محصولات هوش مصنوعی پیشرفته، می‌تواند کاربران را با اطلاعات گمراه‌کننده مواجه کند. روزنامه بریتانیایی The Guardian اخیراً گزارشی درباره ضعف‌های امنیتی این فناوری منتشر کرده است.

به گزارش کمیته رکن چهارم، قابلیت جستجوی ChatGPT که برای ارائه خلاصه‌های سریع و دقیق از محتوای وب طراحی شده است، می‌تواند با حملات متن مخفی به‌طور نادرست عمل کند. در آزمایشی که توسط گاردین انجام شده، این موتور هوش مصنوعی با متن‌های پنهان در وب‌سایت‌های سفارشی گمراه شد و نظرات منفی را نادیده گرفت و به جای آن خلاصه‌هایی کاملاً مثبت ارائه کرد. این ضعف همچنین امکان تولید کدهای مخرب را نیز فراهم می‌کند.

حملات متن مخفی روشی شناخته‌شده است که در آن متون پنهان در صفحات وب قرار می‌گیرند تا مدل‌های هوش مصنوعی را به تولید نتایج گمراه‌کننده وادار کنند. این حملات یکی از چالش‌های اصلی مدل‌های زبانی بزرگ هستند و از ضعف در پردازش محتوای پنهان بهره می‌برند. برای نخستین بار، چنین حمله‌ای به‌طور مستند در یک محصول جستجوی زنده مانند ChatGPT گزارش شده است. گاردین اشاره کرده که شرکت‌هایی مانند گوگل، با تجربه بیشتری در مقابله با این نوع مشکلات، راهکارهای پیشرفته‌تری برای جلوگیری از این حملات دارند. این مسئله بر ضرورت تقویت امنیت در فناوری‌های نوین تأکید می‌کند.

OpenAI، توسعه‌دهنده ChatGPT، اعلام کرد که از روش‌های مختلفی برای جلوگیری از حملات و مسدود کردن وب‌سایت‌های مخرب استفاده می‌کند و بهبود مستمر سیستم را در دستور کار خود دارد. با این حال، به‌طور مشخص درباره این حادثه اظهارنظری نکرد.

این اتفاق نشان‌دهنده اهمیت توجه به امنیت در استفاده از فناوری‌های هوش مصنوعی و نیاز به بهبود مداوم سیستم‌ها برای حفاظت از کاربران است.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.