آیا خطرات ChatGPT جدی هستند

کمیته رکن چهارم – کارشناسان امنیتی عقیده دارند که افشای اطلاعات کاربران در کنار ارائه پاسخ‌های نادرست ازجمله مهم‌ترین خطرات ChatGPT و سرویس‌های مشابه با آن هستند.

مرکز ملی امنیت سایبری بریتانیا (NCSC) به‌تازگی نسبت به خطرات احتمالی سرویس ChatGPT به عموم هشدار داده است. این مدل هوش مصنوعی که در قالب چت‌بات ارائه می‌شود، در چند ماه گذشته توانسته است محبوبیت بالایی در بین کاربران به‌دست آورد و اکنون به شیوه‌های مختلفی قابل دسترس است.

بسیاری از افراد چت‌بات شرکت OpenAI را به‌منظور دریافت پاسخ سؤالات خود یا صرفه‌جویی در زمان جستجو مورد استفاده قرار می‌دهند. عملکرد این هوش مصنوعی در برقراری مکالمه‌های واقعی با افراد حیرت‌انگیز بوده است و یکی از دلایل اصلی محبوبیت آن به شمار می‌رود. همچنین اخیراً مدل زبانی GPT-4 برای چت‌بات مذکور ارائه شده است که از قابلیت‌های بهبودیافته گوناگونی بهره می‌برد.

بااین‌حال کارشناسان مرکز ملی امنیت سایبری بریتانیا در پست اخیر وبلاگ خود خطرات احتمالی ChatGPT و سایر مدل‌های پردازش زبانی عظیم را به مردم گوشزد کرده‌اند. آن‌ها در پژوهش‌های صورت‌گرفته متوجه شده‌اند که پاسخ‌های ارائه‌شده توسط این چت‌بات و سایر نمونه‌های مشابه آن می‌تواند گمراه‌کننده و نادرست باشد. همچنین احتمال دارد که برخی از پاسخ‌ها به پرسش‌های کاربران به‌صورت جهت‌دار، همراه با خشونت و نامناسب تلقی شود. به همین دلیل کاربران باید قبل استفاده از ابزارهای مبتنی بر هوش مصنوعی نسبت به مشکلات احتمالی آن‌ها واقف باشند.

کارشناسان امنیتی معتقد هستند که افراد باید نسبت به اطلاعاتی که در سرویس‌های مبتنی بر هوش مصنوعی به اشتراک می‌گذارند، حساسیت بیشتری نشان دهند. توصیه آن‌ها عدم به‌اشتراک‌گذاری داده‌های حساس با ChatGPT یا سایر مدل‌های پردازش زبانی است. شایان ذکر است که این سرویس‌ها معمولاً داده‌های کاربران خود را به‌خوبی محافظت می‌کنند و در دید سایر افراد قرار نمی‌دهند؛ اما ذخیره حجم عظیمی از اطلاعات و دستورات در آن‌ها می‌تواند موجب جلب‌توجه هکرها جهت سرقت داده شود. به همین دلیل بهتر است از مطرح‌کردن سؤالات مرتبط با زندگی شخصی یا کاری خود در چنین پلتفرم‌هایی خودداری کنید.

منبع : دیجیاتو

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.