اشتباه کارمندان سامسونگ در استفاده از ChatGPT

کمیته رکن چهارم – یادداشت‌های جلسه سامسونگ و کد منبع جدید پس از فاش شدن در ChatGPT در دسترس هستند.

کارمندان سامسونگ در حالی که از ChatGPT برای کمک به انجام وظایف خود استفاده می‌کنند، ناخواسته اطلاعات فوق محرمانه را فاش کرده‌اند.

این شرکت به مهندسان بازوی نیمه هادی خود اجازه داد تا از نویسنده هوش مصنوعی برای رفع مشکلات کد منبع خود استفاده کنند، اما در انجام این کار، داده‌های محرمانه مانند کد منبع یک برنامه جدید، داده‌های یادداشت‌های جلسه داخلی مربوط به سخت‌افزارشان را وارد کردند.

نتیجه این است که در کمتر از یک ماه، سه مورد ثبت شده از افشای اطلاعات حساس کارمندان از طریق ChatGPT وجود دارد. از آنجایی که ChatGPT داده‌های ورودی کاربر را برای آموزش بیشتر حفظ می‌کند، این اسرار تجاری سامسونگ اکنون به طور موثر در دست OpenAI، شرکت پشتیبان خدمات هوش مصنوعی است.

در پاسخ، سامسونگ اکنون در حال توسعه هوش مصنوعی داخلی خود برای استفاده داخلی توسط کارمندان است، اما آن‌ها فقط می‌توانند از پیام‌هایی استفاده کنند که اندازه آن‌ها به ۱۰۲۴ بایت محدود می‌شود.

در یکی از موارد ذکر شده، یکی از کارمندان از ChatGPT درخواست کرد تا توالی‌های تست را برای شناسایی عیوب در تراشه‌ها بهینه کند که محرمانه است – با این حال، کارآمد کردن این فرآیند تا حد امکان می‌تواند باعث صرفه‌جویی در زمان قابل توجه شرکت‌های تراشه در تست و تأیید پردازنده‌ها شود و منجر به کاهش هزینه نیز شود.

در مورد دیگری، یکی از کارمندان از ChatGPT برای تبدیل یادداشت‌های جلسه به ارائه استفاده کرد، محتوایی که واضح است که سامسونگ دوست داشت اشخاص ثالث خارجی بدانند.

سامسونگ الکترونیکس در مورد خطرات احتمالی نشت اطلاعات محرمانه در پی این حوادث هشداری به کارکنان خود ارسال کرد و گفت که بازیابی چنین اطلاعاتی غیرممکن است زیرا اکنون در سرورهای متعلق به OpenAI ذخیره شده است. در صنعت نیمه‌هادی‌ها، جایی که رقابت شدید است، هر نوع نشت داده می‌تواند فاجعه‌ای برای شرکت مورد نظر داشته باشد.

به نظر نمی‌رسد که سامسونگ برای درخواست بازیابی یا حذف داده‌های حساسی که OpenAI در حال حاضر در اختیار دارد، هیچ توسلی ندارد. برخی استدلال کرده‌اند که همین واقعیت باعث می شود ChatGPT با GDPR اتحادیه اروپا مطابقت نداشته باشد زیرا این یکی از مستاجران اصلی قانون حاکم بر نحوه جمع‌آوری و استفاده شرکت‌ها از داده‌ها است. همچنین یکی از دلایلی است که ایتالیا اکنون استفاده از ChatGPT را در سراسر کشور ممنوع کرده است.

منبع: افتانا

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.