کمیته رکن چهارم – طی چند روز گذشته کاربران زیادی از قطع شدن ناگهانی دسترسی به ChatGPT خبر دادهاند. حال مشخص شده که این قطعیها به دلیل وجود یک باگ خطرناک در کتابخانه منبع باز این سیستم هوش مصنوعی بوده و منجر به افشای اطلاعات خصوصی برخی کاربران شده است.
یک نقص نرمافزاری در یک کتابخانه منبع باز منجر به اولین نشت اطلاعاتی و دادههای بزرگ سیستم هوش مصنوعی ChatGPT شده است و ممکن است تاریخچه چتها و اطلاعات پرداخت برخی از کاربران افشا شود.
شرکت OpenAI که در زمینه هوش مصنوعی فعالیت دارد و اخیراً با توسعه و ارائه سیستم ChatGPT به شهرت رسیده است، در یک بیانیه رسمی اعلام کرد که اوایل هفته جاری یک مشکل جدی در سیستم هوش مصنوعی خود کشف کرده است که به برخی کاربران امکان مشاهده عناوین و احتمالاً اولین پیام تاریخچه مکالمات کاربران دیگر را میدهد.
در بخشهایی از بیانیه OpenAI آمده است که:
ما برای مدت کوتاهی سیستم هوش مصنوعی ChatGPT را در روزهای ابتدایی هفته آفلاین کردیم. مشکل وجود یک نقص امنیتی خطرناک در یک کتابخانه منبع باز بود که به برخی کاربران اجازه میداد به تاریخچه مکالمات سایر کاربران دسترسی پیدا کنند.
دلیل قطع شدن دسترسی به ChatGPT مشخص شد
بر اساس آنچه محققان OpenAI اعلام کردهاند، این باگ باعث میشد که دادهها و چتهای کاربران بر روی سرور باقی مانده و امکان مشاهده آن توسط دیگر افراد وجود داشته باشد. آنها اعلام کردهاند که این باگ همچنین میتواند اطلاعات مهم کاربران مانند دادههای مرتبط با حساب بانکی (در صورت پرداخت پول به سایت) را هم افشا کند.
بر همین اساس مشخص شد که از دسترس خارج شدن موقتی ChatGPT در واقع این نقص امنیتی بوده است.
OpenAI اذعان داشت که در اثر این باگ نشت اطلاعات ۱٫۲ درصد از کاربران ChatGPT پلاس رخ داده است.
در حال حاضر باگ مورد نظر در ChatGPT به طور کامل رفع شده است و دیگر جای نگرانی نیست؛ با این حال، این شرکت برای جلوگیری از بروز حوادث مشابه مدعی شد قوانین کنترل سختگیرانهتری را برای کنترل سیستم هوش مصنوعی خود اعمال خواهد کرد.
وجود چنین باگ ساده و قابلپیشگیری در سیستم ChatGPT بسیار عجیب به نظر میرسد، زیرا شرکت OpenAI در زمینه افزایش امنیت و بررسی کیفی سرویسهای خود قوانین سختگیرانهای داشته و همواره به دنبال بهبود وضعیت امنیتی آنها است.
منبع : شهر سخت افزار