مایکروسافت در حفاظت از داده‌های صوتی کاربران کوتاهی کرده است

کمیته رکن چهارم – مایکروسافت برای پرورش سیستم هوش مصنوعی خود از کاربران انسانی برای تفسیر پیام‌های صوتی استفاده کرده و آن‌ها را با حفاظت مناسبی نگه‌داری نکرده است.

سال گذشته، اخبار متعددی منتشر شد که ادعا می‌کرد پیمان‌کارانی از سرتاسر جهان به داده‌های صوتی دستیارهای هوشمند همچون کورتانا و الکسا و گوگل اسیستنت گوش می‌کنند که مسئولیت آن‌ها در مسیر بهبود توانایی تشخیص صوت هوش مصنوعی تنظیم شده بود. مایکروسافت حتی پیام‌های صوتی اسکایپ را نیز برای تحلیل به پیمان‌کاران انسانی ارسال می‌کرد. اکنون گاردین گزارش می‌دهد پیمان‌کاران این پروژه‌ی مایکروسافت در چین ساکن بوده‌اند و از داده‌های کاربران نیز به‌خوبی حفاظت نمی‌شده است.

گزارش گاردین براساس ادعاهای یکی از پیمان‌کاران سابق مایکروسافت منتشر شده است. این پیمان‌کار گفته بود در مدت دو سال فعالیت برای ردموندی‌ها، در منزل خود در پکن به محتوای صوتی شامل اطلاعات حساس کاربران گوش می‌کرده است. منبع افشاکننده می‌گوید مایکروسافت آدرس وبی همراه‌با نام کاربری و رمزعبور برای آن‌ها ایمیل می‌کند تا ازطریق آن به دیتابیس فایل‌های صوتی کورتانا و اسکایپ د‌سترسی داشته باشند.

ادعاهایی که پیمان‌کار سابق مایکروسافت مطرح می‌کند، نگرانی‌هایی به‌ویژه برای کاربران آمریکایی ایجاد می‌کند. ردموندی‌ها با پیمان‌کاری مسلط بر زبان انگلیسی در چین قرارداد بسته‌اند تا محتوای صوتی انگلیسی را بشنود و تفسیر کند. چنین رویکردی احتمال ارائه‌کردن داده‌های کاربران را به دولت چین افزایش می‌دهد. به‌علاوه، اطلاعات ورود به دیتابیس نیز ازطریق ایمیل ارسال می‌شود که در ذات خود دربرابر نفوذ آسیب‌پذیر است.

 

درادامه‌ی گزارش گاردین درباره‌ی مایکروسافت و پیمان‌کاران تفسیر داده‌های صوتی، اطلاعات نگران‌کننده‌ی بیشتری دیده می‌شود. ردموندی‌ها از الگویی واحد برای ساختن نام کاربری و رمزعبور ورود به دیتابیس داده‌های صوتی استفاده می‌کرده‌اند. اطلاعات منتشرشده نشان می‌دهد نام‌های کاربری از الگوی ساده‌ای پیروی می‌کرده‌ و پیش‌بینی‌پذیر بوده‌اند. به‌علاوه طبق ادعای منبع افشاکننده، رمزهای عبور برای همه‌ی پیمان‌کارانی یکسان بوده‌اند که در یک سال به تیم پیمان‌کاران می‌پیوسته‌اند. قبلا هم گفته شد پیمان‌کاران اجازه‌ی کار در منزل داشته و درنهایت هیچ نظارت مستقیمی نداشته‌اند.

رویکرد مایکروسافت درباره‌ی پیمان‌کاران و تبادل داده‌ها از چند جنبه خطرناک محسوب می‌شود. از یک طرف، ظاهرا حدس‌زدن نام کاربری و رمزعبور ورود به سیستم‌ها دشوار نیست و از طرف دیگر، احتمال دارد پیمان‌کاران اطلاعات را با افرادی خارج از شرکت به‌اشتراک بگذارند. همچنین، ممکن بود داده‌های صوتی در محلی پخش شوند که فردی بدون همکاری و قرارداد با مایکروسافت آن‌ها را بشنود. درواقع، احتمالات به‌قدری زیاد هستند که نبود گزارش درباره‌ی سوءاستفاده از سیستم مایکروسافت بسیار عجیب به‌‌نظر می‌رسد.

حفظ حریم خصوصی

مایکروسافت در پاسخ به گزارش گاردین، بیانیه‌ی زیر را منتشر کرد:

داده‌های صوتی قطعه‌قطعه‌شده‌ی بدون اطلاعات هویتی درصد کمی از کاربران را بازبینی می‌کنیم تا قابلیت‌های صوتی سیستم‌های خود را بهبود دهیم و برخی اوقات از شرکت‌های همکار برای بازبینی استفاده می‌کنیم. قطعه‌های بازبینی معمولا کمتر از ۱۰ ثانیه هستند و هیچ‌یک از مسئولان بازبینی به فایل‌های طولانی‌تر دسترسی نخواهد داشت. همیشه این رویکرد را برای مشتریان توضیح داده‌ایم و طبق بالاترین استانداردهای حریم خصوصی مانند قانون GDPR اروپا عمل می‌کنیم.

در تابستان گذشته، فرایند بازبینی و ارتباط خود با پیمان‌کاران را بررسی و بازبینی کرده‌ایم؛ درنتیجه، اصول حریم خصوصی خود را بهبود دادیم تا با شفافیت بیشتری درباره‌ی این موضوع عمل کنیم. از آن زمان، فرایندهای بازبینی را به محل‌های امن‌تر در کشورهای معدودی منتقل کردیم. درادامه‌ی همین مسیر، تلاش کرده‌ایم شفاف‌سازی و کنترل بیشتری روی فرایند مدیریت داده‌ها به مشتریان ارائه کنیم.

در بیانیه‌ی مایکروسافت به جابه‌جایی عملیات بازبینی به مناطق امن‌تر جهان اشاره می‌شود که می‌توان آن را قدمی در مسیر بهبود فرایندها دانست. البته مایکروسافت و شرکت‌های دیگر باید درنهایت رویکرد بهتر و امن‌تری را درباره‌ی داده‌های کاربران پیش بگیرند. بسیاری از کاربران نمی‌دانند داده‌ها علاوه‌بر دستیارهای صوتی، احتمالا با نیروی انسانی نیز به‌اشتراک گذاشته می‌شود. درپایان، باید بگوییم شاید گزارش گاردین آخرین حلقه‌ی مفقوده از رویکردهای غلط مایکروسافت نباشد و در آینده، شاهد افشاگری‌های بیشتر و نگران‌کننده‌تری باشیم.

منبع : زومیت

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Blue Captcha Characters Below.