کارشناس گوگل: هر پیامی به هوش مصنوعی می‌دهید ممکن است ثبت شود

کمیته رکن چهارم – یکی از مهندسان امنیتی گوگل با هشدار نسبت به تهدیدهای مرتبط با هوش مصنوعی، چهار عادت کلیدی را برای محافظت از اطلاعات شخصی در هنگام استفاده از ابزارهای مبتنی بر این فناوری معرفی کرده است.

به گزارش کمیته رکن چهارم، هرش وارشنی، مهندس امنیت هوش مصنوعی در شرکت گوگل، با تاکید بر سرعت رشد ابزارهای هوش مصنوعی در زندگی روزمره، کاربران را نسبت به خطرات احتمالی مرتبط با افشای اطلاعات شخصی از طریق این فناوری‌ها هشدار داده و چهار توصیه کاربردی را برای افزایش امنیت داده‌ها ارائه کرده است.

وارشنی با اشاره به اینکه ابزارهای هوش مصنوعی در زمینه‌هایی نظیر تحقیق، کدنویسی و جستجوی آنلاین بسیار سودمند هستند، می‌گوید بسیاری از کاربران به‌دلیل حس صمیمیت نادرست با این ابزارها، اطلاعاتی را به‌اشتراک می‌گذارند که در شرایط عادی چنین کاری نمی‌کنند.

بر اساس هشدار او، نخستین نکته مهم این است که کاربران باید با چت‌بات‌های هوش مصنوعی مانند یک “کارت پستال عمومی” برخورد کنند. اطلاعاتی نظیر شماره شناسایی، آدرس، سوابق پزشکی یا اطلاعات مالی، نباید در این ابزارها وارد شود، زیرا خطر نشت داده‌ها یا استفاده از آن‌ها در آموزش مدل‌های آینده وجود دارد.

نکته دوم به تشخیص نوع ابزار مربوط می‌شود. وارشنی تأکید می‌کند که کاربران باید بدانند از یک ابزار عمومی استفاده می‌کنند یا ابزاری با سطح امنیت سازمانی. مدل‌های عمومی ممکن است از مکالمات کاربران برای آموزش بهره ببرند، در حالی که نسخه‌های سازمانی، به‌طور معمول این اطلاعات را ذخیره نمی‌کنند.

او در ادامه به دیگر توصیه‌های امنیتی نیز اشاره کرده که در بخش‌های بعدی این گزارش مورد بررسی قرار خواهند گرفت.

این هشدارها در حالی مطرح می‌شود که استفاده گسترده و روزافزون از ابزارهای هوش مصنوعی، نگرانی‌های عمیقی را در زمینه حفظ حریم خصوصی، مالکیت داده‌ها و امنیت کاربران به همراه داشته است. کارشناسان امنیتی تأکید دارند که آگاهی کاربران نسبت به نحوه استفاده ایمن از این فناوری، در کنار تنظیمات دقیق‌تر از سوی شرکت‌های ارائه‌دهنده، می‌تواند نقش مهمی در کاهش تهدیدات ایفا کند.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Green Captcha Characters Below.