کمیته رکن چهارم – یکی از مهندسان امنیتی گوگل با هشدار نسبت به تهدیدهای مرتبط با هوش مصنوعی، چهار عادت کلیدی را برای محافظت از اطلاعات شخصی در هنگام استفاده از ابزارهای مبتنی بر این فناوری معرفی کرده است.

به گزارش کمیته رکن چهارم، هرش وارشنی، مهندس امنیت هوش مصنوعی در شرکت گوگل، با تاکید بر سرعت رشد ابزارهای هوش مصنوعی در زندگی روزمره، کاربران را نسبت به خطرات احتمالی مرتبط با افشای اطلاعات شخصی از طریق این فناوریها هشدار داده و چهار توصیه کاربردی را برای افزایش امنیت دادهها ارائه کرده است.
وارشنی با اشاره به اینکه ابزارهای هوش مصنوعی در زمینههایی نظیر تحقیق، کدنویسی و جستجوی آنلاین بسیار سودمند هستند، میگوید بسیاری از کاربران بهدلیل حس صمیمیت نادرست با این ابزارها، اطلاعاتی را بهاشتراک میگذارند که در شرایط عادی چنین کاری نمیکنند.
بر اساس هشدار او، نخستین نکته مهم این است که کاربران باید با چتباتهای هوش مصنوعی مانند یک “کارت پستال عمومی” برخورد کنند. اطلاعاتی نظیر شماره شناسایی، آدرس، سوابق پزشکی یا اطلاعات مالی، نباید در این ابزارها وارد شود، زیرا خطر نشت دادهها یا استفاده از آنها در آموزش مدلهای آینده وجود دارد.
نکته دوم به تشخیص نوع ابزار مربوط میشود. وارشنی تأکید میکند که کاربران باید بدانند از یک ابزار عمومی استفاده میکنند یا ابزاری با سطح امنیت سازمانی. مدلهای عمومی ممکن است از مکالمات کاربران برای آموزش بهره ببرند، در حالی که نسخههای سازمانی، بهطور معمول این اطلاعات را ذخیره نمیکنند.
او در ادامه به دیگر توصیههای امنیتی نیز اشاره کرده که در بخشهای بعدی این گزارش مورد بررسی قرار خواهند گرفت.
این هشدارها در حالی مطرح میشود که استفاده گسترده و روزافزون از ابزارهای هوش مصنوعی، نگرانیهای عمیقی را در زمینه حفظ حریم خصوصی، مالکیت دادهها و امنیت کاربران به همراه داشته است. کارشناسان امنیتی تأکید دارند که آگاهی کاربران نسبت به نحوه استفاده ایمن از این فناوری، در کنار تنظیمات دقیقتر از سوی شرکتهای ارائهدهنده، میتواند نقش مهمی در کاهش تهدیدات ایفا کند.
