کمیته رکن چهارم – گوگل برنامه جدیدی برای اهدای پاداش به محققانی راهاندازی کرده که آسیبپذیریهای امنیتی مرتبط با سیستمهای هوش مصنوعی این شرکت را کشف میکنند. این برنامه که در راستای تقویت امنیت محصولات هوش مصنوعی گوگل طراحی شده، برای گزارشهای دقیق تا سقف ۳۰ هزار دلار جایزه پرداخت میکند.

به گزارش کمیته رکن چهارم، گوگل با معرفی این برنامه، تلاش میکند راههای سوءاستفاده از قابلیتهای مدلهای زبانی بزرگ یا سیستمهای هوش مصنوعی مولد را شناسایی و مسدود کند. مواردی که مشمول این پاداشها میشوند شامل تزریق پرامپت برای دستکاری عملکرد دستگاههایی مانند Google Home، یا استخراج اطلاعاتی از جیمیل و ارسال آن به حسابهای مهاجم است.
در یکی از مثالهای گزارششده، یک باگ میتوانست از طریق یک رویداد آلوده در Google Calendar، باعث باز شدن پردههای هوشمند و خاموش شدن چراغها شود. هدف این برنامه شناسایی سناریوهایی است که در آن مدلهای هوش مصنوعی ناخواسته اقداماتی خطرناک یا نقضکننده حریم خصوصی انجام میدهند.
تا کنون، گوگل بیش از ۴۳۰ هزار دلار به پژوهشگرانی که آسیبپذیریهای مرتبط با هوش مصنوعی را در محصولات این شرکت گزارش کردهاند، پرداخت کرده است. حداکثر مبلغ پاداش برای کشف آسیبپذیری در محصولات اصلی مانند Gemini، Gmail، Drive و سایر اجزای Workspace برابر با ۲۰ هزار دلار است. اما برای گزارشهای باکیفیتتر، پاداش نهایی میتواند به ۳۰ هزار دلار افزایش یابد.
در مقابل، میزان پاداش برای کشف باگ در محصولات فرعی مانند NotebookLM یا سوءاستفادههایی که در سطوح پایینتر مدل رخ میدهند، بهمراتب کمتر خواهد بود. گوگل تأکید کرده که هدف این برنامه، پیشگیری از سوءاستفادههای احتمالی پیش از وقوع و افزایش شفافیت در توسعه فناوریهای هوش مصنوعی است.
