کمیته رکن چهارم – این نرمافزار با نام «Inspect» با هدف تسهیل ارزیابیهای هوش مصنوعی و برای سازمانهای تحقیقاتی و دانشگاهها طراحی شده است.
مؤسسه ایمنی هوش مصنوعی بریتانیا که اخیراً تأسیس شده است، نرمافزاری را با مجموعهای از ابزارهای مختلف برای تقویت ایمنی هوش مصنوعی معرفی کرد. این ابزارها بهمنظور تسهیل ارزیابیهای هوش مصنوعی و برای سازمانهای تحقیقاتی و دانشگاهها طراحی شده است.
براساس بیانیه مطبوعاتی این مؤسسه، این مجموعه ابزار که «Inspect» نامیده میشود تحت مجوز دانشگاه MIT و بهصورت متنباز در دسترس است. هدف این ابزارها نیز ارزیابی قابلیتهای خاص مدلهای هوش مصنوعی مانند دادههای اصلی و توانایی استدلال آنها است.
نرمافزار جدید بریتانیا برای آزمایش ایمنی مدلهای هوش مصنوعی
در بیانیه مطبوعاتی مؤسسه ایمنی بریتانیا ادعا شده که برای اولینبار است که یک پلتفرم آزمایش ایمنی هوش مصنوعی، با حمایت دولتی و برای استفاده گستردهتر منتشر شده است.
بهطورکلی بهدستآوردن معیارهایی برای ارزیابی مدلهای هوش مصنوعی دشوار است؛ چراکه زیرساختها، دادههای آموزشی و سایر جزئیات کلیدی مدلهای پیشرفته هوش مصنوعی توسط شرکتهای توسعهدهنده پنهان نگه داشته میشوند. بنابراین از این لحاظ Inspect با مسائلی روبهرو خواهد بود، البته این نرمافزار سعی دارد با تکنیکهای جدید این مدلها را ارزیابی کند.
نرمافزار Inspect از سه جزء اصلی تشکیل شده است: دادهها، حلکنندهها (Solvers) و امتیازدهندهها (Scorers). بخش دادهها نمونههایی را برای آزمونهای ارزیابی مطرح میکنند. سپس حلکنندهها این آزمونها را انجام میدهند. درنهایت امتیازدهندگان کار حلکنندهها را ارزیابی میکنند.
در فروردین ماه، آمریکا و بریتانیا توافقنامهای برای آزمایش ایمنی هوش مصنوعی پیشرفته امضا کردند. براساس این توافقنامه، هر دو کشور روشها و ابزارهایی برای ارزیابی ایمنی مدلهای هوش مصنوعی ایجاد خواهند کرد. بهعنوان بخشی از این همکاری، ایالاتمتحده نیز قصد دارد مؤسسه ایمنی هوش مصنوعی خود را راهاندازی کند. این مؤسسه عمدتاً مسئولیت ارزیابی خطرات ناشی از هوش مصنوعی را بهعهده خواهد داشت.
منبع : دیجیاتو