تشکیل ائتلافی توسط غول‌های هوش مصنوعی برای تمرکز روی ارتقاء امنیت

کمیته رکن چهارم – گوگل، OpenAI، مایکروسافت، آمازون، انویدیا و اینتل از جمله شرکت‌های تشکیل‌دهنده این ائتلاف هستند.

برخی از بزرگ‌ترین شرکت‌های هوش مصنوعی از جمله گوگل، OpenAI، مایکروسافت، آمازون، انویدیا و اینتل در حال همکاری با یکدیگر برای تشکیل ائتلافی برای هوش مصنوعی امن (CoSAI) هستند. هدف این همکاری بررسی «چشم‌انداز تکه‌تکه‌شده امنیت هوش مصنوعی» با فراهم‌کردن دسترسی به روش‌ها، چارچوب‌ها و ابزارهای منبع باز است.

در بیانیه مربوط به معرفی این همکاری، از CoSAI به‌عنوان یک ابتکار منبع باز یاد شده است که هدف آن ارائه راهنمایی و ابزارهای موردنیاز برای ساخت سیستم‌های هوش مصنوعی امن توسط تمام متخصصان و توسعه‌دهندگان است.

CoSAI طیف گسترده و متنوعی از ذینفعان که شامل رهبران صنعت هوش مصنوعی، دانشگاهیان و کارشنان دیگر می‌شود را به‌همراه دارد که روی چشم‌انداز امنیت‌ هوش‌ مصنوعی تمرکز می‌کنند.

حامیان اصلی تاسیس CoSAI شامل شرکت‌هایی از جمله گوگل، IBM، اینتل، مایکروسافت، انویدیا، آمازون، OpenAI و پی‌پل می‌شوند.

در متن این بیانیه نوشته‌شده:

«هوش مصنوعی به‌سرعت در حال تغییر دنیای ما است و پتانسیل بسیار زیادی برای حل مشکلات پیچیده دارد. برای اطمینان از اعتماد به هوش مصنوعی و ایجاد مسئولانه آن‌ها، بسیار مهم است که تکنیک‌هایی را توسعه دهیم و به اشتراک بگذاریم که روی امنیت تمرکز دارند، آسیب‌پذیری‌های احتمالی سیستم‌های هوش مصنوعی را شناسایی و کاهش می‌دهند و منجر به ایجاد سیستم‌هایی می‌شود که طراحی امنی دارند.»

در انتهای مطلب نیز نظر برخی مدیران غول‌های فناوری در مورد این ابتکار پرسیده شده است. «هدر ادکینز»، معاون امنیتی گوگل در حمایت از CoSAI می‌گوید:

«CoSAI به سازمان‌های بزرگ و کوچک کمک می‌کند تا هوش مصنوعی را به طور ایمن و مسئولانه به ابزارهای خود اضافه کنند. به آن‌ها کمک می‌کند تا از مزایای آن استفاده کنند و در عین حال خطرات هوش مصنوعی را کاهش دهند.»

مایکروسافت که ماه گذشته شهادت داده بود امنیت‌ حتی از هوش مصنوعی هم برای آن مهم‌تر خواهد بود، در این بیانیه یک‌بار دیگر به تعهد خود برای تمرکز بر امنیت در بطن فرایند توسعه سیستم‌های هوش مصنوعی اشاره کرده است.

منبع : دیجیاتو

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.