گوگل چند مدل هوش مصنوعی «متن‌باز» جدید با تمرکز بر ایمنی معرفی کرد

کمیته رکن چهارم – این مدل‌ها به خانواده هوش مصنوعی Gemma 2 اضافه شده‌اند و برای کاربردهای متفاوتی طراحی شده‌اند.

گوگل سه مدل هوش مصنوعی جدید و «متن‌باز» منتشر کرده و در ادعایی جسورانه، آن‌ها را «ایمن‌تر»، «کوچک‌تر» و «شفاف‌تر» توصیف کرده است.

این مدل‌ها به خانواده هوش مصنوعی Gemma 2 اضافه شده‌اند. مدل‌های جدید گوگل که Gemma 2 2B ،ShieldGemma و Gemma Scope نام دارند، هرچند برای کاربردهای متفاوتی طراحی شده‌اند اما از نظر ایمنی قابلیت‌های مشترکی دارند.

سری مدل‌های Gemma گوگل با مدل‌های Gemini آن تفاوت دارند، زیرا گوگل کد منبع مدل‌های هوش مصنوعی سری جمینای که در محصولات غول فناوری استفاده می‌شوند و همچنین در دسترس توسعه‌دهندگان قرار می‌گیرند را در دسترس قرار نمی‌دهد. در عوض، گوگل با Gemma تلاش دارد تا حسن نیت خود نسبت به جامعه توسعه‌دهندگان را نشان دهد، درست مانند کاری که متا با مدل Llama خود در تلاش است.

Gemma 2 2B یک مدل هوش مصنوعی سبک برای تولید متن تحلیلی است که می‌تواند روی طیف وسیعی از سخت‌افزار مانند لپ‌تاپ‌ها اجرا شود. این مدل مجوز مربوط به برنامه‌های تحقیقاتی و تجاری را نیز در اختیار دارد و می‌توان از منابعی مانند Vertex AI گوگل، پلتفرم علمی Kaggle و جعبه ابزار AI Studio Google به آن دسترسی داشت.

ShieldGemma نیز دارای مجموعه‌ای از «دسته‌بندی ایمنی» می‌شود و تلاش دارد تا سمیت‌هایی مانند گفتار نفرت آمیز، آزار‌و‌اذیت و محتوای جنسی را تشخیص دهد. ShieldGemma که براساس Gemma 2 ساخته شده است، می‌تواند به‌منظور فیلترکردن درخواست‌های یک مدل تولیدی و همچنین محتوایی که مدل تولید می‌کند، استفاده شود.

در نهایت، Gemma Scope به‌ توسعه‌دهندگان اجازه می‌دهد تا در مدل Gemma 2 روی نقاط خاصی تمرکز کنند و عملکرد درونی آن را قابل تفسیرتر می‌کند. گوگل در پست وبلاگ خود درباره Gemma Scope می‌گوید که این مدل از شبکه‌های عصبی تخصصی تشکیل شده است که به ما کمک می‌کنند اطلاعات متراکم و پیچیده پردازش‌شده توسط Gemma 2 را واکاوی کرد و آن‌ها را به شکلی توسعه داد که ساده‌تر تجزیه‌و‌تحلیل شوند.

منبع : دیجیاتو

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Green Captcha Characters Below.