گوگل چگونه برای آموزش مدل‌های هوش مصنوعی اپل و جمینای تراشه می‌سازد؟

کمیته رکن چهارم – گوگل برای آموزش و اجرای چت‌بات جمینای خود به واحدهای پردازش تنسور متکی است.

در داخل آزمایشگاهی در مقر گوگل در مانتین ویو، کالیفرنیا، صدها رک سرور در چندین راهرو درحال فعالیت هستند و وظایفی را انجام می‌دهند که بسیار کمتر از وظایف مرتبط با اجرای موتور جستجوی اصلی جهان است. در عوض این رک سرورها درحال انجام آزمایش‌هایی روی ریزتراشه‌های خود گوگل به نام واحد پردازش تنسور (TPU) هستند.

واحدهای پردازش تنسور گوگل در ابتدا برای مدیریت بار کاری داخلی آموزش دیدند و از سال ۲۰۱۸ برای مشتریان ابری در دسترس هستند. اپل در ماه ژوئیه اعلام کرد که از واحدهای پردازش تنسور برای آموزش مدل‌های AI که پایه و اساس پلتفرم هوش مصنوعی Apple Intelligence هستند، استفاده می‌کند. گوگل همچنین برای آموزش و اجرای چت‌بات جمینای خود به واحدهای پردازش تنسور متکی است.

«دانیل نیومن»، مدیرعامل گروه فیوچروم (Futurum) درباره رقابت انویدیا و گوگل در زمینه آموزش AI این‌چنین گفته است: «در سراسر جهان نوعی باور اساسی وجود دارد که براساس آن همه مدل‌های بزرگ زبان هوش مصنوعی روی انویدیا آموزش داده می‌شوند؛ بدون تردید انویدیا سهم بزرگی از حجم آموزش AI را برعهده دارد؛ اما گوگل هم در این حوزه مسیر خود را انتخاب کرده و از زمان راه‌اندازی تراشه‌های ابری سفارشی گوگل در سال ۲۰۱۵، روی آن‌ها کار کرده است.»

گوگل اولین ارائه‌دهنده خدمات ابری بود که تراشه‌های هوش مصنوعی سفارشی ساخت. سه سال بعد، آمازون وب سرویس اولین تراشه هوش مصنوعی ابری خود، یعنی اینفرنتیا (Inferentia) را معرفی کرد. اولین تراشه هوش مصنوعی سفارشی مایکروسافت یعنی مایا (Maia) تا پایان سال ۲۰۲۳ معرفی نشد.

اما اولین بودن در حوزه تراشه‌های هوش مصنوعی به معنای دستیابی به جایگاه برتر در رقابت کلی هوش مصنوعی مولد نبوده است. گوگل به‌دلیل عرضه محصولات ناموفق با انتقاداتی مواجه شد و به‌دنبال این اتفاق، جمینای بیش از یک سال پس از ChatGPT عرضه شد.

بااین‌حال گوگل کلود به‌دلیل ارائه محصولات خود در حوزه AI شتاب گرفته است. شرکت مادر گوگل یعنی آلفابت گزارش داد که درآمد بخش ابری این شرکت در آخرین سه‌ماهه ۲۹ درصد افزایش یافته و برای اولین بار درآمدهای سه‌ماهه از ۱۰ میلیارد دلار فراتر رفته است.

نیومن در مورد این موضوع این‌چنین گفته است: «عصر ابر هوش مصنوعی به‌طور کامل نحوه دیده شدن شرکت‌ها را تغییر داده و این تمایز سیلیکونی (متمایز بودن در ساخت تراشه‌ها) یا به‌بیان‌ دیگر خود واحد پردازشی ممکن است یکی از بزرگ‌ترین دلایلی باشد که باعث شده گوگل به‌دلیل توانایی‌های هوش مصنوعی خود از جایگاه سومین شرکت ارائه‌دهنده خدمات ابری به سطحی برابر با سطح دو شرکت ابری دیگر و حتی موقعیتی فراتر دست یابد.»

در ماه ژوئیه، CNBC اولین تور ضبط‌شده با دوربین از آزمایشگاه تراشه گوگل را برگزار و با رئیس بخش تراشه‌های ابری سفارشی، «امین وحدت»، مصاحبه کرد. او در زمانی که گوگل برای اولین بار با ایده ساخت تراشه‌ها در سال ۲۰۱۴ سرگرم بود، در این شرکت حضور داشت.

امین وحدت، معاون رئیس بخش یادگیری ماشین، سیستم‌ها و هوش مصنوعی ابری در گوگل، در مصاحبه ‌اش در تور مذکور این‌چنین گفته است: «همه چیز با یک آزمایش فکری ساده اما قدرتمند شروع شد. تعدادی از مدیران شرکت این سؤال را مطرح کردند: اگر کاربران گوگل بخواهند فقط ۳۰ ثانیه در روز از طریق صدا با آن تعامل کنند، چه اتفاقی می‌افتد؟ چقدر قدرت محاسباتی نیاز داریم تا از کاربران خود پشتیبانی کنیم؟»

در آن زمان طبق برآورد کارشناسان، گوگل باید تعداد کامپیوترهای خود در مراکز داده را دو برابر می‌کرد؛ بنابراین آن‌ها به‌دنبال راه‌حلی اساسی برای تأمین قدرت پردازشی مورد نیاز گوگل بودند.

وحدت درباره این موضوع این‌چنین گفته است: «ما متوجه شدیم که می‌توانیم سخت‌افزار سفارشی بسازیم، نه سخت‌افزار عمومی، بلکه سخت‌افزار سفارشی (در این مورد واحدهای پردازش تنسور است) تا از کاربران بسیار بهتر پشتیبانی کنیم؛ درواقع ۱۰۰ برابر کارآمدتر از پشتیبانی در سایر شرایط.»

مراکز داده گوگل هنوز به واحدهای پردازش مرکزی عمومی (CPU) و واحدهای پردازش گرافیکی انویدیا (GPU) متکی هستند. واحدهای پردازش تنسور گوگل نوع دیگری از تراشه به نام مدار مجتمع خاص برنامه (ASIC) محسوب می‌شوند که برای اهداف خاص سفارشی‌سازی شده‌اند. TPU روی هوش مصنوعی متمرکز است. گوگل یک ASIC دیگر متمرکز بر ویدیو به نام واحد کدگذاری ویدئو (VCU) نیز ساخته است.

گوگل همچنین در رویکردی درست مشابه استراتژی سیلیکون سفارشی اپل، تراشه‌های سفارشی برای دستگاه‌های خود می‌سازد، تراشه Tensor G4 نیروی محرکه پیکسل ۹ جدید گوگل با قابلیت هوش مصنوعی و تراشه جدید A1 نیروی محرکه Pixel Buds Pro 2 است.

بااین‌حال، TPU گوگل را متمایز می‌کند؛ این واحد پردازشی اولین واحد پردازشی عرضه‌شده در سال ۲۰۱۵ در نوع خود بود. طبق گزارش گروه فیوچروم، واحدهای پردازش تنسور با ۵۸ درصد سهم بازار، هنوز هم در میان شتاب‌دهنده‌های ابری سفارشی هوش مصنوعی، بیشترین سهم را به خود اختصاص داده‌اند.

گوگل اصطلاح واحد پردازشی تنسور را براساس اصطلاح جبری «تنسور» ابداع کرده که به ضرب ماتریس‌های بزرگ‌مقیاس که برای اپلیکیشن‌های هوش مصنوعی پیشرفته سریع اتفاق می‌افتد، اشاره دارد.

با عرضه دومین TPU در سال ۲۰۱۸، گوگل تمرکز را از استنتاج به سمت آموزش مدل‌های هوش مصنوعی سوق داد.

«استیسی راسگون»، تحلیلگر ارشد نیمه‌هادی‌ها در «برنستین ریسرچ» در مورد این موضوع این‌چنین گفت: «پردازنده‌های گرافیکی برنامه‌پذیرتر و انعطاف‌پذیرتر هستند؛ اما عرضه آن‌ها محدود بوده است.»

شکوفایی هوش مصنوعی باعث شده ارزش سهام انویدیا به‌شدت افزایش یابد. ارزش بازار این شرکت در ماه ژوئن به ۳ تریلیون دلار رسید که از ارزش بازار آلفابت بیشتر بود. این درحالی است که گوگل برای کسب جایگاه ارزشمندترین شرکت جهان، با اپل و مایکروسافت رقابت می‌کرد.

نیومن در مورد این موضوع این‌چنین گفته است: «اگر بخواهیم صادق باشیم، باید بگوییم این شتاب‌دهنده‌های تخصصی هوش مصنوعی به‌اندازه پلتفرم انویدیا انعطاف‌پذیر یا قدرتمند نیستند و این همان چیزی است که بازار نیز منتظر دیدن آن است: آیا کسی می‌تواند در این فضا رقابت کند؟»

اکنون که می‌دانیم اپل از واحدهای پردازش تنسور گوگل برای آموزش مدل‌های هوش مصنوعی خود استفاده می‌کند، باید بگوییم آزمون واقعی زمانی خواهد بود که ویژگی‌های هوش مصنوعی مذکور در سال آینده به‌طور کامل روی دستگاه‌های آیفون و مک عرضه شوند.

همکاری گوگل با برادکام و TSMC

توسعه جایگزین‌های مناسب برای موتورهای هوش مصنوعی انویدیا کار آسانی نیست. نسل ششم TPU گوگل، به نام تریلیوم (Trillium)، قرار است اواخر امسال عرضه شود.

راسگون در مورد این موضوع این‌چنین گفت:

«توسعه جایگزین‌های مناسب برای موتورهای AI هزینه‌بر و دشوار است؛ این کاری نیست که همه بتوانند انجام دهند؛ اما این مراکز داده بزرگ، توانایی‌ها، پول و منابع لازم برای رفتن به این مسیر را دارند.»

این فرآیند آن‌قدر پیچیده و پرهزینه است که حتی مراکز داده‌های بزرگ نمی‌توانند به‌تنهایی آن را انجام دهند. گوگل از زمان عرضه اولین TPU، با برادکام (Broadcom)، یک توسعه‌دهنده تراشه که به متا هم در طراحی تراشه‌های AI کمک می‌کند، همکاری کرده است. برداکام ادعا می‌کند برای انجام این همکاری‌ها بیش از ۳ میلیارد دلار هزینه کرده است.

راسگون در مورد این موضوع این‌چنین گفته است:

«برادکام تمام کارهای جانبی را انجام می‌دهد. این شرکت وظایف مربوط به دریافت ورودی‌ها و ارائه خروجی‌ها، وظایف مدارهای فرستنده-گیرنده که داده‌های موازی را به داده‌های سریال و بالعکس تبدیل می‌کند و سایر فعالیت‌های محاسباتی را انجام می‌دهد. برادکام کارهای مربوط به ایجاد محافظ برای مدار را نیز برعهده دارد.»

در مرحله بعدی، طراحی نهایی برای تولید به کارخانه‌ها ارسال می‌شود؛ این کارخانه‌ها متعلق به بزرگ‌ترین شرکت تولیدکننده تراشه‌های جهان، یعنی TSMC هستند که ۹۲ درصد از پیشرفته‌ترین قطعات نیمه‌هادی جهان را تولید می‌کند.

وقتی از وحدت پرسیده شد که آیا گوگل تدابیری برای محافظت در برابر بدترین اتفاقات در حوزه ژئوپلیتیک بین چین و تایوان اندیشه است یا نه، او گفت: «قطعاً برای چنین اتفاقاتی آماده شده‌ایم و به آن فکر می‌کنیم، اما امیدواریم نیازی به اقدام در این راستا نباشد.»

محافظت در برابر این خطرات، دلیل اصلی تخصیص مبلغ ۵۲ میلیارد دلار از بودجه قانون علم و تراشه (CHIPS Act) به شرکت‌های سازنده کارخانه‌های تولید تراشه در آمریکا از سوی کاخ سفید است. تا به امروز اینتل، TSMC و سامسونگ، بیشترین بودجه‌ها را دریافت کرده‌اند.

آیا گوگل در کارش موفق خواهد شد؟

گوگل فارغ از وجود تمام ریسک‌ها حرکت بزرگ دیگری درزمینه تراشه‌ها انجام داده و اعلام کرده است که اولین پردازنده این شرکت برای کاربردهای عمومی به نام آکسیون (Axion) تا پایان سال در دسترس خواهد بود.

گوگل دیر وارد رقابت CPU شده است. آمازون پردازنده گراویتون (Graviton) خود را در سال ۲۰۱۸ و علی‌بابا تراشه سرور خود را در سال ۲۰۲۱ عرضه کرد. مایکروسافت نیز در نوامبر CPU خود را معرفی کرد.

وقتی از وحدت پرسیده شد که چرا گوگل برای ساخت CPU زودتر دست‌به‌کار نشده، در پاسخ این چنین گفت:

«تمرکز ما بر حوزه‌ای بوده است که می‌توانیم بیشترین ارزش را برای مشتریان خود ارائه دهیم و کارمان را با TPU، واحدهای کدگذاری ویدیو و شبکه‌های شروع کرده‌ایم. پس از عرضه این سخت‌افزارها معتقد بودیم که زمان عرضه پردازنده فرا رسیده است.»

ساخت تمام این پردازنده‌ها از شرکت‌های غیرتراشه‌ساز، ازجمله گوگل، با استفاده از معماری تراشه ARM امکان‌پذیر شده است؛ معماری مذکور، جایگزینی با امکان سفارشی‌سازی بیشتر و کارآمدتر از نظر انرژی محسوب می‌شود که در جلب‌توجه نسبت به معماری سنتی x86 مورداستفاده توسط اینتل و AMD موفق‌تر بوده است. بهره‌وری انرژی بسیار مهم است؛ زیرا پیش‌بینی می‌شود تا سال ۲۰۲۷ سرورهای هوش مصنوعی هر سال به‌اندازه کشوری مانند آرژانتین برق مصرف کنند. گزارش محیط زیستی اخیر گوگل نشان داد که انتشار گازهای گلخانه‌ای از سال ۲۰۱۹ تا ۲۰۲۳ تقریباً ۵۰ درصد افزایش یافته که بخشی از آن به دلیل رشد مراکز داده برای تأمین انرژی AI بوده است.

چنانچه تراشه‌های طراحی‌شده برای استفاده از هوش مصنوع کم‌مصرف نبودند؛ اعداد مذکور مرتبط با آسیب‌های زیست‌محیطی، بسیار بیشتر از میزان‌های ذکرشده بود؛ وحدت در مورد این موضوع این‌چنین گفته است:

«ما شبانه‌روز برای کاهش انتشار کربن ناشی از فعالیت‌های زیرساخت‌های خود تلاش می‌کنیم و درحال به صفر رساندن انتشار آن‌ هستیم.»

خنک کردن سرورهای آموزش‌دهنده و اجراکننده AI نیازمند مقدار زیادی آب است. به همین دلیل، نسل سوم TPU گوگل شروع به استفاده از سیستم خنک‌کننده مستقیم به تراشه (direct-to-chip cooling) کرده است که آب کمتری مصرف می‌کند. این روش که در آن مایع خنک‌کننده مستقیماً در اطراف پلیت تراشه حرکت می‌کند، روشی است که انویدیا برای خنک کردن پردازنده‌های گرافیکی Blackwell استفاده می‌کند.

گوگل با وجود چالش‌های فراوان، از ژئوپلیتیک گرفته تا برق و آب، همچنان به ارائه ابزارهای هوش مصنوعی مولد و ساخت تراشه‌های خود متعهد است

وحدت درباره این موضوع این‌چنین گفته است: «من هرگز نظیر عزم راسخ گوگل را ندیدم و سرعت حرکت این شرکت هرگز کند نشده و قرار است سخت‌افزار نقش بسیار مهمی در این زمینه ایفا کند.»

منبع : دیجیاتو

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.