تراشه جدید Ironwood Google 24 برابر قدرتمندتر از سریعترین رایانه جهان است
تراشه جدید Ironwood Google 24 برابر قدرتمندتر از سریعترین رایانه جهان است

تراشه جدید Ironwood Google 24 برابر قدرتمندتر از سریعترین رایانه جهان است

به گزارش سرویس تازه های دنیای فناوری وبسایت اخبار تکنولوژی تک فاکس،

برای آخرین به روزرسانی ها و مطالب اختصاصی در مورد پوشش هوش مصنوعی پیشرو در صنعت ، به خبرنامه های روزانه و هفتگی ما بپیوندید. بیشتر بدانید


Google Cloud در روز چهارشنبه از واحد پردازش تانسور نسل هفتم خود (TPU) به نام Ironwood رونمایی کرد ، یک شتاب دهنده هوش مصنوعی سفارشی که این شرکت ادعا می کند بیش از 24 برابر قدرت محاسبات سریعترین ابر رایانه جهان را هنگام اعزام در مقیاس ارائه می دهد.

تراشه جدید ، که در Google Cloud Next '25 اعلام شد ، نشان دهنده یک محوری قابل توجه در استراتژی توسعه تراشه AI دهه Google است. در حالی که نسل های قبلی TPU ها در درجه اول برای هر دو کار آموزش و استنباط طراحی شده اند ، Ironwood اولین هدف ساخته شده به طور خاص برای استنباط است-روند استقرار مدل های آموزش دیده AI برای پیش بینی یا تولید پاسخ.

امین ودات ، معاون رئیس جمهور و مدیر کل ML ، سیستم ها و Cloud AI ، در یک کنفرانس مطبوعاتی مجازی پیش از این رویداد گفت: “Ironwood برای پشتیبانی از این مرحله بعدی AI تولیدی و الزامات عظیم محاسباتی و ارتباطی آن ساخته شده است.” “این همان چیزی است که ما آن را” عصر استنباط “می نامیم که در آن عوامل هوش مصنوعی به طور پیشگیرانه داده ها را بازیابی و تولید می کنند تا به طور مشترک بینش و پاسخ ها را ارائه دهند ، نه فقط داده.”

خرد کردن موانع محاسباتی: در داخل 42.5 اگزاتلوپس از عضله AI Ironwood

مشخصات فنی چوب آهنی قابل توجه است. هنگامی که به 9،216 تراشه در هر غلاف تقسیم می شود ، Ironwood 42.5 اگزلاف قدرت محاسباتی را ارائه می دهد – کوتوله 1.7 اگزلاف ، در حال حاضر سریعترین ابر رایانه در جهان. هر تراشه چوب آهنی جداگانه محاسبات اوج 4،614 teraflops را ارائه می دهد.

Ironwood همچنین دارای حافظه و پیشرفت های پهنای باند قابل توجهی است. TPU نسل قبلی Google سال گذشته اعلام کرد ، هر تراشه دارای 192 گیگابایت حافظه پهنای باند بالا (HBM) ، شش برابر بیشتر از تریلیوم است. پهنای باند حافظه در هر تراشه به 7.2 ترابایت در ثانیه می رسد که پیشرفت 4.5x نسبت به تریلیوم است.

شاید از همه مهمتر در دوره ای از مراکز داده محدود شده با انرژی ، Ironwood دو برابر عملکرد در هر وات را در مقایسه با تریلیوم ارائه می دهد و تقریباً 30 برابر با انرژی بیشتری نسبت به اولین Cloud TPU Google از سال 2018 دارد.

Vahdat توضیح داد: “در زمانی که قدرت در دسترس یکی از محدودیت های ارائه قابلیت های هوش مصنوعی است ، ما ظرفیت بیشتری را برای هر وات برای بار کاری مشتری ارائه می دهیم.”

از ساخت مدل گرفته تا “ماشین های تفکر”: چرا تمرکز استنتاج Google اکنون اهمیت دارد

تأکید بر استنتاج به جای آموزش ، نقطه تورم قابل توجهی در جدول زمانی هوش مصنوعی است. سالهاست که این صنعت در ساخت مدلهای بنیادی به طور فزاینده ای تثبیت شده است ، و شرکت ها در درجه اول با اندازه پارامتر و قابلیت های آموزش رقابت می کنند. محوری Google به بهینه سازی استنتاج نشان می دهد که ما وارد مرحله جدیدی می شویم که در آن کارایی استقرار و قابلیت های استدلال در مرحله مرکزی قرار می گیرد.

این انتقال معنی دارد. آموزش یک بار اتفاق می افتد ، اما عملیات استنباط روزانه میلیارد ها بار اتفاق می افتد زیرا کاربران با سیستم های AI تعامل دارند. اقتصاد هوش مصنوعی به طور فزاینده ای با هزینه های استنباط گره خورده است ، به خصوص که مدل ها پیچیده تر و محاسباتی فشرده تر می شوند.

در طول کنفرانس مطبوعاتی ، Vahdat فاش کرد که گوگل افزایش 10 برابر سال در سال تقاضا برای محاسبات هوش مصنوعی را طی 8 سال گذشته مشاهده کرده است-یک عامل حیرت انگیز 100 میلیون در کل. هیچ مقدار از پیشرفت قانون مور نمی تواند این منحنی رشد را بدون معماری های تخصصی مانند Ironwood برآورده کند.

آنچه که به ویژه قابل توجه است ، تمرکز بر “مدل های تفکر” است که به جای تشخیص الگوی ساده ، وظایف استدلال پیچیده ای را انجام می دهند. این نشان می دهد Google آینده AI را نه تنها در مدل های بزرگتر ، بلکه در مدلهایی که می توانند مشکلات را تجزیه کنند ، از طریق چندین مرحله و در اصل فرآیندهای فکری مانند انسان را شبیه سازی می کنند.

موتور تفکر جمینی: چگونه مدل های نسل بعدی گوگل از سخت افزار پیشرفته استفاده می کنند

Google Ironwood را به عنوان پایه و اساس پیشرفته ترین مدلهای هوش مصنوعی خود ، از جمله Gemini 2.5 ، که این شرکت توصیف می کند “قابلیت های تفکر بومی را در آن ساخته شده است” قرار می دهد.

در این کنفرانس ، گوگل همچنین Gemini 2.5 Flash را اعلام کرد ، نسخه ای مقرون به صرفه تر از مدل پرچمدار خود که “عمق استدلال را بر اساس پیچیدگی سریع تنظیم می کند.” در حالی که Gemini 2.5 Pro برای موارد استفاده پیچیده مانند کشف مواد مخدر و مدل سازی مالی طراحی شده است ، Flash Gemini 2.5 برای برنامه های روزمره که در آن پاسخگویی بسیار مهم است قرار می گیرد.

این شرکت همچنین مجموعه کاملی از مدلهای رسانه ای تولیدی ، از جمله متن به تصویر ، متن به فیلم و یک قابلیت متن به موسیقی تازه به نام Lydria را نشان داد. یک تظاهرات نشان داد که چگونه می توان از این ابزارها برای ایجاد یک فیلم تبلیغاتی کامل برای یک کنسرت استفاده کرد.

فراتر از سیلیکون: استراتژی جامع زیرساخت های گوگل شامل شبکه و نرم افزار است

Ironwood تنها بخشی از استراتژی زیرساخت گسترده تر هوش مصنوعی Google است. این شرکت همچنین Cloud WAN ، یک سرویس شبکه گسترده در منطقه گسترده را اعلام کرد که به مشاغل دسترسی به زیرساخت های شبکه خصوصی در مقیاس Google در Google می دهد.

Vahdat گفت: “Cloud WAN یک ستون فقرات کاملاً مدیریت شده ، قابل دوام و ایمن است که حداکثر 40 ٪ عملکرد شبکه را بهبود می بخشد ، در عین حال هزینه کل مالکیت را با همان 40 ٪ کاهش می دهد.”

Google همچنین در حال گسترش پیشنهادات نرم افزاری خود برای بار کاری AI ، از جمله Pathways ، یادگیری ماشین آن زمان اجرا شده توسط Google DeepMind است. مسیرهای موجود در Google Cloud به مشتریان این امکان را می دهد تا مدل را که در صدها TPU ها خدمت می کنند ، مقیاس کنند.

اقتصاد هوش مصنوعی: چگونه برنامه ابر 12 میلیارد دلاری Google برای پیروزی در جنگ کارآیی قصد دارد

این اعلامیه های سخت افزاری و نرم افزاری در زمان بسیار مهمی برای Google Cloud آمده است ، که در آخرین گزارش درآمدی خود ، 12 میلیارد دلار درآمد Q4 2024 را که نسبت به سال گذشته نسبت به سال گذشته افزایش یافته است ، گزارش کرده است.

اقتصاد استقرار هوش مصنوعی به طور فزاینده ای به یک عامل متمایز در جنگ های ابری تبدیل می شود. Google با رقابت شدید Microsoft Azure روبرو است ، که مشارکت OpenAI خود را در یک موقعیت عالی بازار و سرویس های وب آمازون قرار داده است ، که همچنان به گسترش قطار و ارائه خدمات تراشه خود ادامه می دهد.

آنچه رویکرد گوگل را از هم جدا می کند ، ادغام عمودی آن است. در حالی که رقبا با تولید کنندگان تراشه یا استارتاپ های خریداری شده همکاری می کنند ، Google بیش از یک دهه است که TPU ها را در خانه توسعه می دهد. این امر به این شرکت کنترل بی نظیری بر پشته هوش مصنوعی خود ، از سیلیکون گرفته تا نرم افزار گرفته تا خدمات می دهد.

Google با آوردن این فناوری به مشتریان سازمانی شرط بندی می کند که تراشه های ساخت و ساز سخت و برنده خود را برای جستجو ، Gmail و YouTube به مزایای رقابتی در بازار شرکت تبدیل می کند. این استراتژی واضح است: همان زیرساخت هایی را ارائه دهید که هوش مصنوعی خود را در مقیاس ، در مقیاس ، به هر کسی که مایل به پرداخت هزینه آن باشد ، ارائه دهید.

اکوسیستم چند عامل: برنامه جسورانه گوگل برای سیستم های هوش مصنوعی که با هم کار می کنند

فراتر از سخت افزار ، گوگل چشم انداز AI را با محوریت سیستم های چند عامل بیان کرد. این شرکت یک کیت توسعه عامل (ADK) را اعلام کرد که به توسعه دهندگان اجازه می دهد سیستمهایی را بسازند که چندین عامل هوش مصنوعی بتوانند با هم کار کنند.

شاید از همه مهمتر ، گوگل “پروتکل قابلیت همکاری عامل به عامل” (A2A) را اعلام کرد که نمایندگان هوش مصنوعی ساخته شده در چارچوب های مختلف و فروشندگان مختلف را قادر می سازد تا با یکدیگر ارتباط برقرار کنند.

Vahdat پیش بینی کرد: “2025 یک سال انتقال خواهد بود که AI تولید کننده از پاسخ دادن به سؤالات مجرد به حل مشکلات پیچیده از طریق سیستم های عامل تغییر می کند.”

Google برای پیشبرد این استاندارد قابلیت همکاری با بیش از 50 رهبر صنعت ، از جمله Salesforce ، ServiceNow و SAP همکاری می کند.

بررسی واقعیت شرکت: قدرت و کارآیی Ironwood برای استراتژی هوش مصنوعی شما چه معنی دارد

برای شرکت هایی که AI را مستقر می کنند ، این اطلاعیه ها می توانند به میزان قابل توجهی هزینه و پیچیدگی اجرای مدل های پیشرفته AI را کاهش دهند. راندمان بهبود یافته Ironwood می تواند در حال اجرا مدلهای استدلال پیشرفته اقتصادی تر شود ، در حالی که پروتکل قابلیت همکاری عامل می تواند به مشاغل کمک کند تا از قفل شدن فروشنده جلوگیری کنند.

تأثیر دنیای واقعی این پیشرفت ها نباید دست کم گرفته شود. بسیاری از سازمان ها به دلیل هزینه های مضر زیرساخت ها و مصرف انرژی تمایلی به استقرار مدل های پیشرفته هوش مصنوعی ندارند. اگر Google بتواند وعده های عملکرد خود را در هر وات ارائه دهد ، ما می توانیم موج جدیدی از تصویب هوش مصنوعی در صنایع را ببینیم که تاکنون در حاشیه باقی مانده است.

رویکرد چند عامل برای شرکتهایی که از پیچیدگی استقرار AI در سیستم ها و فروشندگان مختلف غرق شده اند ، به همان اندازه قابل توجه است. Google با استاندارد سازی نحوه برقراری ارتباط سیستم های هوش مصنوعی ، در تلاش است تا سیلوهایی را که تأثیر شرکت AI را محدود کرده اند ، تجزیه کند.

در طول کنفرانس مطبوعاتی ، گوگل تأکید کرد که بیش از 400 داستان مشتری در '25 بعدی به اشتراک گذاشته می شود و تأثیر واقعی تجارت را از نوآوری های هوش مصنوعی خود به نمایش می گذارد.

مسابقه تسلیحات سیلیکون: آیا تراشه های سفارشی Google و استانداردهای باز آینده AI را تغییر می دهند؟

با ادامه پیشرفت AI ، زیرساخت های آن به طور فزاینده ای بسیار مهم می شوند. سرمایه گذاری های Google در سخت افزار تخصصی مانند Ironwood ، همراه با ابتکارات قابلیت همکاری عامل خود ، نشان می دهد که این شرکت در حال قرار دادن خود برای آینده ای است که هوش مصنوعی بیشتر توزیع شود ، پیچیده تر و عمیق تر در عملیات تجاری ادغام شود.

وهدات خاطرنشان كرد: “مدل های اصلی تفكر مانند Gemini 2.5 و برنده جایزه نوبل Alphafold همه در TPU ها امروز اجرا می شوند.” “با Ironwood نمی توانیم صبر کنیم تا ببینیم که پیشرفت های AI توسط توسعه دهندگان خودمان و مشتریان Google Cloud در هنگام دسترسی در اواخر سال جاری برانگیخته شده است.”

پیامدهای استراتژیک فراتر از تجارت خود Google است. Google با فشار دادن به استانداردهای باز در ارتباطات عامل ضمن حفظ مزایای اختصاصی در سخت افزار ، اقدام به یک عمل متعادل کننده ظریف می کند. این شرکت می خواهد اکوسیستم گسترده تر شکوفا شود (با زیرساخت های Google در زیر آن) ، در حالی که هنوز هم تمایز رقابتی را حفظ می کند.

چقدر به سرعت رقبا به پیشرفت های سخت افزار Google پاسخ می دهد و اینکه آیا این صنعت در مورد استانداردهای قابلیت تعامل عامل پیشنهادی هماهنگی می کند ، عوامل اصلی برای تماشای ماه های آینده خواهد بود. اگر تاریخچه راهنما باشد ، می توانیم انتظار داشته باشیم که مایکروسافت و آمازون با استراتژی های بهینه سازی استنتاج خود مقابله کنند ، به طور بالقوه یک مسابقه سه طرفه را برای ساختن کارآمدترین پشته زیرساخت هوش مصنوعی تنظیم می کنند.