از MIP ها گرفته تا اگزاتلوپس در دهه ها: قدرت محاسبه در حال انفجار است و AI را تغییر می دهد
DEC System 10; Source: By Joe Mabel, CC BY-SA 3.0.

از MIP ها گرفته تا اگزاتلوپس در دهه ها: قدرت محاسبه در حال انفجار است و AI را تغییر می دهد

به گزارش سرویس تازه های دنیای فناوری وبسایت اخبار تکنولوژی تک فاکس،

برای آخرین به روزرسانی ها و مطالب اختصاصی در مورد پوشش هوش مصنوعی پیشرو در صنعت ، به خبرنامه های روزانه و هفتگی ما بپیوندید. بیشتر بدانید


در کنفرانس اخیر NVIDIA GTC ، این شرکت از آنچه که آن را به عنوان اولین سیستم تک رگ از سرورهای قادر به یک اگزلوپ-یک میلیارد میلیارد میلیارد یا یک عملیات کوئینز ، نقطه شناور (FLOPS) در هر ثانیه توصیف کرد ، پرده برداشت. این موفقیت بر اساس آخرین سیستم GB200 NVL72 است که شامل آخرین واحدهای پردازش گرافیکی Blackwell NVIDIA (GPU) است. یک قفسه رایانه استاندارد حدود 6 فوت قد ، کمی بیشتر از 3 فوت عمق و کمتر از 2 فوت عرض دارد.

کوچک کردن یک اگزلوپ: از مرز تا بلکول

چند مورد در مورد اعلامیه من را تحت تأثیر قرار داد. اول ، اولین رایانه با قابلیت Exaflop در جهان فقط چند سال پیش ، در سال 2022 ، در آزمایشگاه ملی اوک ریج نصب شد. برای مقایسه ، ابر رایانه “مرزی” ساخته شده توسط HPE و با استفاده از GPU های AMD و CPU ها ، در ابتدا از 74 قفسه سرور تشکیل شده است. سیستم جدید NVIDIA تقریباً در سه سال تقریباً 73 برابر تراکم عملکرد بیشتر به دست آورده است ، معادل سه برابر عملکرد هر سال. این پیشرفت نشان دهنده پیشرفت چشمگیر در محاسبات چگالی ، بهره وری انرژی و طراحی معماری است.

ثانیا ، باید گفت که در حالی که هر دو سیستم به نقطه عطف Exascale برخورد می کنند ، آنها برای چالش های مختلف ساخته شده اند ، یکی بهینه شده برای سرعت ، دیگری برای دقت. مشخصات exaflop NVIDIA مبتنی بر ریاضیات با دقت پایین-به طور خاص عملیات 4 بیتی و 8 بیتی شناور است-برای بار کاری هوش مصنوعی از جمله کارهایی مانند آموزش و اجرای مدل های بزرگ زبان (LLM) بهینه در نظر گرفته می شود. این محاسبات سرعت را بیش از دقت در اولویت قرار می دهد. در مقابل ، امتیاز اگزافی برای مرز با استفاده از ریاضی دوتایی 64 بیتی ، استاندارد طلا برای شبیه سازی های علمی که در آن دقت بسیار مهم است ، بدست آمد.

ما مسیری طولانی (خیلی سریع)

این سطح پیشرفت تقریباً باورنکردنی به نظر می رسد ، به خصوص که وقتی کار خود را در صنعت محاسبات شروع کردم ، پیشرفته را به یاد می آورم. اولین کار حرفه ای من به عنوان یک برنامه نویس در DEC KL 1090 بود. این دستگاه ، بخشی از سری PDP-10 DEC از Timeshare Mainframes ، 1.8 میلیون دستورالعمل در ثانیه (MIPS) ارائه داد. گذشته از عملکرد CPU ، دستگاه متصل به لوله اشعه کاتدی (CRT) از طریق کابل های سخت نمایش داده می شود. هیچ قابلیت گرافیکی وجود نداشت ، فقط متن سبک را در پس زمینه تاریک. و البته ، اینترنت نیست. کاربران از راه دور با استفاده از مودم هایی که با سرعت حداکثر 1200 بیت در ثانیه کار می کنند ، از طریق خطوط تلفن متصل می شوند.

سیستم 10 دسامبر ؛ منبع: توسط جو مابل ، CC BY-SA 3.0.

500 میلیارد بار محاسبه بیشتر

در حالی که مقایسه MIP ها با Flops احساس کلی پیشرفت می کند ، مهم است که به یاد داشته باشید که این معیارها بارهای مختلف محاسبات را اندازه گیری می کنند. MIPS سرعت پردازش عدد صحیح را منعکس می کند ، که برای محاسبات با هدف عمومی ، به ویژه در برنامه های تجاری مفید است. FLOPS عملکرد نقطه شناور را اندازه گیری می کند که برای بارهای کاری علمی و تعداد سنگین در پشت AI مدرن ، مانند ریاضی ماتریس و جبر خطی که برای آموزش و اجرای مدل های یادگیری ماشین (ML) استفاده می شود ، بسیار مهم است.

در حالی که یک مقایسه مستقیم نیست ، مقیاس کامل تفاوت بین MIPS در آن زمان و FLOPS اکنون تصویر قدرتمندی از رشد سریع در عملکرد محاسبات را ارائه می دهد. با استفاده از اینها به عنوان یک اکتشافی خشن برای اندازه گیری کار انجام شده ، سیستم جدید NVIDIA تقریباً 500 میلیارد برابر بیشتر از دستگاه DEC است. این نوع جهش ، رشد نمایی قدرت محاسبات را در یک حرفه حرفه ای واحد نشان می دهد و این سؤال را ایجاد می کند: اگر این پیشرفت بسیار در 40 سال امکان پذیر باشد ، 5 آینده چه چیزی ممکن است باشد؟

نویدیا ، از طرف خود ، سرنخ هایی را ارائه داده است. در GTC ، این شرکت نقشه راه را به اشتراک گذاشت و پیش بینی کرد که سیستم کامل نسل بعدی خود بر اساس معماری Ultra “ورا روبین” عملکرد حمل و نقل Rack Blackwell Ultra Rack را در سال جاری ارائه می دهد و در سال یا دو سال به جایی بین 14 تا 15 اگزاتلوپ در کارهای بهینه سازی شده AI می رسد.

همانند کارآیی قابل توجه است. دستیابی به این سطح از عملکرد در یک قفسه واحد به معنای فضای فیزیکی کمتری در هر واحد کار ، مواد کمتری و مصرف انرژی بالقوه در هر کار است ، اگرچه تقاضای مطلق این سیستم ها بسیار زیاد است.

آیا AI واقعاً به تمام قدرت محاسبه نیاز دارد؟

در حالی که چنین دستاوردهای عملکردی واقعاً چشمگیر است ، صنعت هوش مصنوعی اکنون با یک سؤال اساسی روبرو است: چقدر قدرت محاسباتی واقعاً ضروری است و با چه هزینه ای؟ مسابقه برای ساختن مراکز داده جدید هوش مصنوعی جدید توسط تقاضای رو به رشد محاسبات Exascale و مدل های هوش مصنوعی همیشه با قدرت انجام می شود.

جاه طلب ترین تلاش 500 میلیارد دلاری پروژه Stargate است که 20 مرکز داده را در سراسر ایالات متحده پیش بینی می کند که هر کدام نیم میلیون فوت مربع دارند. موجی از پروژه های دیگر در حال انجام یا در مراحل برنامه ریزی در سراسر جهان است ، زیرا شرکت ها و کشورها تلاش می کنند تا از زیرساخت هایی برای پشتیبانی از بارهای کاری AI فردا برخوردار باشند.

برخی از تحلیلگران اکنون نگران این هستند که ما ممکن است ظرفیت مرکز داده هوش مصنوعی را بیش از حد بنا کنیم. نگرانی پس از انتشار R1 ، الگوی استدلال از Deepseek چین که نیاز به محاسبه قابل توجهی کمتر از بسیاری از همسالان خود دارد ، شدت گرفت. مایکروسافت بعداً اجاره نامه ها را با چندین ارائه دهنده مرکز داده لغو کرد ، و این گمانه زنی ها را برانگیخت که ممکن است انتظارات خود را برای تقاضای زیرساخت های هوش مصنوعی آینده ارزیابی کند.

با این حال ، ثبت نام پیشنهاد می کند که این بازپرداخت ممکن است ارتباط بیشتری با برخی از مراکز داده هوش مصنوعی برنامه ریزی شده نداشته باشد که توانایی کافی برای پشتیبانی از قدرت و نیازهای خنک کننده سیستم های نسل بعدی AI ندارند. در حال حاضر ، مدل های هوش مصنوعی محدودیت های موجود در زیرساخت های موجود را می توانند از آن پشتیبانی کنند. MIT Technology Review گزارش داد که این ممکن است به همین دلیل است که بسیاری از مراکز داده در چین دست و پنجه نرم می کنند ، با مشخصاتی که برای نیاز فعلی بهینه نیست ، ساخته شده است ، چه رسد به اینکه در چند سال آینده.

استنباط هوش مصنوعی نیاز به فلاپ های بیشتری دارد

مدل های استدلال بیشتر کار خود را در زمان اجرا از طریق فرآیند معروف به استنتاج انجام می دهند. این مدلها برخی از پیشرفته ترین و پر فشار ترین برنامه ها را امروزه ، از جمله دستیاران تحقیق عمیق و موج در حال ظهور سیستم های AI عامل ، قدرت می دهند.

در حالی که Deepseek-R1 در ابتدا این صنعت را به این فکر انداخت که AI آینده ممکن است نیاز داشته باشد کمتر قدرت محاسبات ، جنسن هوانگ ، مدیرعامل Nvidia به سختی عقب نشینی کرد. وی در گفتگو با CNBC ، این برداشت را مخالفت كرد: “این نتیجه گیری کاملاً مخالف بود كه همه داشتند.” وی افزود: استدلال هوش مصنوعی 100 برابر محاسبات بیشتر از هوش مصنوعی غیر فجرال مصرف می کند.

از آنجا که هوش مصنوعی همچنان از مدل های استدلال به عوامل خودمختار و فراتر از آن تکامل می یابد ، احتمالاً تقاضا برای محاسبات یک بار دیگر افزایش می یابد. پیشرفت های بعدی ممکن است نه تنها به زبان یا بینایی ، بلکه در هماهنگی عامل هوش مصنوعی ، شبیه سازی های همجوشی یا حتی دوقلوهای دیجیتالی در مقیاس بزرگ ، هر یک با نوع جهش توانایی محاسباتی که ما فقط شاهد آن بوده ایم ، امکان پذیر باشد.

به نظر می رسد که به نظر می رسد درست ، Openai فقط 40 میلیارد دلار بودجه جدید اعلام کرد ، بزرگترین بودجه فناوری خصوصی در رکورد. این شرکت در یک پست وبلاگ گفت که این بودجه “ما را قادر می سازد تا مرزهای تحقیقات هوش مصنوعی را حتی بیشتر تحت فشار قرار دهیم ، زیرساخت های محاسباتی ما را مقیاس بندی کرده و ابزارهای فزاینده ای را برای 500 میلیون نفری که هر هفته از ChatGPT استفاده می کنند ، تحویل دهیم.”

چرا اینقدر سرمایه در AI جریان دارد؟ دلایل آن از رقابت تا امنیت ملی است. اگرچه یکی از عوامل خاص برجسته است ، همانطور که توسط یک تیتر مک کینزی مثال زد: “هوش مصنوعی می تواند سود شرکت ها را با 4.4 تریلیون دلار در سال افزایش دهد.”

چه می آید بعد؟ حدس هر کسی است

در اصل آنها ، سیستم های اطلاعاتی در مورد انتزاع پیچیدگی هستند ، خواه از طریق یک سیستم مسیریابی وسایل نقلیه اضطراری که من یک بار در Fortran نوشتم ، یک ابزار گزارشگری دانشجویی که در COBOL ساخته شده است ، یا سیستم های AI مدرن که باعث شتاب کشف مواد مخدر می شود. هدف همیشه یکسان بوده است: درک بیشتر جهان.

اکنون ، با شروع قدرتمند هوش مصنوعی ، ما در حال عبور از آستانه هستیم. برای اولین بار ، ما ممکن است قدرت محاسباتی و هوش را برای مقابله با مشکلاتی که زمانی فراتر از دسترسی انسان بودند ، داشته باشیم.

کوین روز ، ستون نویس نیویورک تایمز ، اخیراً این لحظه را به خوبی ضبط کرد: “هر هفته ، من با مهندسان و کارآفرینانی که روی AI کار می کنند ملاقات می کنم که به من می گویند این تغییر-تغییر بزرگ ، تغییر در جهان ، نوع تحول که قبلاً ندیده ایم-تقریباً در گوشه و کنار است.” و این حتی پیشرفت هایی را که هر هفته به وجود می آورند حساب نمی کند.

درست در چند روز گذشته ، ما دیده ایم که GPT-4O OpenAi تصاویر تقریباً کامل را از متن تولید می کند ، Google نسخه پیشرفته ترین مدل استدلال را منتشر می کند اما در Gemini 2.5 Pro و Runway از یک مدل ویدیویی با شخصیت شات به عکس و قوام صحنه پرده برداری می کند ، چیزی که یادداشت های VentureBeat بیشتر ژنراتورهای ویدیویی هوش مصنوعی را تا به امروز نابود کرده است.

آنچه در مرحله بعدی می آید واقعاً حدس است. ما نمی دانیم که آیا هوش مصنوعی قدرتمند یک دستیابی به موفقیت یا شکست خواهد بود ، آیا این به حل انرژی همجوشی کمک می کند یا خطرات بیولوژیکی جدید را از بین می برد. اما با وجود تعداد بیشتری از فلاپ های آنلاین در طی پنج سال آینده ، یک چیز مسلم به نظر می رسد: نوآوری سریع می شود – و با زور. همچنین واضح است که به عنوان مقیاس FLOPS ، مکالمات ما در مورد مسئولیت ، تنظیم و محدودیت نیز باید باشد.

گری گروسمن EVP از تمرین فناوری در ادلمن و رهبری جهانی مرکز عالی Edelman AI است.