حساب جدید AI: 80 ٪ هزینه Google در مقابل اکوسیستم Openai
حساب جدید AI: 80 ٪ هزینه Google در مقابل اکوسیستم Openai

حساب جدید AI: 80 ٪ هزینه Google در مقابل اکوسیستم Openai

به گزارش سرویس تازه های دنیای فناوری وبسایت اخبار تکنولوژی تک فاکس،

برای آخرین به روزرسانی ها و مطالب اختصاصی در مورد پوشش هوش مصنوعی پیشرو در صنعت ، به خبرنامه های روزانه و هفتگی ما بپیوندید. بیشتر بدانید


سرعت بی امان از نوآوری AI تولیدی هیچ نشانه ای از کند شدن را نشان نمی دهد. فقط در دو هفته گذشته ، Openai مدلهای استدلال قدرتمند O3 و O4-Mini خود را در کنار سری GPT-4.1 کنار گذاشت ، در حالی که گوگل با Gemini 2.5 Flash مقابله کرد و به سرعت در پرچمدار Gemini 2.5 Pro خود تکرار شد. برای رهبران فنی سازمانی که در این چشم انداز سرگیجه حرکت می کنند ، انتخاب پلت فرم AI مناسب نیاز به نگاه بسیار فراتر از معیارهای مدل به سرعت در حال تغییر دارد

در حالی که معیارهای مدل در مقابل مدل عناوین را به دست می آورند ، تصمیم برای رهبران فنی بسیار عمیق تر می شود. انتخاب یک بستر هوش مصنوعی تعهد به یک اکوسیستم است و همه چیز را از هزینه های محاسبات اصلی و استراتژی توسعه عامل گرفته تا مدل سازی قابلیت اطمینان و ادغام شرکت تأثیر می گذارد.

اما شاید شدیدترین تمایز دهنده ، حباب در زیر سطح اما با پیامدهای عمیق طولانی مدت ، در اقتصاد سخت افزاری که این غول های هوش مصنوعی را تأمین می کند نهفته است. Google به لطف سیلیکون سفارشی خود ، به طور بالقوه بار کاری خود را در کسری از هزینه OpenAi با تکیه بر GPU های حاکم بر بازار NVIDIA (و با حاشیه بالا) ، از مزیت عظیم هزینه برخوردار است.

این تجزیه و تحلیل فراتر از معیارها برای مقایسه اکوسیستم های Google و OpenAI/Microsoft AI در بین عوامل مهم شرکت ها که امروز باید در نظر بگیرند: اختلاف قابل توجه در اقتصاد محاسبه ، استراتژی های واگرایی برای ایجاد عوامل هوش مصنوعی ، تجارت مهم در قابلیت های مدل و قابلیت اطمینان از شرکت ها متناسب و توزیع. این تجزیه و تحلیل مبتنی بر یک بحث ویدیوی عمیق است که در اوایل این هفته این تغییرات سیستمیک بین خودم و توسعه دهنده هوش مصنوعی سام ویتوین را بررسی می کند.

1. اقتصاد محاسبه: “سلاح مخفی” TPU Google در مقابل مالیات Nvidia Openai

مهمترین و در عین حال غالباً مورد بحث و گفتگو ، Google که Google دارد “سلاح مخفی” آن است: سرمایه گذاری چند ساله خود در واحدهای پردازش تانسور سفارشی (TPU). Openai و بازار گسترده تر به GPU های قدرتمند اما گران قیمت Nvidia (مانند H100 و A100) متکی هستند. از طرف دیگر ، گوگل TPU های خاص خود را مانند نسل Ironwood که اخیراً رونمایی شده است ، برای بارهای اصلی کار هوش مصنوعی خود طراحی و مستقر می کند. این شامل آموزش و خدمت به مدل های جمینی است.

چرا این موضوع مهم است؟ این یک تفاوت هزینه زیادی ایجاد می کند.

فرماندهی GPU های NVIDIA حاشیه ناخالص ، که توسط تحلیلگران تخمین زده می شود در محدوده 80 ٪ برای تراشه های مرکز داده مانند H100 و GPU های آینده B100 باشد. این بدان معنی است که OpenAi (از طریق مایکروسافت لاجورد) حق بیمه سنگینی – “مالیات Nvidia” را برای محاسبه خود پرداخت می کند. Google ، با تولید TPU در خانه ، به طور موثری از این نشانه عبور می کند.

براساس گزارش ها ، در حالی که تولید GPU ممکن است NVIDIA 3000 تا 5000 دلار هزینه داشته باشد ، براساس گزارش ها ، Hyperscalers مانند مایکروسافت (تهیه OpenAI) 20،000-35،000 دلار+ برای هر واحد در حجم پرداخت می کنند. مکالمات و تجزیه و تحلیل صنعت نشان می دهد که Google ممکن است قدرت محاسبات AI خود را تقریباً 20 ٪ از هزینه های متحمل شده توسط کسانی که خرید GPU های NVIDIA با رده بالا را بدست می آورند ، بدست آورد. در حالی که اعداد دقیق داخلی هستند ، پیامدهای آن یک مزیت راندمان هزینه 4x-6x در هر واحد محاسبات برای Google در سطح سخت افزار است.

این مزیت ساختاری در قیمت گذاری API منعکس شده است. با مقایسه مدل های پرچمدار ، O3 Openai تقریباً 8 برابر برای نشانه های ورودی گران تر است و 4 برابر برای نشانه های خروجی نسبت به Gemini 2.5 Pro Google (برای طول زمینه استاندارد) گرانتر است.

این دیفرانسیل هزینه دانشگاهی نیست ؛ این پیامدهای استراتژیک عمیقی دارد. گوگل به احتمال زیاد می تواند قیمت های پایین تری را حفظ کند و “اطلاعاتی در هر دلار” بهتر ارائه دهد ، و به شرکت ها هزینه کل مالکیت طولانی مدت (TCO) را قابل پیش بینی تر می دهد-و این دقیقاً همان کاری است که در حال حاضر در عمل انجام می دهد.

در عین حال ، هزینه های اوپای ذاتاً با قدرت قیمت گذاری Nvidia و شرایط معامله لاجورد آن گره خورده است. در واقع ، هزینه های محاسباتی 55-60 ٪ از کل هزینه های عملیاتی 9B OpenAI را در سال 2024 نشان می دهد ، طبق برخی گزارش ها ، و پیش بینی شده است بیش از 80 ٪ در سال 2025 به عنوان THمقیاس EY. در حالی که رشد درآمد پیش بینی شده Openai نجومی است – به طور بالقوه با توجه به پیش بینی های داخلی گزارش شده ، تا سال 2029 به 125 میلیارد دلار ضربه می زند – مدیریت این هزینه محاسبات همچنان یک چالش مهم است و باعث می شود که آنها از سیلیکون سفارشی پیگیری کنند.

2. Frameworks Agent: رویکرد اکوسیستم باز Google در مقابل یکی یکپارچه Openai

فراتر از سخت افزار ، این دو غول در حال دنبال کردن استراتژی های واگرا برای ساخت و استقرار عوامل هوش مصنوعی هستند که برای خودکارسازی گردش کار شرکت ها هستند.

Google در حال فشار روشنی برای قابلیت همکاری و اکوسیستم بازتر است. در ابر دو هفته پیش ، از پروتکل عامل عامل (A2A) رونمایی کرد ، که به منظور امکان امکان ارتباط با سیستم عامل های مختلف ، در کنار کیت توسعه عامل آن (ADK) و مرکز AgentsPace برای کشف و مدیریت عوامل. در حالی که پذیرش A2A با موانع روبرو است – بازیکنان کلیدی مانند Anthropic به سیستم وارد نشده اند (VentureBeat در این باره به انسان شناسی رسید ، اما انسان شناسی از اظهار نظر خودداری کرد) – و برخی از توسعه دهندگان در مورد ضرورت آن در کنار پروتکل متن مدل موجود انسان شناسی (MCP) بحث می کنند. هدف Google واضح است: برای پرورش یک بازار نماینده چند فروشنده ، که به طور بالقوه در باغ عامل خود یا از طریق یک فروشگاه برنامه عامل شایعه شده میزبان است.

برعکس ، Openai بر روی ایجاد عوامل قدرتمند و با استفاده از ابزار کاملاً متمرکز در پشته خود متمرکز شده است. مدل جدید O3 این موضوع را نشان می دهد ، قادر به صدها تماس ابزار در یک زنجیره استدلال واحد است. توسعه دهندگان برای ایجاد عوامل پیشرفته ای که در مرز OpenAI/Azure Trust کار می کنند ، از API و Agents SDK به همراه ابزارهایی مانند Codex CLI جدید استفاده می کنند. در حالی که چارچوب هایی مانند Autogen Microsoft انعطاف پذیری را ارائه می دهند ، استراتژی اصلی OpenAI در مورد ارتباطات متقابل پلت فرم کمتر و بیشتر در مورد حداکثر رساندن قابلیت های عامل به صورت دقت در محیط کنترل شده خود به نظر می رسد.

  • غذای آماده سازی شرکت: شرکت هایی که در اولویت انعطاف پذیری و توانایی ترکیب و مسابقه از فروشندگان مختلف قرار دارند (به عنوان مثال ، وصل کردن یک عامل Salesforce به Vertex AI) ممکن است رویکرد باز Google را جذاب کند. کسانی که عمیقاً در اکوسیستم Azure/Microsoft سرمایه گذاری کرده اند یا ترجیح می دهند پشته عامل با کارایی بالا و عمودی تر مدیریت شود.

3. قابلیت های مدل: برابری ، عملکرد و نقاط درد

چرخه انتشار بی امان به معنای رهبری مدل زودگذر است. در حالی که Opai’s O3 در حال حاضر Gemini 2.5 Pro را در برخی از معیارهای برنامه نویسی مانند SWE-BENCH تأیید شده و Aider ، Gemini 2.5 Pro بازی می کند یا به دیگران مانند GPQA و AIME منجر می شود. Gemini 2.5 Pro همچنین رهبر کلی در تابلوی بزرگ الگوی زبان (LLM) است. با این حال ، برای بسیاری از موارد استفاده از شرکت ها ، مدل ها در قابلیت های اصلی به برابری خشن رسیده اند.

در واقعی تفاوت در معاملات متمایز آنها نهفته است:

  • زمینه در مقابل عمق استدلال: Gemini 2.5 Pro دارای یک پنجره زمینه عظیم 1 میلیون-تکنیک (با 2M برنامه ریزی شده) ، ایده آل برای پردازش کد های بزرگ یا مجموعه های اسناد است. Openai O3 یک پنجره 200K ارائه می دهد اما بر استدلال عمیق و کمک به ابزار در یک نوبت واحد تأکید می کند که با رویکرد یادگیری تقویت کننده آن امکان پذیر است.
  • قابلیت اطمینان در مقابل ریسک: این به عنوان یک تمایز مهم در حال ظهور است. در حالی که O3 استدلال چشمگیر را به نمایش می گذارد ، کارت مدل Openai برای 03 نشان داد که توهم به طور قابل توجهی بیشتر است (2 برابر نرخ O1 در Personqa). برخی از تحلیل ها نشان می دهد که این ممکن است ناشی از استدلال پیچیده و مکانیسم های استفاده از ابزار باشد. Gemini 2.5 Pro ، اگرچه شاید گاهی اوقات در ساختار خروجی خود به عنوان نوآوری کمتر درک شود ، اما اغلب توسط کاربران به عنوان قابل اطمینان تر و قابل پیش بینی برای کارهای شرکت توصیف می شود. شرکت ها باید قابلیت های برش O3 را در برابر این افزایش مستند خطر توهم وزن داشته باشند.
  • غذای آماده سازی شرکت: مدل “بهترین” به کار بستگی دارد. برای تجزیه و تحلیل مقادیر گسترده زمینه یا اولویت بندی خروجی های قابل پیش بینی ، Gemini 2.5 Pro دارای لبه ای است. برای کارهایی که خواستار عمیق ترین استدلال چند ابزار هستند ، جایی که می توان خطر توهم را با دقت مدیریت کرد ، O3 یک مدعی قدرتمند است. همانطور که سام ویتوین در پادکست عمیق ما در این باره خاطرنشان کرد ، آزمایش دقیق در موارد خاص استفاده از شرکت ها ضروری است.

4. شرکت مناسب و توزیع: عمق ادغام در مقابل بازار

در نهایت ، پذیرش غالباً به این بستگی دارد که چگونه یک پلتفرم به راحتی در زیرساخت ها و گردش کار موجود در یک شرکت قرار می گیرد.

قدرت Google در ادغام عمیق برای مشتریان موجود Google Cloud و فضای کاری موجود است. مدل های جمینی ، AI Vertex ، AgentsPace و ابزارهایی مانند BigQuery برای کار یکپارچه در کنار هم طراحی شده اند و یک هواپیمای کنترل یکپارچه ، حاکمیت داده ها و به طور بالقوه سریعتر به ارزش را برای شرکت هایی که قبلاً در اکوسیستم Google سرمایه گذاری کرده اند ، ارائه می دهند. Google به طور فعال در حال شرکت در شرکت های بزرگ است و استقرار را با شرکت هایی مانند Wendy’s ، Wayfair و Wells Fargo به نمایش می گذارد.

OpenAI ، از طریق مایکروسافت ، دارای دسترسی و دسترسی بی نظیر از بازار است. پایگاه کاربر عظیم Chatgpt (800 میلیون پوند MAU) آشنایی گسترده ای ایجاد می کند. مهمتر از همه ، مایکروسافت به طرز تهاجمی مدل های OpenAI (از جمله آخرین سری O) را در خدمات همه جا Microsoft 365 Copilot و Azure خود جاسازی می کند ، و قابلیت های قدرتمند هوش مصنوعی را به راحتی در دسترس صدها میلیون کاربر سازمانی قرار می دهد ، غالباً در ابزارهایی که روزانه از آنها استفاده می کنند. برای سازمان هایی که قبلاً در Azure و Microsoft 365 استاندارد شده اند ، اتخاذ OpenAI می تواند یک پسوند طبیعی تر باشد. علاوه بر این ، استفاده گسترده از API های OpenAI توسط توسعه دهندگان به این معنی است که بسیاری از اعلان های سازمانی و گردش کار در حال حاضر برای مدل های OpenAI بهینه شده اند.

  • تصمیم استراتژیک: این انتخاب اغلب به روابط فروشنده موجود می رسد. Google داستانی قانع کننده و یکپارچه را برای مشتریان فعلی خود ارائه می دهد. OpenAI ، با استفاده از موتور توزیع مایکروسافت ، دسترسی گسترده ای و پذیرش بالقوه آسان تر برای تعداد زیادی از شرکتهای مایکروسافت محور را ارائه می دهد.

Google vs Openai/Microsoft دارای تجارت برای شرکت ها است

جنگ پلت فرم تولید AI بین Google و OpenAI/Microsoft بسیار فراتر از مقایسه مدل ساده است. در حالی که هر دو توانایی های پیشرفته ای را ارائه می دهند ، آنها شرط بندی های استراتژیک مختلفی را ارائه می دهند و مزایای متمایز و تجارت را برای شرکت ارائه می دهند.

شرکت ها باید رویکردهای متفاوتی را در چارچوب های عامل ، تجارت های ظریف بین قابلیت های مدل مانند طول زمینه در مقابل استدلال برش و کاربردهای ادغام شرکت و دسترسی به توزیع ، وزن کنند.

با این حال ، با توجه به همه این عوامل ، واقعیت آشکار هزینه محاسبه است ، که شاید مهمترین و تعریف کننده تمایز بلند مدت باشد ، به خصوص اگر OpenAI نتواند به سرعت آن را پرداخت کند. استراتژی TPU یکپارچه عمودی Google ، به آن اجازه می دهد تا به طور بالقوه 80 ٪ پوند “مالیات Nvidia” تعبیه شده در قیمت گذاری GPU را که از Openai استفاده می کند ، دور بزند ، یک مزیت اساسی اقتصادی را نشان می دهد ، که به طور بالقوه یک بازی در حال تغییر است.

این بیش از اختلاف قیمت جزئی است. این همه چیز را از قیمت مناسب API و پیش بینی طولانی مدت TCO تا مقیاس پذیری کامل استقرار AI تحت تأثیر قرار می دهد. با افزایش بار کار هوش مصنوعی ، پلتفرم با موتور اقتصادی پایدارتر – که توسط راندمان هزینه سخت افزاری دامن زده است – دارای یک لبه استراتژیک قدرتمند است. Google در حال افزایش این مزیت است و در عین حال چشم انداز باز برای قابلیت همکاری عامل را نیز تحت فشار قرار می دهد.

OpenAi ، با حمایت از مقیاس مایکروسافت ، پیشخوان هایی با مدل های با استفاده از ابزار عمیق و یکپارچه بازار بی نظیر پیش می رود ، اگرچه سؤالاتی در مورد ساختار هزینه و قابلیت اطمینان مدل آن باقی مانده است.

برای انتخاب صحیح ، رهبران فنی سازمانی باید از معیارها گذشته نگاه کنند و این اکوسیستم ها را بر اساس پیامدهای طولانی مدت TCO ، رویکرد ارجح آنها به استراتژی و باز بودن عامل ، تحمل آنها برای خطرات قابلیت اطمینان مدل در مقابل قدرت استدلال خام ، پشته فناوری موجود و نیازهای خاص آنها ارزیابی کنند.

فیلم را تماشا کنید که در آن و سام ویتوین و من همه چیز را تجزیه می کنیم:

https://www.youtube.com/watch؟v=dzzdjnd-yfw