Google's Gemini 2.5 Flash "بودجه های تفکر" را معرفی می کند که هزینه های AI را در هنگام خاموش کردن 600 ٪ کاهش می دهد
Google's Gemini 2.5 Flash "بودجه های تفکر" را معرفی می کند که هزینه های AI را در هنگام خاموش کردن 600 ٪ کاهش می دهد

Google’s Gemini 2.5 Flash “بودجه های تفکر” را معرفی می کند که هزینه های AI را در هنگام خاموش کردن 600 ٪ کاهش می دهد

به گزارش سرویس تازه های دنیای فناوری وبسایت اخبار تکنولوژی تک فاکس،

برای آخرین به روزرسانی ها و مطالب اختصاصی در مورد پوشش هوش مصنوعی پیشرو در صنعت ، به خبرنامه های روزانه و هفتگی ما بپیوندید. بیشتر بدانید


Google Gemini 2.5 Flash را راه اندازی کرده است ، یک نسخه اصلی در ترکیب هوش مصنوعی خود که به مشاغل و توسعه دهندگان می دهد کنترل بی سابقه ای بر میزان “تفکر” هوش مصنوعی خود دارند. این مدل جدید که امروز در پیش نمایش از طریق استودیوی Google AI و Vertex AI منتشر شده است ، بیانگر یک تلاش استراتژیک برای ارائه قابلیت های استدلال بهبود یافته ضمن حفظ قیمت های رقابتی در بازار فزاینده هوش مصنوعی است.

این مدل آنچه را که گوگل “بودجه تفکر” می نامد را معرفی می کند – مکانیسمی که به توسعه دهندگان اجازه می دهد تا قبل از ایجاد پاسخ ، چقدر قدرت محاسباتی را باید از طریق مشکلات پیچیده به استدلال اختصاص دهند. این رویکرد با هدف رفع تنش اساسی در بازار هوش مصنوعی امروز: استدلال پیچیده تر به طور معمول با هزینه تأخیر و قیمت گذاری بالاتر می آید.

Tulsee Doshi ، مدیر محصول مدل های Gemini در Google DeepMind ، در مصاحبه اختصاصی با VentureBeat ، گفت: “ما هزینه و تأخیر را برای تعدادی از موارد استفاده از توسعه دهنده می دانیم ، بنابراین می خواهیم انعطاف پذیری را به توسعه دهندگان ارائه دهیم تا میزان تفکر مدل را بسته به نیاز آنها انجام دهد.”

این انعطاف پذیری رویکرد عملی Google را برای استقرار هوش مصنوعی نشان می دهد زیرا این فناوری به طور فزاینده ای در برنامه های تجاری تعبیه می شود که در آن پیش بینی هزینه ضروری است. Google با اجازه روشن یا خاموش بودن توانایی تفکر ، آنچه را که آن را “اولین مدل استدلال کاملاً ترکیبی” می نامد ، ایجاد کرده است.

فقط برای نیروی مغز مورد نیاز خود پرداخت کنید: در مدل جدید قیمت گذاری هوش مصنوعی Google

ساختار قیمت گذاری جدید هزینه استدلال در سیستم های هوش مصنوعی امروز را برجسته می کند. هنگام استفاده از فلش Gemini 2.5 ، توسعه دهندگان برای ورودی 0.15 دلار در هر میلیون دلار پرداخت می کنند. هزینه های خروجی بر اساس تنظیمات استدلال به طرز چشمگیری متفاوت است: 0.60 دلار در هر میلیون توکن با تفکر خاموش ، پریدن به 3.50 دلار در هر میلیون نشانه با استدلال.

این اختلاف قیمت تقریباً شش برابر برای خروجی های استدلال نشان دهنده شدت محاسباتی فرآیند “تفکر” است ، جایی که مدل قبل از ایجاد پاسخ ، مسیرها و ملاحظات بالقوه متعدد را ارزیابی می کند.

Doshi به VentureBeat گفت: “مشتریان هزینه های تفکر و خروجی را که مدل تولید می کند ، پرداخت می کنند.” “در استودیوی AI UX ، شما می توانید این افکار را قبل از پاسخ مشاهده کنید. در API ، ما در حال حاضر دسترسی به افکار را فراهم نمی کنیم ، اما یک توسعه دهنده می تواند ببیند که چند نشانه تولید شده است.”

بودجه تفکر را می توان از 0 تا 24.576 توکن تنظیم کرد که به عنوان حداکثر حد و نه یک تخصیص ثابت عمل می کند. طبق گفته گوگل ، این مدل با هوشمندی تعیین می کند که چه مقدار از این بودجه را براساس پیچیدگی کار استفاده می کند ، و حفظ منابع در هنگام استدلال دقیق لازم نیست.

How Gemini 2.5 Flash Stacks Up: نتایج معیار در برابر مدل های پیشرو AI

Google ادعا می کند Gemini 2.5 Flash عملکرد رقابتی را در معیارهای کلیدی نشان می دهد و ضمن حفظ اندازه مدل کوچکتر از گزینه های دیگر. در آخرین امتحان بشریت ، یک آزمایش دقیق برای ارزیابی استدلال و دانش طراحی شده است ، 2.5 فلاش 12.1 ٪ به ثمر رساند ، از Claude 3.7 غزل Anthropic (8.9 ٪) و Deepseek R1 (8.6 ٪) بهتر است ، اگرچه از O4-Mini که اخیراً Openai (14.3 ٪) راه اندازی شده است ، کمبود.

این مدل همچنین نتایج محکمی در معیارهای فنی مانند GPQA Diamond (78.3 ٪) و امتحانات ریاضیات AIME (78.0 ٪ در تست های 2025 و 88.0 ٪ در تست های 2024) منتشر کرده است.

Doshi گفت: “شرکت ها باید 2.5 فلش را انتخاب کنند زیرا بهترین ارزش را برای هزینه و سرعت آن فراهم می کند.” “این به ویژه نسبت به رقبا در مورد ریاضیات ، استدلال چند مدلی ، زمینه طولانی و چندین معیار کلیدی دیگر قوی است.”

تحلیلگران صنعت خاطرنشان می کنند که این معیارها حاکی از آن است که گوگل ضمن حفظ مزیت قیمت گذاری ، شکاف عملکرد را با رقبا کاهش می دهد – استراتژی که ممکن است با مشتریان سازمانی که بودجه هوش مصنوعی خود را تماشا می کنند ، طنین انداز باشد.

هوشمند در مقابل سرعت: چه زمانی هوش مصنوعی شما باید عمیق فکر کند؟

معرفی استدلال قابل تنظیم نشان دهنده تکامل قابل توجهی در نحوه استقرار مشاغل AI است. با استفاده از مدل های سنتی ، کاربران دید کمی بر روی فرایند استدلال داخلی مدل دارند.

رویکرد Google به توسعه دهندگان این امکان را می دهد تا سناریوهای مختلف را بهینه کنند. برای پرس و جوهای ساده مانند ترجمه زبان یا بازیابی اطلاعات اساسی ، تفکر می تواند برای حداکثر راندمان هزینه غیرفعال شود. برای کارهای پیچیده که نیاز به استدلال چند مرحله ای دارند ، مانند حل مسئله ریاضی یا تجزیه و تحلیل ظریف ، عملکرد تفکر را می توان فعال و تنظیم کرد.

یک نوآوری کلیدی توانایی مدل در تعیین میزان استدلال بر اساس پرس و جو است. گوگل این را با مثال نشان می دهد: یک سؤال ساده مانند “چند استان کانادا دارد؟” به حداقل استدلال نیاز دارد ، در حالی که یک سؤال پیچیده مهندسی در مورد محاسبات استرس پرتو به طور خودکار فرآیندهای تفکر عمیق تر را درگیر می کند.

Doshi گفت: “ادغام قابلیت های تفکر در مدل های اصلی Gemini ما ، همراه با پیشرفت در سراسر صفحه ، منجر به پاسخ های با کیفیت بالاتر شده است.” “این پیشرفت ها در معیارهای دانشگاهی صادق است – از جمله SimpleQA ، که واقعیت را اندازه گیری می کند.”

هفته هوش مصنوعی Google: دسترسی رایگان دانش آموزان و تولید فیلم به پرتاب 2.5 Flash

انتشار Flash Gemini 2.5 در طی یک هفته از حرکات تهاجمی توسط Google در فضای هوش مصنوعی صورت می گیرد. روز دوشنبه ، این شرکت قابلیت تولید ویدیویی Veo 2 را به مشترکان پیشرفته Gemini منتقل کرد و به کاربران این امکان را می دهد تا کلیپ های ویدیویی هشت ثانیه ای را از متن متن ایجاد کنند. امروز ، در کنار اعلام 2.5 Flash ، Google فاش کرد که همه دانشجویان کالج آمریکایی تا بهار سال 2026 دسترسی رایگان به Gemini Advanced دریافت می کنند – حرکتی که توسط تحلیلگران به عنوان تلاش برای ایجاد وفاداری در بین کارگران دانش آینده تعبیر شده است.

براساس تجزیه و تحلیل های شخص ثالث ، این اعلامیه ها منعکس کننده استراتژی چند جانبه Google برای رقابت در یک بازار تحت سلطه OpenAi’s Chatgpt است که طبق گزارش های شخص ثالث ، بیش از 800 میلیون کاربر هفتگی را در مقایسه با 250-275 میلیون کاربر ماهانه تخمین زده می کند.

مدل فلش 2.5 با تمرکز صریح خود بر بهره وری در هزینه و سفارشی سازی عملکرد ، به نظر می رسد که به ویژه برای مشتریان سازمانی که نیاز به مدیریت دقیق هزینه های استقرار AI دارند ، ضمن دسترسی به قابلیت های پیشرفته ، طراحی شده است.

Doshi گفت: “ما بسیار هیجان زده هستیم که از توسعه دهندگان در مورد آنچه در حال ساخت آنها با Gemini Flash 2.5 و نحوه استفاده از بودجه های تفکر هستند ، دریافت می کنیم.”

فراتر از پیش نمایش: آنچه مشاغل می توانند انتظار داشته باشند به عنوان فلش Gemini 2.5

در حالی که این نسخه در پیش نمایش است ، این مدل در حال حاضر برای توسعه دهندگان در دسترس است ، اگرچه Google جدول زمانی را برای در دسترس بودن عمومی مشخص نکرده است. این شرکت نشان می دهد که در این مرحله پیش نمایش ، پالایش قابلیت های تفکر پویا را بر اساس بازخورد توسعه دهنده ادامه خواهد داد.

برای پذیرندگان AI شرکت ، این نسخه فرصتی برای آزمایش با رویکردهای ظریف تر برای استقرار هوش مصنوعی است ، و به طور بالقوه منابع محاسباتی بیشتری را به وظایف پر مسافت اختصاص می دهد و ضمن حفظ هزینه ها در برنامه های معمول.

این مدل همچنین از طریق برنامه Gemini در دسترس مصرف کنندگان است ، جایی که در منوی کشویی مدل به عنوان “2.5 Flash (آزمایش)” ظاهر می شود و گزینه قبلی 2.0 تفکر (آزمایشی) را جایگزین می کند. این استقرار در معرض مصرف کننده نشان می دهد Google از اکوسیستم برنامه برای جمع آوری بازخورد گسترده تر در مورد معماری استدلال خود استفاده می کند.

از آنجا که هوش مصنوعی به طور فزاینده ای در گردش کار تجاری تعبیه می شود ، رویکرد Google با استدلال قابل تنظیم نشان دهنده یک بازار بلوغ است که بهینه سازی هزینه و تنظیم عملکرد به همان اندازه قابلیت های خام مهم می شود – سیگنال یک مرحله جدید در تجاری سازی فناوری های AI تولیدی.