برای آخرین به روزرسانی ها و مطالب اختصاصی در مورد پوشش هوش مصنوعی پیشرو در صنعت ، به خبرنامه های روزانه و هفتگی ما بپیوندید. بیشتر بدانید
ولز فارگو بی سر و صدا دارد آنچه را که اکثر بنگاهها هنوز در مورد آن آرزو می کنند ، انجام داد: ساختن یک سیستم هوش مصنوعی تولیدی در مقیاس بزرگ و آماده تولید که در واقع کار می کند. تنها در سال 2024 ، دستیار AI با قدرت بانک ، فارگو ، 245.4 میلیون نفر را اداره کرد تعامل – بیش از دو برابر کردن پیش بینی های اصلی خود – و این کار را انجام داد بدون اینکه هرگز داده های حساس مشتری را در یک مدل زبان قرار دهد.
فارگو به مشتریان با نیازهای روزمره بانکی از طریق صدا یا متن ، رسیدگی به درخواست هایی مانند پرداخت صورتحساب ، انتقال وجوه ، ارائه جزئیات معامله و پاسخ دادن به سؤالات مربوط به فعالیت حساب کمک می کند. دستیار ثابت کرده است که ابزاری مهم برای کاربران است و میانگین تعامل های متعدد در هر جلسه است.
این سیستم از طریق خط لوله حریم خصوصی کار می کند. مشتری از طریق برنامه تعامل دارد ، جایی که گفتار به صورت محلی با یک مدل گفتار به متن رونویسی می شود. سپس این متن توسط سیستم های داخلی Wells Fargo ، از جمله یک مدل زبان کوچک (SLM) برای تشخیص اطلاعات شخصی (PII) ، توسط سیستم های داخلی Wells Fargo ، از جمله یک مدل زبان کوچک (SLM) استفاده می شود. فقط در این صورت تماس تلفنی به مدل Flash 2.0 Google برای استخراج هدف و اشخاص مربوطه انجام شده است. هیچ داده حساس هرگز به مدل نمی رسد.
ولز فارگو CIO Chintan Mehta در مصاحبه ای با VentureBeat گفت: “لایه ارکستراسیون با مدل صحبت می کند.” “ما فیلترها در جلو و عقب هستیم.”
او توضیح داد ، تنها کاری که مدل انجام می دهد ، تعیین هدف و نهاد بر اساس عبارتی است که کاربر ارسال می کند ، مانند مشخص کردن اینکه یک درخواست شامل یک حساب پس انداز است. مهتا گفت: “همه محاسبات و بازآفرینی ، همه چیز در پایان ما است.” “API های ما … هیچکدام از آنها از LLM عبور نمی کنند. همه آنها فقط به آن نشسته اند.”
آمار داخلی Wells Fargo یک رمپ چشمگیر را نشان می دهد: از 21.3 میلیون تعامل در سال 2023 به بیش از 245 میلیون در سال 2024 ، با بیش از 336 میلیون تعامل تجمعی از زمان راه اندازی. اتخاذ زبان اسپانیایی نیز افزایش یافته است ، و بیش از 80 ٪ از استفاده را از زمان حضور در سپتامبر 2023 خود به خود اختصاص داده است.
این معماری نشان دهنده یک تغییر استراتژیک گسترده تر است. مهتا گفت که رویکرد این بانک در ساخت “سیستم های مرکب” پایه گذاری شده است ، جایی که لایه های ارکستراسیون تعیین می کند که بر اساس کار از کدام مدل استفاده می شود. Gemini Flash 2.0 Power Fargo ، اما مدل های کوچکتر مانند Llama در جای دیگر در داخل کشور استفاده می شوند و مدل های OpenAI در صورت لزوم می توانند مورد استفاده قرار گیرند.
وی گفت: “ما پلی مدل و پلی ابر هستیم.”
مهتا می گوید اکنون مدل-آگنوستیک گرایی ضروری است که Delta عملکرد بین مدل های برتر کوچک است. وی افزود: برخی از مدل ها هنوز در مناطق خاص برتری دارند – Claude Sonnet 3.7 و Openi's O3 Mini High برای کدگذاری ، Opai's O3 برای تحقیقات عمیق ، و غیره – اما از نظر وی ، سوال مهم تر این است که چگونه آنها در خطوط لوله قرار می گیرند.
اندازه پنجره زمینه در منطقه ای باقی مانده است که او جدایی معنی دار را می بیند. مهتا از ظرفیت 1M-Token Gemini 2.5 Pro به عنوان یک نکته واضح برای کارهایی مانند تولید تقویت شده بازیابی (RAG) ، که در آن داده های پیش ساخت نشده می توانند تأخیر را اضافه کنند ، ستود. وی گفت: “جمینی وقتی صحبت می شود ، آن را کاملاً کشته است.” وی گفت ، برای بسیاری از موارد استفاده ، سربار داده های پیش پردازش قبل از استقرار یک مدل اغلب از این مزیت فراتر می رود.
طراحی فارگو نشان می دهد که چگونه مدل های زمینه بزرگ می توانند اتوماسیون سریع ، سازگار و با حجم بالا را حتی بدون مداخله انسانی فعال کنند. و این تضاد شدید با رقبا است. به عنوان مثال ، در Citi ، رئیس تحلیلی Promiti Dutta سال گذشته گفت که خطرات مدل های بزرگ زبان بزرگ (LLMS) هنوز هم خیلی زیاد است. وی در گفتگوهایی که به میزبانی VentureBeat برگزار شد ، سیستمی را توصیف کرد که به دلیل نگرانی در مورد توهم و حساسیت به داده ها ، به طور مستقیم با مشتریان صحبت نمی کند.
ولز فارگو این نگرانی ها را از طریق طراحی ارکستراسیون خود حل می کند. به جای تکیه بر یک انسان در حلقه ، از حفاظت های لایه ای و منطق داخلی استفاده می کند تا LLM ها را از هر مسیر حساس به داده دور نگه دارد.
حرکات عامل و طراحی چند عامل
Wells Fargo همچنین به سمت سیستم های خودمختار تر حرکت می کند. مهتا یک پروژه اخیر را برای نوشتن مجدد 15 سال اسناد وام بایگانی شده توصیف کرد. این بانک از شبکه ای از عوامل تعامل استفاده کرده است که برخی از آنها در چارچوب های منبع باز مانند Langgraph ساخته شده اند. هر نماینده نقش خاصی در این فرآیند داشت ، که شامل بازیابی اسناد از بایگانی ، استخراج محتوای آنها ، تطبیق داده ها با سیستم های ضبط و سپس ادامه خط لوله برای انجام محاسبات – تمام کارهایی است که به طور سنتی به تحلیلگران انسانی نیاز دارند. یک انسان بازده نهایی را مرور می کند ، اما بیشتر کارها به طور مستقل انجام می شود.
این بانک همچنین در حال ارزیابی مدل های استدلال برای مصارف داخلی است ، جایی که مهتا گفت که تمایز هنوز وجود دارد. در حالی که اکثر مدل ها اکنون کارهای روزمره را به خوبی انجام می دهند ، استدلال همچنان یک مورد لبه است که برخی از مدل ها به وضوح این کار را بهتر از سایرین انجام می دهند ، و آنها این کار را به روش های مختلف انجام می دهند.
چرا تأخیر (و قیمت گذاری) ماده
در Wayfair ، CTO Fiona Tan گفت: Gemini 2.5 Pro وعده های شدیدی را نشان داده است ، به خصوص در زمینه سرعت. وی با اشاره به آزمایش های اخیر تیمش گفت: “در بعضی موارد ، Gemini 2.5 سریعتر از کلود یا اوپای برگشت.”
تان گفت که تأخیر پایین در برنامه های مشتری در زمان واقعی باز می شود. در حال حاضر ، Wayfair از LLM ها برای برنامه های عمدتاً داخلی-از جمله در تجارت و برنامه ریزی سرمایه استفاده می کند-اما استنباط سریعتر ممکن است به آنها اجازه دهد LLM ها را به محصولات مشتری مداری مانند ابزار پرسش و پاسخ خود در صفحات جزئیات محصول گسترش دهند.
تان همچنین به پیشرفت هایی در عملکرد برنامه نویسی جمینی اشاره کرد. وی گفت: “به نظر می رسد اکنون با کلود 3.7 بسیار قابل مقایسه است.” این تیم ارزیابی مدل را از طریق محصولاتی مانند مکان نما و کد کمک کرده است ، جایی که توسعه دهندگان انعطاف پذیری را برای انتخاب دارند.
Google از آن زمان قیمت های تهاجمی را برای Gemini 2.5 Pro منتشر کرده است: 1.24 دلار در هر میلیون نشانه ورودی و 10 دلار در هر میلیون توکن خروجی. تان گفت که قیمت گذاری ، به علاوه انعطاف پذیری SKU برای کارهای استدلال ، باعث می شود تا جمینی گزینه ای قوی برای پیشبرد باشد.
سیگنال گسترده تر برای Google Cloud Next
داستان های ولز فارگو و Wayfair در یک لحظه مناسب برای Google ، که میزبان کنفرانس سالانه Google Cloud بعدی خود در این هفته در لاس وگاس است ، فرود می آیند. در حالی که Openai و Anthropic در ماه های اخیر بر گفتمان هوش مصنوعی حاکم شده اند ، استقرار شرکت ها ممکن است بی سر و صدا به نفع Google برگردند.
در این کنفرانس ، انتظار می رود گوگل موجی از ابتکارات AI عامل را از جمله قابلیت های جدید و ابزار برای ایجاد مفیدتر نمایندگان خودمختار در گردش کار سازمانی برجسته کند. در حال حاضر در رویداد بعدی Cloud در سال گذشته ، مدیرعامل توماس کوریان پیش بینی کرده است که نمایندگان برای کمک به کاربران “دستیابی به اهداف خاص” و “ارتباط با سایر عوامل” برای انجام وظایف – مضامین که بسیاری از اصول ارکستراسیون و استقلال Mehta را توصیف می کنند ، طراحی شده اند.
Mehta Wells Fargo تأکید کرد که تنگنای واقعی برای تصویب هوش مصنوعی عملکرد مدل یا در دسترس بودن GPU نخواهد بود. وی گفت: “من فکر می کنم این قدرتمند است. من در مورد آن شک صفر دارم.” اما وی هشدار داد که چرخه اعتیاد به مواد مخدره ممکن است پیش از ارزش عملی باشد. “ما باید در مورد عدم گرفتار شدن با اشیاء براق بسیار متفکر باشیم.”
نگرانی بزرگتر او؟ قدرت مهتا گفت: “این محدودیت تراشه ها نخواهد بود.” “این تولید برق و توزیع خواهد بود. این تنگنا واقعی است.”
ارسال پاسخ