برای آخرین به روزرسانی ها و مطالب اختصاصی در مورد پوشش هوش مصنوعی پیشرو در صنعت ، به خبرنامه های روزانه و هفتگی ما بپیوندید. بیشتر بدانید
محققان دانشگاه سوچو چین زنجیره ای از ابزار (Cotools) را معرفی کرده اند ، یک چارچوب جدید که برای تقویت چگونگی استفاده از مدل های بزرگ زبان (LLMS) از ابزارهای خارجی طراحی شده است. Cotools با هدف ارائه یک رویکرد کارآمدتر و انعطاف پذیر در مقایسه با روش های موجود است. این امر به LLM ها اجازه می دهد تا از ابزارهای وسیع به طور مستقیم در فرایند استدلال خود استفاده کنند ، از جمله مواردی که به صراحت در آنها آموزش دیده اند.
برای شرکت هایی که به دنبال ساختن عوامل پیشرفته هوش مصنوعی هستند ، این قابلیت می تواند برنامه های قدرتمندتر و سازگار تر را بدون اشکالاتی معمولی از تکنیک های ادغام ابزار فعلی باز کند.
در حالی که LLMS مدرن در تولید متن ، درک و حتی استدلال پیچیده برتری دارد ، برای بسیاری از کارها باید با منابع و ابزارهای خارجی مانند پایگاه داده یا برنامه ها تعامل داشته باشند. تجهیز LLMS به ابزارهای خارجی-که در اصل API ها یا توابع آنها می توانند بنامیم-برای گسترش قابلیت های خود در برنامه های عملی و واقعی در دنیای واقعی بسیار مهم است.
با این حال ، روش های فعلی برای فعال کردن استفاده از ابزار با معاملات قابل توجهی روبرو هستند. یک رویکرد متداول شامل تنظیم دقیق LLM در نمونه هایی از استفاده از ابزار است. در حالی که این می تواند مدل را در فراخوانی ابزارهای خاص که در طول آموزش دیده می شود ، مهارت داشته باشد ، اما اغلب مدل را فقط به آن ابزارها محدود می کند. علاوه بر این ، فرایند تنظیم دقیق خود گاهی اوقات می تواند بر توانایی های استدلال عمومی LLM ، مانند زنجیره ای از فکر (COT) تأثیر منفی بگذارد ، و به طور بالقوه نقاط قوت اصلی مدل پایه را کاهش می دهد.
رویکرد جایگزین به یادگیری درون متن (ICL) متکی است ، جایی که LLM توضیحات مربوط به ابزارهای موجود و نمونه هایی از نحوه استفاده مستقیم از آنها را در فوری ارائه می دهد. این روش انعطاف پذیری را ارائه می دهد و به مدل امکان می دهد از ابزارهایی که قبلاً ندیده است استفاده کند. با این حال ، ساخت این سوابق پیچیده می تواند دست و پا گیر باشد ، و با رشد تعداد ابزارهای موجود ، کارایی مدل به میزان قابل توجهی کاهش می یابد و باعث می شود سناریوها با ابزارهای بزرگ و پویا کمتر عملی شوند.
همانطور که محققان در مقاله ای که زنجیره ای از ابزار را معرفی می کند ، یادآوری می کنند ، یک عامل LLM “باید بتواند مقدار زیادی از ابزارها را مدیریت کند و به طور کامل از موارد غیب در طول استدلال COT استفاده کند ، زیرا بسیاری از ابزارهای جدید ممکن است روزانه در سناریوهای برنامه در دنیای واقعی ظاهر شوند.”
Cotools با ترکیب هوشمندانه جنبه های تنظیم دقیق و درک معنایی ، جایگزین قانع کننده ای برای روشهای موجود ارائه می دهد در حالی که به طور مهم نگه داشتن اصلی LLM “یخ زده” را حفظ می کند-وزن های اصلی خود و قابلیت های استدلال قدرتمند دست نخورده باقی می ماند. Cotools به جای تنظیم دقیق کل مدل ، ماژول های سبک و تخصصی را که در طول فرآیند تولید خود در کنار LLM کار می کنند ، آموزش می دهد.
محققان می نویسند: “ایده اصلی Cotools ، بهره گیری از قابلیت های نمایندگی معنایی مدل های بنیاد یخ زده برای تعیین مکان برای تماس با ابزارها و ابزارهای فراخوانی است.”
در اصل ، Cotools به درک غنی تعبیه شده در بازنمایی های داخلی LLM ، که اغلب “حالت های پنهان” گفته می شود ، می پردازد که به عنوان مدل پردازش می شوند و باعث ایجاد نشانه های پاسخ می شوند.
چارچوب Cotools شامل سه مؤلفه اصلی است که به طور متوالی در طی فرایند استدلال LLM کار می کنند:
قاضی ابزار: از آنجا که LLM نشانه پاسخ خود را توسط توکن ایجاد می کند ، قاضی ابزار وضعیت پنهان مرتبط با پتانسیل بعدی را تجزیه و تحلیل می کند و تصمیم می گیرد که آیا فراخوانی یک ابزار در آن نقطه خاص در زنجیره استدلال مناسب است.
بازپرداخت ابزار: اگر قاضی تعیین کند ابزاری مورد نیاز است ، Retriever مناسب ترین ابزار را برای کار انتخاب می کند. Tool Retriever برای ایجاد تعبیه پرس و جو و مقایسه آن با ابزارهای موجود آموزش دیده است. این امر به آن اجازه می دهد تا به طور موثری از استخر ابزارهای موجود ، از جمله ابزارهای “غیب” (به عنوان مثال ، بخشی از داده های آموزش برای ماژول های Cotools نیست) به طور موثرترین ابزار از لحاظ معنایی مهمترین ابزار را انتخاب کند.
فراخوانی ابزار: پس از انتخاب بهترین ابزار ، Cotools از یک ICL استفاده می کند که نشان دهنده پر کردن پارامترهای ابزار بر اساس متن است. این استفاده هدفمند از ICL از ناکارآمدی اضافه کردن هزاران تظاهرات در سریع برای انتخاب ابزار اولیه جلوگیری می کند. پس از اجرای ابزار انتخاب شده ، نتیجه آن دوباره به نسل پاسخ LLM وارد می شود.
با جدا کردن تصمیم گیری (قاضی) و انتخاب (Retriever) بر اساس درک معنایی از پر کردن پارامتر (فراخوانی از طریق ICL متمرکز) ، Cotools ضمن حفظ توانایی های اصلی LLM ، حتی با ابزارهای عظیم به کارآیی می رسد و امکان استفاده انعطاف پذیر از ابزارهای جدید را فراهم می کند. با این حال ، از آنجا که cotools نیاز به دسترسی به حالت های پنهان مدل دارد ، فقط می توان به جای مدلهای خصوصی مانند GPT-4O و کلود ، در مدل های با وزن باز مانند Llama و Mistral اعمال شد.

محققان Cotools را در دو سناریوی برنامه مجزا ارزیابی کردند: استدلال عددی با استفاده از ابزارهای حسابی و پاسخ به سؤال مبتنی بر دانش (KBQA) ، که نیاز به بازیابی از پایگاه های دانش دارد.
در معیارهای حسابی مانند GSM8K-XL (با استفاده از عملیات اساسی) و FuncaQA (با استفاده از توابع پیچیده تر) ، cotools اعمال شده برای LLAMA2-7B عملکرد قابل مقایسه با ChatGPT در GSM8K-XL و کمی عملکردی با روش یکی دیگر از ابزار یادگیری ، Toolkengpt ، On Funcqa Variants را به دست آورد. نتایج برجسته می شود که COTOOL ها به طور موثری قابلیت های مدل بنیاد اساسی را افزایش می دهند.
برای کارهای KBQA ، آزمایش شده بر روی مجموعه داده های کامل و یک مجموعه داده تازه ساخته شده SimpleToolQuestions (Stquestions) که دارای یک استخر ابزار بسیار بزرگ (1836 ابزار ، از جمله 837 غافل در مجموعه آزمون) است ، Cotools دقت انتخاب ابزار برتر را نشان داد. این امر به ویژه در سناریوها با شماره ابزار عظیم و هنگام برخورد با ابزارهای غیب ، از اطلاعات توصیفی برای بازیابی مؤثر که در آن روش هایی که صرفاً به بازنمایی ابزار آموزش دیده متکی هستند ، عالی است. این آزمایشات همچنین نشان داد که Cotools با وجود داده های آموزش با کیفیت پایین ، عملکرد قوی را حفظ کرده است.
پیامدهای شرکت
زنجیره ای از ابزار یک جهت امیدوارکننده برای ساختن عوامل عملی تر و قدرتمند LLM در شرکت ارائه می دهد. این امر به ویژه مفید است زیرا استانداردهای جدید مانند پروتکل زمینه مدل (MCP) توسعه دهندگان را قادر می سازد تا ابزارها و منابع خارجی را به راحتی در برنامه های خود ادغام کنند. شرکت ها به طور بالقوه می توانند عوامل را مستقر کنند که با API های داخلی یا خارجی جدید سازگار هستند و با حداقل سربار بازآموزی عمل می کنند.
اتکا به این چارچوب به درک معنایی از طریق حالتهای پنهان امکان انتخاب ابزار ظریف و دقیق را فراهم می کند ، که می تواند منجر به دستیاران مطمئن تر هوش مصنوعی در کارهایی شود که نیاز به تعامل با منابع و سیستم های اطلاعاتی متنوع دارند.
Mengsong Wu ، نویسنده اصلی مقاله Cotools و محقق یادگیری ماشین در دانشگاه Soochow ، به VentureBeat گفت: “Cotools راه تجهیز LLMS به ابزارهای جدید جدید را به روشی ساده بررسی می کند.” “این می تواند برای ایجاد یک عامل هوش مصنوعی شخصی با MCP و انجام استدلال پیچیده با ابزارهای علمی استفاده شود.”
با این حال ، وو همچنین خاطرنشان کرد که آنها تاکنون فقط کارهای اولیه اکتشافی را انجام داده اند. وو گفت: “برای استفاده از آن در یک محیط در دنیای واقعی ، هنوز هم باید تعادل بین هزینه تنظیم دقیق و کارآیی دعوت ابزار عمومی پیدا کنید.”
محققان کد آموزش قاضی و ماژول های Retriever را در GitHub منتشر کرده اند.
محققان می نویسند: “ما معتقدیم كه چارچوب عامل یادگیری ابزار ایده آل ما مبتنی بر LLM های منجمد با روش تحقق عملی آن می تواند در برنامه های دنیای واقعی مفید باشد و حتی پیشرفت بیشتری از یادگیری ابزار را انجام دهد.”
ارسال پاسخ