برای آخرین به روزرسانی ها و مطالب اختصاصی در مورد پوشش هوش مصنوعی پیشرو در صنعت ، به خبرنامه های روزانه و هفتگی ما بپیوندید. بیشتر بدانید
Deep Cogito ، یک راه اندازی تحقیقات جدید AI مستقر در سانفرانسیسکو ، رسماً از Stealth Today با Cogito ظاهر شد V1 ، یک خط جدید از مدل های بزرگ زبان منبع باز (LLMS) از Meta's Llama 3.2 تنظیم شده و مجهز به قابلیت های استدلال ترکیبی-توانایی پاسخ سریع و بلافاصله ، یا “خودکشی” مانند سری “O” Openai و Deepseek R1 است.
این شرکت قصد دارد مرزهای هوش مصنوعی را فراتر از محدودیت های فعلی دولت-انسان با فعال کردن مدل ها برای تصحیح و درونی کردن استراتژی های استدلال بهبود یافته خود قرار دهد. این در نهایت در تلاش برای توسعه Superintelligence – هوشمندتر از همه انسانها در همه حوزه ها است – با این حال این شرکت می گوید: “همه مدل هایی که ما ایجاد می کنیم باز شده است.”
مدیرعامل و بنیانگذار Deep Cogito ، Drishan Arora-مهندس ارشد ارشد نرم افزار در Google که می گوید او الگوی بزرگ الگوی زبان (LLM) را برای محصول جستجوی تولیدی گوگل رهبری می کند-تاکنون در یک پست در X گفت: “قوی ترین مدل های باز در مقیاس خود هستند-از جمله آنهایی که از Llama ، Deepseek و Qwen”.
ترکیب مدل اولیه شامل پنج اندازه پایه است: 3 میلیارد ، 8 میلیارد ، 14 میلیارد ، 32 میلیارد و 70 میلیارد پارامتر ، که هم اکنون در کد AI به اشتراک گذاری چهره در آغوش گرفتن جامعه ، اولاما و از طریق رابط های برنامه نویسی برنامه (API) در آتش بازی و با هم هوش مصنوعی موجود است.
آنها تحت شرایط صدور مجوز LLAMA در دسترس هستند که امکان استفاده تجاری را فراهم می کند-بنابراین شرکت های شخص ثالث می توانند آنها را در محصولات پولی کار کنند-حداکثر 700 میلیون کاربر ماهانه ، در این مرحله آنها باید مجوز پولی را از متا بدست آورند.
این شرکت قصد دارد در ماه های آینده مدلهای حتی بزرگتر – حداکثر 671 میلیارد پارامتر – را منتشر کند.
Arora رویکرد آموزش شرکت ، تقطیر و تقویت تکرار شده (IDA) را به عنوان یک جایگزین جدید برای یادگیری سنتی تقویت از بازخورد انسان (RLHF) یا تقطیر معلم مدل توصیف می کند.
ایده اصلی IDA این است که محاسبات بیشتری را برای یک مدل برای تولید راه حل های بهبود یافته اختصاص دهد ، سپس فرآیند استدلال بهبود یافته را در پارامترهای خود مدل تقطیر کنید – به طور مؤثر یک حلقه بازخورد برای رشد توانایی ایجاد کنید. Arora این رویکرد را به استراتژی بازی Google Alphago ، که به زبان طبیعی اعمال می شود ، تشبیه می کند.
مدل های Cogito از طریق بغل کردن Face و Ollama ، یا از طریق API های ارائه شده توسط آتش بازی AI و AI با هم ، برای بارگیری در دسترس هستند. هر مدل از هر دو حالت استاندارد برای پاسخ مستقیم و یک حالت استدلال پشتیبانی می کند ، جایی که مدل قبل از پاسخگویی در داخل کشور منعکس می شود.
معیارها و ارزیابی ها
این شرکت مجموعه گسترده ای از نتایج ارزیابی را با مقایسه مدل های Cogito با همسالان منبع باز در سراسر دانش عمومی ، استدلال ریاضی و کارهای چند زبانه به اشتراک گذاشت. نکات برجسته شامل:
- Cogito 3B (استاندارد) بهتر عمل کردن Llama 3.2 3b در MMLU 6.7 درصد (65.4 ٪ در مقابل 58.7 ٪) و در Hellaswag با 18.8 امتیاز (81.1 ٪ در مقابل 62.3 ٪).
- در حالت استدلالبا cogito 3b 72.6 ٪ در MMLU و 84.2 ٪ در قوس ، بیش از عملکرد حالت استاندارد خود و نشان دادن تأثیر خود بازتاب مبتنی بر IDA است.
- Cogito 8b (استاندارد) در MMLU 80.5 ٪ ، بهتر است با 3.1 8b تماس بگیرید با 12.8 امتیاز. این کشور همچنین با بیش از 11 امتیاز در MMLU-PRO هدایت می شود و 88.7 ٪ در ARC به دست می آید.
- در حالت استدلالبا cogito 8b 83.1 ٪ در MMLU و 92.0 ٪ در قوس به دست می آید. پیشی می گیرد Deepseek R1 Distill 8b تقریباً در هر گروه به جز معیار ریاضی ، جایی که Cogito به طور قابل توجهی پایین تر است (60.2 ٪ در مقابل 80.6 ٪).
- Cogito 14b و 32b مدل ها بهتر است qwen2.5 همتایان با حدود 2-3 درصد امتیاز در معیارهای کل ، با Cogito 32b (استدلال) رسیدن به 90.2 ٪ در MMLU و 91.8 ٪ در معیار ریاضی.
- Cogito 70B (استاندارد) بهتر عمل کردن با 3.3 70B تماس بگیرید در MMLU با 6.4 امتیاز (91.7 ٪ در مقابل 85.3 ٪) و بیش از Llama 4 Scout 109b در نمرات معیار کل (54.5 ٪ در مقابل 53.3 ٪).
- در مقابل Deepseek R1 Distill 70Bبا Cogito 70b (استدلال) نتایج قوی تر در معیارهای عمومی و چند زبانه ، با 91.0 ٪ قابل توجه در MMLU و 92.7 ٪ در MGSM.
مدل های Cogito به طور کلی بالاترین عملکرد خود را در حالت استدلال نشان می دهند ، اگرچه برخی از معاملات به ویژه در ریاضیات-به ویژه در ریاضیات ظاهر می شوند.
به عنوان مثال ، در حالی که Cogito 70B (استاندارد) مطابقت دارد یا کمی از همسالان در ریاضیات و GSM8K فراتر می رود ، Cogito 70B (استدلال) Deepseek R1 را در ریاضی با بیش از پنج درصد (83.3 ٪ در مقابل 89.0 ٪) دنبال می کند.
ابزار فراخوانی داخلی
علاوه بر معیارهای عمومی ، Deep Cogito مدل های خود را در مورد عملکرد ابزار بومی ارزیابی کرد-اولویت رو به رشد برای عوامل و سیستم های یکپارچه API.
- Cogito 3B از چهار وظیفه تماس ابزار به صورت بومی (ساده ، موازی ، چندگانه و موازی) پشتیبانی می کند ، در حالی که Llama 3.2 3b از تماس ابزار پشتیبانی نمی کند.
- Cogito 3B در تماس های ابزار ساده 92.8 ٪ و بیش از 91 ٪ در تماس های ابزار چندگانه کسب می کند.
- Cogito 8B بیش از 89 ٪ در تمام انواع تماس ابزار ، به طور قابل توجهی بهتر است با 3.1 8b تماس بگیرید، که بین 35 تا 54 درصد است.
این پیشرفت ها نه تنها به مدل های معماری و آموزش مدل ، بلکه به آموزش خاص پس از آموزش نیز نسبت داده می شود ، که بسیاری از مدل های پایه در حال حاضر فاقد آن هستند.
نگاه کردن
Deep Cogito قصد دارد مدلهای در مقیاس بزرگتر را در ماه های آینده منتشر کند ، از جمله انواع مخلوط های فوق در مقیاس پارامتر 109B ، 400B و 671B. این شرکت همچنین به روزرسانی پاسگاه های مدل فعلی خود را با آموزش های گسترده ادامه خواهد داد.
این شرکت روش IDA خود را به عنوان یک مسیر بلند مدت به سمت بهبود مقیاس پذیر قرار می دهد و وابستگی به مدلهای معلم انسان یا استاتیک را از بین می برد.
آروا تأکید می کند که در حالی که معیارهای عملکرد مهم هستند ، ابزار و سازگاری در دنیای واقعی آزمایش های واقعی برای این مدل ها است-و اینکه این شرکت فقط در آغاز آنچه که معتقد است منحنی مقیاس شیب دار است.
مشارکتهای تحقیقاتی و زیرساخت های عمیق Cogito شامل تیم هایی از بغل کردن Face ، Runpod ، Fireworks AI ، Together AI و Ollama است. همه مدل های منتشر شده منبع باز و هم اکنون در دسترس هستند.
ارسال پاسخ