راه اندازی هوش مصنوعی آموزش دیده اخلاقی ، پلییاس مدلهای استدلال کوچک جدید را بهینه می کند که برای RAG با استنادهای داخلی بهینه شده است
راه اندازی هوش مصنوعی آموزش دیده اخلاقی ، پلییاس مدلهای استدلال کوچک جدید را بهینه می کند که برای RAG با استنادهای داخلی بهینه شده است

راه اندازی هوش مصنوعی آموزش دیده اخلاقی ، پلییاس مدلهای استدلال کوچک جدید را بهینه می کند که برای RAG با استنادهای داخلی بهینه شده است

به گزارش سرویس تازه های دنیای فناوری وبسایت اخبار تکنولوژی تک فاکس،

برای آخرین به روزرسانی ها و مطالب اختصاصی در مورد پوشش هوش مصنوعی پیشرو در صنعت ، به خبرنامه های روزانه و هفتگی ما بپیوندید. بیشتر بدانید


پلییاس ، راه اندازی AI فرانسه ، اواخر سال گذشته با راه اندازی خانواده Pleias 1.0 با آموزش اخلاقی خود Pleias 1.0 از مدلهای زبان کوچک ، امواج ساخت.

اکنون این شرکت از انتشار دو مدل استدلال در مقیاس کوچک منبع باز که بطور خاص برای تولید بازیابی (RAG) ، سنتز استناد و خروجی چند زبانه ساختاری طراحی شده است ، اعلام کرده است.

این پرتاب شامل دو مدل اصلی-Pleias-RAG-350m و Pleias-RAG-1B است-هر یک در قالب GGUF بهینه سازی شده CPU نیز موجود است و در مجموع چهار نوع آماده استقرار را ایجاد می کند.

همه آنها مبتنی بر Pleias 1.0 هستند و می توانند به طور مستقل یا در رابطه با سایر LLM ها استفاده شوند که سازمان ممکن است از قبل یا برنامه ریزی برای استقرار داشته باشد. به نظر می رسد همه تحت مجوز منبع باز Apache 2.0 مجاز هستند ، به این معنی که آنها هستند واجد شرایط برای سازمانها برای استفاده ، اصلاح و استقرار برای موارد استفاده تجاری.

Rag ، همانطور که شما به یاد می آورید ، تکنیک بسیار مورد استفاده ای است که شرکت ها و سازمان ها می توانند برای قلاب یک مدل بزرگ زبان AI (LLM) مانند GPT-4O OpenAi ، Google’s Gemini 2.5 Flash ، Flash Anthropic’s Claude 3.7 یا دستور Cohere-A ، یا گزینه های منبع باز مانند Llama 4 و Deepseek Bases to Excerges Bases ، مستقر شوند.

این امر اغلب برای بنگاه هایی که می خواهند چت بابات و سایر برنامه های هوش مصنوعی ایجاد کنند که خط مشی های داخلی یا کاتالوگ محصول آنها را ارجاع دهند ، ضروری است (یک گزینه جایگزین ، باعث می شود یک زمینه طولانی LLM با تمام اطلاعات لازم ، برای موارد استفاده سازمانی مناسب نباشد که در آن هزینه های امنیتی و برای هرگونه هزینه انتقال نگران کننده باشد).

خانواده Pleias-Rag Model آخرین تلاش برای ایجاد شکاف بین دقت و کارآیی در مدلهای زبان کوچک است.

این مدل ها با هدف شرکت ها ، توسعه دهندگان و محققانی که به دنبال گزینه های مقرون به صرفه برای مدل های زبان در مقیاس بزرگ هستند بدون به خطر انداختن قابلیت ردیابی ، قابلیت های چند زبانه یا گردش کار استدلال ساختاری هستند.

پایگاه کاربری هدف در واقع قاره خانگی Pleias در اروپا است ، همانطور که یکی از بنیانگذاران الکساندر دوریا از طریق پیام مستقیم در شبکه اجتماعی X به VentureBeat گفت:

“انگیزه اصلی مشکل مقیاس بندی برنامه های RAG در اروپا بوده است. بیشتر سازمان های خصوصی دارای GPU های کمی هستند (ممکن است تغییر کرده باشد اما چندی پیش کمتر از 2 ٪ از کل (NVIDIA) H100 (GPU) در اروپا بوده است.

SLM ها طی یک سال گذشته به طور قابل توجهی پیشرفت کرده اند ، اما آنها اغلب به عنوان “مینی چتات” تصور می شوند و ما از نظر درک منبع و کیفیت تولید متن ، قطره قابل توجهی از عملکرد را در زبانهای غیر انگلیسی مشاهده کرده ایم. بنابراین ما از رسیدن به اکثر اهداف خود راضی شده ایم:

  • یک جایگزین واقعی برای مدل های 7-8B برای RAG حتی در CPU و سایر Infras های محدود.
  • مدل های کاملاً قابل اثبات با پشتیبانی استناد.
  • حفظ عملکرد زبان اروپایی. “

با این حال ، البته مدل هایی که تحت مجوز Apache 2.0 منبع باز هستند به این معنی است که هر کسی می تواند آنها را آزادانه در هر نقطه از جهان استفاده کند و از آنها استفاده کند.

متمرکز بر پایه گذاری ، استناد و حقایق

یکی از ویژگی های اصلی مدل های جدید Pleias-Rag پشتیبانی بومی آنها برای استناد به منبع با نقل قول های تحت اللفظی است که کاملاً در فرآیند استنباط مدل ادغام شده است.

بر خلاف روشهای استناد به تعقیب و گریز یا خطوط لوله خارجی ، مدل های Pleias-Rag با استفاده از یک نحو با الهام از قالب مرجع ویکی پدیا ، استناد را مستقیماً تولید می کنند.

این رویکرد ضمن حفظ تأیید ، قطعه های استناد به استناد کوتاه تر و قابل خواندن را امکان پذیر می کند.

استناد به زمینی نقش عملکردی در تنظیمات تنظیم شده دارد.

برای بخش هایی مانند مراقبت های بهداشتی ، حقوقی و دارایی-جایی که تصمیم گیری باید مستند و قابل ردیابی باشد-این منابع داخلی مسیری مستقیم برای قابلیت حرکات ارائه می دهند. پلییاس این انتخاب طراحی را به عنوان یک ضرورت اخلاقی قرار می دهد و با افزایش خواسته های نظارتی برای هوش مصنوعی قابل توضیح ، هماهنگ است.

Proto Appactic؟

مدل های Pleias-Rag به عنوان “پروتئین آژانس” توصیف می شوند-آنها می توانند به طور مستقل ارزیابی کنند که آیا یک پرس و جو قابل درک است ، تعیین می کند که آیا این بی اهمیت است یا پیچیده است و تصمیم می گیرد که بر اساس کفایت منبع پاسخ ، اصلاح یا رد شود.

خروجی ساختاری آنها شامل گزارش های تجزیه و تحلیل زبان ، پرس و جو و تجزیه و تحلیل منبع و یک پاسخ استدلال است.

علی رغم اندازه نسبتاً کوچک آنها (Pleias-RAG-350M فقط 350 میلیون پارامتر دارد) این مدل ها رفتاری را نشان می دهند که به طور سنتی با سیستم های بزرگتر و عامل همراه است.

به گفته پلییاس ، این قابلیت ها از یک خط لوله تخصصی آموزش میانی ناشی می شود که تولید داده های مصنوعی را با استدلال های تکراری مخلوط می کند.

Pleias-RAG-350m به صراحت برای محیط های محدود طراحی شده است. این عملکرد در CPU های استاندارد ، از جمله زیرساخت های کلاس موبایل عملکرد خوبی دارد.

طبق معیارهای داخلی ، نسخه GGUF غیرقابل قبول ، تقریباً 20 ثانیه در تنظیمات RAM 8 گیگابایتی ، خروجی های استدلال کاملی را تولید می کند. ردپای کوچک آن آن را در یک طاقچه با رقبای بسیار کمی مانند Qwen-0.5 و Smollm قرار می دهد ، اما با تأکید بسیار قوی تر بر سنتز منبع ساختاری.

عملکرد رقابتی در بین کارها و زبانها

در ارزیابی های معیار ، Pleias-RAG-350M و Pleias-RAG-1B از بیشتر مدل های با وزن باز تحت 4 میلیارد پارامتر ، از جمله LLAMA-3.1-8B و QWEN-2.5-7B ، در مورد کارهایی مانند Hotpotqa ، 2Wikimultihopqa و Musique استفاده می کنند.

این معیارهای RAG چند هاپ توانایی مدل را برای استدلال در چندین اسناد و شناسایی حواس پرتی ها-الزامات مشترک در سیستم های دانش درجه سازمانی آزمایش می کنند.

قدرت مدل ها به سناریوهای چند زبانه گسترش می یابد. در مجموعه های معیار ترجمه شده در سراسر فرانسوی ، آلمانی ، اسپانیایی و ایتالیایی ، مدل های Pleias تخریب ناچیز در عملکرد را نشان می دهند.

این آنها را از سایر SLM ها جدا می کند ، که به طور معمول هنگام انجام سؤالات غیر انگلیسی ، عملکرد 10-35 ٪ را تجربه می کنند.

پشتیبانی چند زبانه ناشی از طراحی دقیق توکن ساز و آموزش مخالف مصنوعی است که شامل تمرینات سوئیچ زبان است. این مدل ها نه تنها زبان یک پرس و جو کاربر را تشخیص می دهند بلکه هدف این است که به همان زبان پاسخ دهند – یک ویژگی مهم برای استقرار جهانی.

علاوه بر این ، دوریا برجسته کرد که چگونه می توان از مدل ها برای تقویت عملکرد سایر مدلهای موجود استفاده کرد که یک شرکت ممکن است از قبل استفاده کند:

“ما تصور می کنیم که مدل هایی که در تنظیم ارکستراسیون مورد استفاده قرار می گیرند ، به خصوص از آنجا که هزینه محاسبه آنها کم است. نتایج بسیار جالبی در سمت ارزیابی: حتی مدل 350 متر در پاسخ های کاملاً متفاوت از پاسخ ها (متا) لاما و (Alibaba) Qwen در حال اجرا خوب بود. بنابراین وجود یک مکمل واقعی ما نسبت به خط لوله را نشان می دهیم.… “

دسترسی و مجوز را باز کنید

به گفته دوریا و یک مقاله فنی که به تفصیل آموزش خانواده Pleias-Rag می پردازد ، این مدل ها در مورد آنها آموزش داده شده است: “Common Corpus برای ایجاد مجموعه آموزش RAG (تمام 3 میلیون نمونه از آن آمده است). ما از Gemma (Google) در بالا برای تولید استدلال های مصنوعی استفاده کردیم زیرا مجوز اجازه استفاده مجدد/آموزش مجدد را می دهد.”

هر دو مدل تحت مجوز Apache 2.0 منتشر می شوند و امکان استفاده مجدد تجاری و ادغام در سیستم های بزرگتر را فراهم می کنند.

پلیس بر مناسب بودن مدل ها برای ادغام در دستیاران با اوج ، ابزارهای آموزشی و سیستم های پشتیبانی کاربر تأکید می کند. این شرکت همچنین یک کتابخانه API را برای ساده سازی قالب بندی ورودی-خروجی ساخت یافته برای توسعه دهندگان ارائه می دهد.

انتشار مدل ها بخشی از فشار وسیع تر توسط پلیا برای جابجایی LLM های کوچک به عنوان ابزاری برای استدلال ساختاری است ، نه به عنوان ربات های مکالمه ای با هدف کلی.

با استفاده از یک معماری حافظه خارجی و روشهای استناد به سیستماتیک ، سری Pleias-Rag یک جایگزین شفاف و قابل شنیدن برای مدلهای مرزی مات تر ارائه می دهد.

چشم انداز آینده

با نگاهی به آینده ، پلییاس قصد دارد توانایی های مدل ها را از طریق استفاده از متن طولانی تر ، ادغام جستجوی محکم تر و تنظیم شخصیت برای ارائه هویت سازگار گسترش دهد.

یادگیری تقویت نیز مورد بررسی قرار می گیرد ، به ویژه در حوزه هایی مانند دقت استناد ، که در آن می توان تأیید نقل قول را به صورت الگوریتمی اندازه گیری کرد.

این تیم همچنین برای پشتیبانی از ادغام های جستجوی هدفمند با استفاده از منابع قابل اعتماد به طور فعال با شرکایی مانند بنیاد ویکی مدیا همکاری می کند.

در نهایت ، استفاده فعلی از پیاده سازی های خاص RAG ، مدل ها و گردش کار ممکن است از بین برود زیرا مدل های پیشرفته تر AI آموزش دیده و مستقر می شوند ، آنهایی که شامل استفاده از ابزار Rag و عامل به صورت بومی هستند. همانطور که دوریا از طریق DM به VentureBeat گفت:

طولانی مدت ، اعتقاد من این است که هم خط لوله Rag Classic و هم مدل های زمینه طولانی توسط عوامل جستجو مختل می شوند. ما شروع به حرکت در این راستا کرده ایم: به همین دلیل این مدل از قبل به بسیاری از ویژگی هایی که در حال حاضر در برنامه های RAG بیرونی شده اند (اصلاح پرس و جو ، تجدید نظر و غیره) مجهز شده است. ما بدیهی است که هدف ما این است که به طور مستقیم و ظرفیت های جستجو و ظرفیت های پردازش منبع را مستقیماً در خود مدل طی کنیم. محکومیت من این است که RAG به شکلی ناپدید می شود زیرا توسط مدل های عامل قادر به کارگردانی گردش کار خود می شود.

با استفاده از Pleias-RAG-350m و 1B ، این شرکت شرط می بندد که مدل های کوچک-هنگامی که با داربست استدلال قوی و خروجی های قابل اثبات جفت می شوند-می توانند با همتایان بسیار بزرگتر ، به ویژه در استقرار چند زبانه و محدود به زیرساخت ها رقابت کنند.