برای آخرین به روزرسانی ها و مطالب اختصاصی در مورد پوشش هوش مصنوعی پیشرو در صنعت ، به خبرنامه های روزانه و هفتگی ما بپیوندید. بیشتر بدانید
پرچمدار جدید Meta Llama 4 Llama 4 به طور ناگهانی در آخر هفته ، با شرکت مادر فیس بوک ، اینستاگرام ، واتس اپ و Quest VR (از جمله سایر خدمات و محصولات) که یکی از آنها را نشان می دهد ، نه دو ، بلکه سه نسخه-همه با استفاده از معماری محبوب “مخلوط کنفرانس” و یک روش جدید آموزشی که شامل هایپرپرامتری است ، با عنوان “Mixture-Operts” که به عنوان متمایز هستند ، نشان می دهد.
همچنین ، هر سه مجهز به ویندوزهای زمینه عظیم هستند – میزان اطلاعاتی که یک مدل زبان AI می تواند در یک تبادل ورودی/خروجی با کاربر یا ابزار انجام دهد.
اما پس از اعلام غافلگیرانه و انتشار عمومی دو مدل از این مدل ها برای بارگیری و استفاده-پارامتر پایین Llama 4 Scout و Mid-Tier Llama 4 Maverick-روز شنبه ، پاسخ جامعه AI در رسانه های اجتماعی کمتر از تحسین بوده است.
Llama 4 باعث سردرگمی و انتقاد در بین کاربران هوش مصنوعی می شود
یک پست تأیید نشده در انجمن جامعه زبان زبان چینی آمریکای شمالی 1Point3Acres به سمت R/Localllama Subreddit در Reddit رفت و ادعا کرد که از یک محقق در سازمان Genai متا است که ادعا می کند این مدل در معیارهای شخص ثالث در داخل کشور عمل کرده است و آن رهبری شرکت “مجموعه های آزمایشی ترکیبی از معیارهای مختلف در طی فرآیند پس از آموزش ، با هدف تحقق اهداف در معیارهای مختلف و تولید نتیجه” قابل ارائه “.
این پست با اصالت خود با شک و تردید از جامعه روبرو شد و یک ایمیل VentureBeat به سخنگوی متا هنوز پاسخی دریافت نکرده است.
اما سایر کاربران بدون در نظر گرفتن دلایلی برای شک در معیارها پیدا کردند.
وی گفت: “در این مرحله ، من بسیار گمان می کنم که متا چیزی را در وزنهای آزاد شده به دست آورد … اگر اینگونه نباشد ، آنها باید هرکسی را که روی این کار کار کرده اند ، کنار بگذارند و سپس برای دستیابی به NOUS از پول استفاده کنند، “CTO_JUNIOR در X ، با اشاره به یک آزمایش کاربر مستقل که نشان دهنده عملکرد ضعیف Llama 4 Maverick (16 ٪) در معیار معروف به Aider Polyglot است ، اظهار داشت که یک مدل را از طریق 225 وظیفه کدگذاری اجرا می کند.
ارجاع 10 میلیون متا متن متاكه متا برای Llama 4 Scout ، دكتر هوش مصنوعی و نویسنده آندری بوركوف در بخشی از این مقاله نوشت: “متن 10 متر اعلام شده مجازی است زیرا هیچ مدلی در مورد TONDS بیش از 256k توکن آموزش نیافته است. این بدان معنی است که اگر بیش از 256 کیلومتر توکن را به آن بفرستید ، بیشتر اوقات با کیفیت پایین به دست می آورید.”
همچنین در Subreddit R/Localllama ، کاربر DR_KARMINSKI نوشت: “من از Llama-4 فوق العاده ناامید شده ام” و عملکرد ضعیف خود را در مقایسه با مدل V3 غیر فجرال Deepseek در کارهای کد نویسی مانند شبیه سازی توپ های پرشور در اطراف یک هپتاگون نشان داد.
پژوهشگر متا سابق و AI2 فعلی (انستیتوی هوش مصنوعی آلن) دانشمند ارشد تحقیقاتی ناتان لامبرت روز دوشنبه به وبلاگ Substack Interconnects خود رفت تا خاطرنشان کند که یک مقایسه معیار ارسال شده توسط متا با سایت بارگیری Llama از Llama 4 Maverick با سایر مدل ها ، بر اساس هزینه های مربوط به کار با استفاده از Llama 4 Maverick ، بر اساس هزینه های مربوط به Elmarena Lmarena Second-to-Head-to-Headeaed. متفاوت نسخه Llama 4 Maverick از خود این شرکت در دسترس عموم قرار داده است – یکی “بهینه سازی شده برای مکالمه”.
همانطور که لامبرت نوشت: “Sneaky. نتایج زیر جعلی است ، و این مهم برای جامعه متا است که مدلی را که برای ایجاد فشار اصلی بازاریابی خود استفاده می کردند ، منتشر نکنیم. ما بسیاری از مدل های باز را مشاهده کرده ایم که در حالی که عملکرد مدل را بر روی مهارت های مهم مانند ریاضی یا کد از بین می برند ، در chatbotarena به حداکثر می رسند.”
لامبرت در ادامه خاطرنشان کرد که در حالی که این مدل خاص در عرصه بازی بود “مخزن شهرت فنی انتشار به دلیل شخصیت آن نوجوان است ،” از جمله بسیاری از ایموجی ها و گفتگوی احساسی بی پروا ، “مدل واقعی سایر ارائه دهندگان میزبان کاملاً هوشمندانه است و لحن معقولی دارد!”
در پاسخ به تورنت انتقاد و اتهامات مربوط به پخت و پز معیار ، VP متا و رئیس Genai احمد الظل به X رفتند تا بیان کنند:
“ما خوشحالیم که Llama 4 را در تمام دستان خود شروع کردیم. ما در حال شنیدن نتایج بسیار خوبی هستیم که مردم با این مدل ها به دست می آورند.
گفته می شود ، ما همچنین گزارش هایی از کیفیت مختلط را در خدمات مختلف می شنویم. از آنجا که ما به محض آماده شدن مدل ها را رها کردیم ، انتظار داریم که چندین روز طول بکشد تا همه پیاده سازی های عمومی شماره گیری شوند. ما از طریق رفع اشکال و شرکای سوارکاری خود کار خواهیم کرد.
ما همچنین ادعاهایی را شنیده ایم که در مجموعه های آزمایشی آموزش دیده ایم – این به سادگی درست نیست و هرگز این کار را نمی کنیم. بهترین درک ما این است که افراد با کیفیت متغیر که می بینند به دلیل نیاز به تثبیت پیاده سازی ها است.
ما معتقدیم که مدل های Llama 4 پیشرفت چشمگیری دارند و ما مشتاقانه منتظر همکاری با جامعه هستیم تا ارزش آنها را باز کنیم.“
با این حال ، حتی این پاسخ با بسیاری از شکایات مربوط به عملکرد ضعیف و خواستار کسب اطلاعات بیشتر ، مانند مستندات فنی بیشتر که مدل های Llama 4 و فرایندهای آموزش آنها را تشریح می کند ، و همچنین سؤالات اضافی در مورد اینکه چرا این نسخه در مقایسه با تمام نسخه های قبلی Llama به ویژه با مسائل همراه بود ، برآورده شد.
همچنین روی پاشنه شماره دو در VP تحقیق متا در مورد ژول پینو ، که در سازمان تحقیقات اطلاعاتی مصنوعی بنیادی (FAIR) مجاورت کار کرده بود ، اعلام کرد و اعلام کرد که عزیمت وی از این شرکت در LinkedIn هفته گذشته با “چیزی جز تحسین و قدردانی عمیق برای هر یک از مدیران من”. پینو ، لازم به ذکر است که این هفته در آزادی خانواده Llama 4 Model این هفته را ترویج کرد.
Llama 4 همچنان با نتایج مختلط به سایر ارائه دهندگان استنباط گسترش می یابد ، اما به جرات می توان گفت انتشار اولیه خانواده مدل با جامعه هوش مصنوعی یک غوطه وری اسلامی نبوده است.
و متا للاماکون آینده در 29 آوریل ، اولین جشن و گردهمایی برای توسعه دهندگان شخص ثالث خانواده مدل ، احتمالاً علوفه زیادی برای بحث و گفتگو خواهد داشت. ما همه آن را ردیابی خواهیم کرد ، با ما همراه باشید.
ارسال پاسخ