برای آخرین به روزرسانی ها و مطالب اختصاصی در مورد پوشش هوش مصنوعی پیشرو در صنعت ، به خبرنامه های روزانه و هفتگی ما بپیوندید. بیشتر بدانید
Anthropic با راه اندازی Claude 3.7 Sonnet ، یک شوت هشدار دهنده به Openai ، Deepseek و کل صنعت هوش مصنوعی شلیک کرد ، مدلی که به کاربران کنترل بی سابقه ای می دهد تا قبل از ایجاد یک پاسخ ، یک “فکر” را صرف فکر کند. این نسخه ، در کنار اولین کد Claude ، یک عامل کدگذاری AI خط فرمان ، فشار تهاجمی Anthropic را به بازار AI Enterprise نشان می دهد-فشار که می تواند نحوه ساخت مشاغل نرم افزار و خودکار سازی کار را تغییر دهد.
سهام نمی تواند بیشتر باشد. ماه گذشته ، Deepseek دنیای فناوری را با یک مدل هوش مصنوعی که با توانایی های سیستم های آمریکایی با کسری از هزینه مطابقت داشت ، متحیر کرد و سهام NVIDIA را 17 ٪ کاهش داد و هشدارهایی را در مورد رهبری AI آمریکا افزایش داد. اکنون Anthropic شرط می بندد که کنترل دقیق بر استدلال هوش مصنوعی – نه فقط سرعت خام یا صرفه جویی در هزینه – به آن لبه می بخشد.
دایان پن ، که مدیریت محصول را برای تحقیق در انسان شناسی ، در مصاحبه ای با VentureBeat ، گفت: “ما فقط معتقدیم که استدلال یک بخش اصلی و مؤلفه اصلی یک هوش مصنوعی است ، نه یک چیز جداگانه که باید به طور جداگانه برای دسترسی به آنها بپردازید.” بشر وی گفت: “درست مانند انسان ، هوش مصنوعی باید پاسخ های سریع و تفکر پیچیده را انجام دهد. برای یک سوال ساده مانند “ساعت چند است؟” ، باید فوراً پاسخ دهد. اما برای کارهای پیچیده-مانند برنامه ریزی یک سفر دو هفته ای ایتالیا در حالی که نیازهای غذایی بدون گلوتن را تأمین می کند-به زمان پردازش گسترده تری نیاز دارد. “
وی افزود: “ما استدلال ، برنامه ریزی و تصحیح خود را به عنوان قابلیت های جداگانه نمی بینیم.” “بنابراین این اساساً روش ما برای بیان این تفاوت فلسفی است … در حالت ایده آل ، خود مدل باید تشخیص دهد که وقتی یک مشکل نیاز به تفکر فشرده تر دارد و به جای اینکه کاربران را ملزم به انتخاب صریح و استدلال های مختلف می کند ، تشخیص دهد.”

داده های معیار از دیدگاه بلندپروازانه Anthropic حمایت می کند. در حالت تفکر گسترده ، Claude 3.7 Sonnet به دقت 78.2 ٪ در کارهای استدلال در سطح فارغ التحصیل ، آخرین مدل های OpenAi را به چالش می کشد و از DeepSeek-R1 بهتر است.
اما معیارهای آشکارتر از برنامه های دنیای واقعی حاصل می شود. این مدل 81.2 ٪ در استفاده از ابزار با محوریت خرده فروشی نمره می دهد و پیشرفت های قابل توجهی در پیروی از دستورالعمل ها (93.2 ٪) نشان می دهد-مناطقی که رقبا یا تلاش کرده اند یا نتایج منتشر نکرده اند.
در حالی که Deepseek و Openai در معیارهای ریاضی سنتی پیش می روند ، رویکرد یکپارچه Claude 3.7 نشان می دهد که یک مدل واحد می تواند به طور موثری بین پاسخ های سریع و تجزیه و تحلیل عمیق تغییر کند ، به طور بالقوه نیاز به مشاغل برای حفظ سیستم های هوش مصنوعی جداگانه برای انواع مختلف کارها را از بین می برد.
چگونه هوش مصنوعی ترکیبی Anthropic می تواند محاسبات شرکت را تغییر شکل دهد
زمان انتشار بسیار مهم است. ظهور Deepseek ماه گذشته موج های شوک را از طریق سیلیکون ولی ارسال کرد و نشان داد که استدلال پیشرفته هوش مصنوعی می تواند با قدرت محاسباتی بسیار کمتری نسبت به آنچه قبلاً تصور می شد ، حاصل شود. این فرضیات اساسی در مورد هزینه های توسعه هوش مصنوعی و الزامات زیرساختی را به چالش کشید. هنگامی که Deepseek نتایج خود را منتشر کرد ، سهام Nvidia در یک روز 17 درصد کاهش یافت ، سرمایه گذاران ناگهان سؤال کردند که آیا تراشه های گران قیمت برای پیشرفته AI ضروری هستند.
برای مشاغل ، سهام نمی تواند بیشتر باشد. شرکت ها میلیون ها نفر را برای ادغام هوش مصنوعی در عملیات خود خرج می کنند و شرط می بندند که روی کدام رویکرد مسلط خواهد شد. مدل هیبریدی Anthropic یک مسیر میانه قانع کننده را ارائه می دهد: امکان تنظیم دقیق عملکرد هوش مصنوعی بر اساس کار مورد نظر ، از پاسخ های فوری خدمات مشتری گرفته تا تجزیه و تحلیل مالی پیچیده. این سیستم قیمت گذاری قبلی Anthropic 3 دلار در هر میلیون نشانه ورودی و 15 دلار در هر علامت خروجی را حتی با ویژگی های استدلال اضافه شده حفظ می کند.

مایکل گرستنهابر ، رئیس پلتفرم Anthropic توضیح داد: “مشتریان ما در تلاش هستند تا برای مشتریان خود به نتایج برسند.” “با استفاده از همان مدل و ایجاد همان مدل به روش های مختلف به شخصی مانند تامپسون رویترز اجازه می دهد تا تحقیقات حقوقی انجام دهد ، به شرکای برنامه نویسی ما مانند Cursor یا GitHub اجازه می دهد تا بتوانند برنامه ها را توسعه دهند و آن اهداف را برآورده کنند.”
رویکرد ترکیبی Anthropic هم یک تکامل فنی و هم یک قمار استراتژیک را نشان می دهد. در حالی که OpenAI مدلهای جداگانه ای را برای توانایی های مختلف حفظ می کند و Deepseek بر بهره وری از هزینه ها تمرکز دارد ، Anthropic در حال دنبال کردن سیستم های یکپارچه است که می تواند هم وظایف روتین و هم استدلال پیچیده را بر عهده بگیرد. این یک فلسفه است که می تواند نحوه استقرار مشاغل AI را تغییر دهد و نیاز به دستکاری چندین مدل تخصصی را از بین ببرد.
با کد Claude ملاقات کنید: دستیار جدید توسعه دهنده AI
Anthropic امروز نیز از Claude Code رونمایی کرد ، ابزاری برای خط فرمان که به توسعه دهندگان اجازه می دهد تا کارهای پیچیده مهندسی را مستقیماً به هوش مصنوعی واگذار کنند. این سیستم قبل از انجام تغییرات کد ، نیاز به تأیید انسان دارد و این نشان دهنده تمرکز رشد صنعت بر توسعه مسئول هوش مصنوعی است.

وی گفت: “شما در واقع هنوز باید تغییراتی را که کلود ایجاد می کند بپذیرید. شما یک داوری با دست روی چرخ () هستید. ” “اساساً نوعی لیست چک وجود دارد که شما باید اساساً برای انجام مدل برای انجام اقدامات خاص بپذیرید.”
این اطلاعیه ها در میان رقابت شدید در توسعه هوش مصنوعی به وجود می آیند. محققان استنفورد اخیراً یک مدل استدلال منبع باز را با قیمت کمتر از 50 دلار ایجاد کردند ، در حالی که مایکروسافت فقط مدل O3-Mini Openai را در Azure ادغام کرد. موفقیت Deepseek همچنین رویکردهای جدیدی را برای توسعه هوش مصنوعی تحریک کرده است ، در حالی که برخی از شرکت ها تکنیک های تقطیر مدل را بررسی می کنند که می تواند هزینه ها را بیشتر کند.

از Pokémon تا Enterprise: آزمایش اطلاعات جدید AI
پن پیشرفت چشمگیر در قابلیت های هوش مصنوعی را با یک مثال غیر منتظره نشان داد: “ما از نسخه های مختلف Claude خواسته ایم تا Pokémon را بازی کند … این نسخه باعث شده است تا شهر ورمیلیون ، چندین پوکمون را ضبط کند ، و حتی به سطح بالایی تبدیل شده است تا سطح بالایی داشته باشد بشر این پوکمون مناسب برای نبرد با رقبا است. “
پن توضیح داد: “من فکر می کنم شما خواهیم دید که ما همچنان به نوآوری و فشار بر کیفیت استدلال ادامه می دهیم ، به سمت چیزهایی مانند استدلال پویا فشار می آوریم.” “ما همیشه به جای چیزی جداگانه ، آن را به عنوان بخش اصلی اطلاعات فکر کرده ایم.”
آزمایش واقعی رویکرد انسان شناسی از اتخاذ شرکت خواهد بود. در حالی که بازی Pokémon ممکن است بی اهمیت به نظر برسد ، این نشان دهنده نوع نیازهای اطلاعاتی سازگار است: هوش مصنوعی که می تواند هر دو عملیات روتین و تصمیمات استراتژیک پیچیده را بدون جابجایی بین مدلهای تخصصی انجام دهد. نسخه های اولیه کلود نمی توانست فراتر از شهر شروع بازی باشد. آخرین نسخه استراتژی ها را ایجاد می کند ، منابع را مدیریت می کند و تصمیمات تاکتیکی می گیرد-قابلیت هایی که از پیچیدگی چالش های تجاری در دنیای واقعی آینه می شود.
برای مشتریان شرکت ، این می تواند به معنای تفاوت بین حفظ چندین سیستم هوش مصنوعی برای کارهای مختلف و استفاده از یک راه حل واحد و توانمندتر باشد. چند ماه آینده نشان می دهد که آیا شرط بندی Anthropic در استدلال یکپارچه هوش مصنوعی ، بازار شرکت را تغییر شکل می دهد یا فقط یک آزمایش دیگر در تکامل سریع صنعت خواهد بود.