برای آخرین به روزرسانی ها و مطالب اختصاصی در مورد پوشش هوش مصنوعی پیشرو در صنعت ، به خبرنامه های روزانه و هفتگی ما بپیوندید. بیشتر بدانید
هوش مصنوعی با سرعت حیرت انگیز تکامل یافته است. آنچه که فقط چند سال پیش مانند داستان های علمی به نظر می رسید ، اکنون یک واقعیت غیرقابل انکار است. در سال 2017 ، شرکت من یک مرکز عالی AI را راه اندازی کرد. AI مطمئناً در تجزیه و تحلیل پیش بینی بهتر می شد و بسیاری از الگوریتم های یادگیری ماشین (ML) برای تشخیص صدا ، تشخیص اسپم ، بررسی طلسم (و سایر برنامه ها) مورد استفاده قرار می گرفتند – اما زود بود. ما در آن زمان اعتقاد داشتیم که فقط در اولین بازی بازی هوش مصنوعی بودیم.
ورود GPT-3 و به ویژه GPT 3.5-که برای استفاده مکالمه تنظیم شده بود و به عنوان پایه ای برای اولین بار در نوامبر 2022 خدمت می کرد-یک نقطه عطف چشمگیر بود ، اکنون برای همیشه به عنوان “لحظه چتپ” به یاد می آورد.
از آن زمان ، انفجار قابلیت های هوش مصنوعی از صدها شرکت رخ داده است. در مارس 2023 Openai GPT-4 را منتشر کرد ، که قول “جرقه های AGI” (هوش عمومی مصنوعی) را داد. در آن زمان ، مشخص بود که ما فراتر از اولین کار بودیم. اکنون ، احساس می شود که ما در قسمت نهایی یک ورزش کاملاً متفاوت قرار داریم.
شعله agi
دو سال به بعد ، شعله AGI شروع به ظاهر می شود.
در یک قسمت اخیر از پادکست Hard Fork ، Dario Amodei – که یک دهه در صنعت هوش مصنوعی بوده است ، قبلاً به عنوان VP تحقیق در Openai و اکنون به عنوان مدیرعامل Anthropic – گفت: 70 تا 80 ٪ احتمال وجود دارد که ما تعداد بسیار زیادی از سیستم های AI را داشته باشیم که تقریباً قبل از همه چیز قبل از پایان همه چیز قبل از پایان دهه ها ، بسیار باهوش تر است.
شواهد این پیش بینی واضح تر می شود. اواخر تابستان گذشته ، Openai O1 را راه اندازی کرد – اولین “مدل استدلال”. آنها از آن زمان O3 را منتشر کرده اند ، و سایر شرکت ها مدلهای استدلال خود را از جمله Google و معروف ، Deepseek منتشر کرده اند. استدلال ها از زنجیره ای از فکر (COT) استفاده می کنند و وظایف پیچیده را در زمان اجرا در چندین مرحله منطقی تجزیه می کنند ، دقیقاً همانطور که یک انسان ممکن است به یک کار پیچیده نزدیک شود. مأمورین پیشرفته هوش مصنوعی از جمله تحقیقات عمیق OpenAi و دانشمند AI Google اخیراً ظاهر شده اند و تغییرات عظیمی را در نحوه انجام تحقیقات انجام می دهند.
بر خلاف مدل های بزرگ زبان قبلی (LLM) که در درجه اول از داده های آموزش مطابقت دارند ، مدل های استدلال نشان دهنده یک تغییر اساسی از پیش بینی آماری به حل مسئله ساختار یافته است. این امر به هوش مصنوعی اجازه می دهد تا با مشکلات جدید فراتر از آموزش خود مقابله کند و استدلال واقعی را به جای تشخیص الگوی پیشرفته امکان پذیر می کند.
من اخیراً از تحقیقات عمیق برای یک پروژه استفاده کردم و از نقل قول آرتور سی کلارک یادآوری کردم: “هر فناوری به اندازه کافی پیشرفته از جادو قابل تشخیص نیست.” در پنج دقیقه ، این هوش مصنوعی چیزی را که 3 تا 4 روز به من می برد ، تولید کرد. عالی بود؟ نه. نزدیک بود؟ بله ، خیلی این عوامل به سرعت واقعاً جادویی و تحول آمیز می شوند و جزو اولین عوامل بسیار قدرتمند هستند که به زودی به بازار عرضه می شوند.
متداول ترین تعریف AGI سیستمی است که قادر به انجام تقریباً هر کار شناختی است که انسان می تواند انجام دهد. این عوامل اولیه تغییر نشان می دهد که آمودی و دیگران که معتقدند ما به آن سطح از پیشرفت هوش مصنوعی نزدیک هستیم می تواند صحیح باشد و AGI به زودی در اینجا خواهد بود. این واقعیت منجر به تغییر زیادی خواهد شد و باعث می شود افراد و فرایندها به ترتیب کوتاه سازگار شوند.
اما آیا واقعاً AGI است؟
سناریوهای مختلفی وجود دارد که می تواند از ورود نزدیک به مدت زمان قدرتمند AI پدیدار شود. این چالش برانگیز و ترسناک است که ما واقعاً نمی دانیم این چگونه پیش خواهد رفت. نیویورک تایمز Ezra Klein ، ستون نویس ، در پادکست اخیر این موضوع را بیان کرد: “ما بدون اینکه واقعاً بدانیم این چیست یا چه معنی دارد ، به سمت AGI عجله می کنیم.” به عنوان مثال ، او ادعا می کند که تفکر انتقادی یا برنامه ریزی احتمالی کمی در مورد پیامدها وجود ندارد و به عنوان مثال ، این واقعاً برای اشتغال چه معنی دارد.
البته ، دیدگاه دیگری در مورد این آینده نامشخص و عدم برنامه ریزی وجود دارد ، همانطور که توسط گری مارکوس ، که معتقد است یادگیری عمیق به طور کلی (و LLM ها به طور خاص) منجر به AGI نمی شود ، وجود دارد. مارکوس با استناد به کاستی های قابل توجه در فناوری فعلی هوش مصنوعی ، آنچه را که از موقعیت کلین به دست می آید ، صادر کرد و اظهار داشت که به همان اندازه احتمال دارد که ما از AGI راه طولانی داشته باشیم.
مارکوس ممکن است صحیح باشد ، اما این ممکن است به سادگی یک اختلاف دانشگاهی در مورد معناشناسی باشد. Amodei به عنوان جایگزینی برای اصطلاح AGI ، به سادگی به “هوش مصنوعی قدرتمند” در ماشین های خود از وبلاگ Loving Grace اشاره می کند ، زیرا ایده ای مشابه را بدون تعریف نادرست ، “چمدان های علمی تخیلی و اعتیاد به مواد مخدره” منتقل می کند. آن را به آنچه می خواهید بنامید ، اما هوش مصنوعی فقط قدرتمندتر می شود.
بازی با آتش: آینده احتمالی هوش مصنوعی
در الف 60 دقیقه مصاحبه ، مدیر عامل Alphabet Sundar Pichai گفت که او از هوش مصنوعی به عنوان “عمیق ترین فناوری بشریت در حال کار است. عمیق تر از آتش ، برق یا هر کاری که در گذشته انجام داده ایم. ” مطمئناً با شدت رشد مباحث هوش مصنوعی متناسب است. آتش سوزی ، مانند هوش مصنوعی ، یک کشف در حال تغییر در جهان بود که به پیشرفت دامن زد اما خواستار کنترل برای جلوگیری از فاجعه بود. همان تعادل ظریف امروز در مورد هوش مصنوعی اعمال می شود.
کشف قدرت عظیم ، آتش با فعال کردن گرما ، پخت و پز ، متالورژی و صنعت ، تمدن را دگرگون کرد. اما در صورت عدم کنترل نیز نابودی را به همراه آورد. این که آیا هوش مصنوعی به بزرگترین متحد ما تبدیل می شود یا خنثیسازی ما بستگی به چگونگی مدیریت شعله های آن دارد. برای ادامه این استعاره ، سناریوهای مختلفی وجود دارد که به زودی می توانند از هوش مصنوعی حتی قدرتمندتر پدیدار شوند:
- شعله کنترل شده (اتوپیا): در این سناریو ، هوش مصنوعی به عنوان نیرویی برای رونق بشر از آن استفاده می شود. Skyrockets بهره وری ، مواد جدید کشف می شود ، داروهای شخصی برای همه در دسترس می شوند ، کالاها و خدمات به وفور و ارزان می شوند و افراد برای دنبال کردن کار و فعالیتهای معنادار تر از Drudgery رهایی می یابند. این سناریویی است که توسط بسیاری از شتاب دهنده ها قهرمان می شود ، که در آن AI پیشرفت می کند بدون اینکه ما را در هرج و مرج بیش از حد درگیر کند.
- آتش سوزی ناپایدار (چالش برانگیز): در اینجا ، AI مزایای غیرقابل انکار را به همراه دارد-انقلابی در تحقیق ، اتوماسیون ، قابلیت های جدید ، محصولات و حل مسئله. با این حال ، این مزایا به طور ناهموار توزیع می شود – در حالی که برخی از آنها شکوفا می شوند ، برخی دیگر با جابجایی روبرو می شوند ، شکاف های اقتصادی را گسترش می دهند و بر سیستم های اجتماعی تأکید می کنند. گسترش اطلاعات نادرست و خطرات امنیتی سوار شده است. در این سناریو ، جامعه در تلاش است تا وعده و خطرات را متعادل کند. می توان ادعا کرد که این توضیحات نزدیک به واقعیت امروزی است.
- آتش سوزی (Dystopia): مسیر سوم یکی از فاجعه ها است ، این احتمال که بیشتر با ارزیابی های به اصطلاح “Doomers” و “احتمال Doom” در ارتباط باشد. چه از طریق عواقب ناخواسته ، استقرار بی پروا یا سیستم های هوش مصنوعی که فراتر از کنترل انسان است ، اقدامات هوش مصنوعی بدون بررسی می شوند و حوادث اتفاق می افتد. اعتماد به حقیقت فرسایش می یابد. در بدترین حالت ، مارپیچ های هوش مصنوعی خارج از کنترل ، تهدید زندگی ، صنایع و کل نهادها.
در حالی که هر یک از این سناریوها قابل قبول به نظر می رسند ، ناراحت کننده است که ما واقعاً نمی دانیم که احتمال کدام یک است ، به خصوص که جدول زمانی می تواند کوتاه باشد. ما می توانیم علائم اولیه هر یک را ببینیم: اتوماسیون AI محور افزایش بهره وری ، اطلاعات غلط که در مقیاس گسترش می یابد ، اعتماد و نگرانی از مدلهای متمایز که در برابر نگهبان خود مقاومت می کنند ، از بین می برند. هر سناریو باعث اقتباس های خاص خود برای افراد ، مشاغل ، دولت ها و جامعه می شود.
عدم وضوح ما در مسیر تأثیر هوش مصنوعی نشان می دهد که برخی از ترکیب هر سه آینده اجتناب ناپذیر است. ظهور هوش مصنوعی منجر به پارادوکس خواهد شد و در حالی که عواقب ناخواسته ای به همراه دارد ، باعث رفاه می شود. پیشرفت های شگفت انگیز مانند حوادث رخ خواهد داد. برخی از زمینه های جدید با امکانات و چشم اندازهای شغلی ظاهر می شوند ، در حالی که سایر استال های اقتصاد به ورشکستگی محو می شوند.
ما ممکن است همه پاسخ ها را نداشته باشیم ، اما آینده هوش مصنوعی قدرتمند و تأثیر آن بر بشریت اکنون نوشته شده است. آنچه در اجلاس اکشن اخیر پاریس AI دیدیم ، طرز فکر امید به بهترین ها بود ، که این یک استراتژی هوشمندانه نیست. دولت ها ، مشاغل و افراد باید قبل از شکل گیری ما ، مسیر AI را شکل دهند. آینده هوش مصنوعی تنها با فناوری مشخص نمی شود ، اما با انتخاب جمعی که در مورد نحوه استقرار آن انجام می دهیم.
گری گروسمن EVP از تمرین فناوری در ادلمن است.
ارسال پاسخ