برای آخرین به روزرسانی ها و مطالب اختصاصی در مورد پوشش هوش مصنوعی پیشرو در صنعت ، به خبرنامه های روزانه و هفتگی ما بپیوندید. بیشتر بدانید
همانطور که غول های فناوری اعلام می کنند که نسخه های هوش مصنوعی خود را باز می کنند – و حتی این کلمه را به نام خود قرار می دهند – اصطلاح یک بار خودی “منبع باز” به درون Zeitgeist مدرن پشت سر گذاشته است. در طی این زمان ناشایست که در آن اشتباه یک شرکت می تواند راحتی مردم را با یک دهه یا بیشتر با هوش مصنوعی به عقب برگرداند ، مفاهیم باز بودن و شفافیت به صورت ناخوشایند و گاه به طور نامحسوس به وجود می آید تا اعتماد ایجاد شود.
در عین حال ، با توجه به اینکه دولت جدید کاخ سفید رویکرد بیشتری برای تنظیم فنی انجام داده است ، خطوط نبرد ترسیم شده است-نوآوری در برابر مقررات و پیش بینی عواقب وخیم در صورت غالب بودن طرف “اشتباه”.
با این حال ، یک روش سوم وجود دارد که از طریق سایر امواج تغییرات تکنولوژیکی مورد آزمایش و اثبات قرار گرفته است. با توجه به اصول باز بودن و شفافیت ، همکاری منبع آزاد واقعی ، سرعت بیشتری از نوآوری را باز می کند ، حتی اگر این صنعت را قادر می سازد تا فناوری را توسعه دهد که بی طرفانه ، اخلاقی و سودمند برای جامعه باشد.
درک قدرت همکاری واقعی منبع باز
به عبارت ساده ، ویژگی های نرم افزاری منبع باز کد منبع آزاد را که می تواند برای اهداف تجاری و غیر تجاری قابل مشاهده ، اصلاح ، جدا شده ، تصویب و به اشتراک گذاشته شده باشد-و از نظر تاریخی ، در نوآوری در پرورش ، یادبود بوده است. به عنوان مثال ، عرضه های منبع باز Linux ، Apache ، MySQL و PHP ، اینترنت را همانطور که می دانیم ، رونمایی کردند.
اکنون ، با دموکراتیک کردن دسترسی به مدل های هوش مصنوعی ، داده ها ، پارامترها و ابزارهای هوش مصنوعی منبع باز ، جامعه می تواند یک بار دیگر به جای بازآفرینی مداوم چرخ ، یک بار دیگر نوآوری سریعتر را رها کند-به همین دلیل یک مطالعه اخیر IBM از 2،400 تصمیم گیرندگان ، علاقه فزاینده ای را برای استفاده از ابزارهای هوش مصنوعی منبع باز برای هدایت ROI نشان داد. در حالی که توسعه و نوآوری سریعتر در صدر لیست قرار داشت که در تعیین ROI در هوش مصنوعی قرار گرفت ، این تحقیقات همچنین تأیید کرد که پذیرش راه حل های باز ممکن است با زنده ماندن مالی بیشتر ارتباط داشته باشد.
به جای سودهای کوتاه مدت که به نفع شرکت های کمتری است ، هوش مصنوعی منبع باز از ایجاد برنامه های متنوع تر و متناسب تر در صنایع و دامنه ها دعوت می کند که در غیر این صورت ممکن است منابع لازم برای مدل های اختصاصی را نداشته باشد.
شاید از همه مهمتر ، شفافیت منبع باز امکان بررسی مستقل و حسابرسی رفتارها و اخلاق سیستم های هوش مصنوعی را فراهم می کند – و هنگامی که ما از علاقه و حرکت موجود در توده ها استفاده می کنیم ، آنها مشکلات و اشتباهاتی را که با Fiasco داده های Laion 5B انجام داده اند پیدا می کنند.
در این حالت ، جمعیت بیش از 1000 URL حاوی ماده مورد سوء استفاده جنسی از کودکان تأیید شده در داده هایی که مدل های تولید کننده AI مانند انتشار پایدار و میانی ژورنا را نشان می دهد-که تصاویر را از متن و تصویر ایجاد می کنند ، ریشه می گیرند و در بسیاری از ابزارها و برنامه های تولیدی آنلاین بنیادی هستند.
در حالی که این یافته باعث ایجاد یک قیام شد ، اگر این مجموعه داده بسته شده بود ، مانند سورا Openai یا جمینی گوگل ، عواقب آن می توانست به مراتب بدتر باشد. اگر هیجان انگیزترین ابزارهای ایجاد ویدیویی AI شروع به فریب دادن محتوای مزاحم می کند ، دشوار است که عکسبرداری را تصور کنید.
خوشبختانه ، ماهیت باز مجموعه داده های Laion 5B به جامعه این امکان را می دهد تا سازندگان خود را برای همکاری با سازمان دیده بان صنعت انگیزه دهد تا یک رفع و آزاد سازی مجدد 5B را پیدا کنند-که نمونه ای از این است که چرا شفافیت هوش مصنوعی منبع آزاد نه تنها به نفع کاربران است ، بلکه صنعت و سازندگانی که برای ایجاد اعتماد با مصرف کنندگان و عموم مردم تلاش می کنند.
خطر منابع باز در AI
در حالی که کد منبع به تنهایی به اشتراک گذاری نسبتاً آسان است ، سیستم های AI بسیار پیچیده تر از نرم افزار هستند. آنها به کد منبع سیستم و همچنین پارامترهای مدل ، مجموعه داده ها ، هایپرپارامترها ، کد منبع آموزش ، تولید تعداد تصادفی و چارچوب های نرم افزاری متکی هستند – و هر یک از این مؤلفه ها باید برای یک سیستم هوش مصنوعی به طور هماهنگ کار کنند تا به درستی کار کنند.
در میان نگرانی های مربوط به ایمنی در هوش مصنوعی ، این امر امری عادی شده است که بیان می کند یک نسخه آزاد یا منبع باز است. با این حال ، برای این دقیق ، مبتکران باید تمام قطعات این پازل را به اشتراک بگذارند تا سایر بازیکنان بتوانند خصوصیات سیستم AI را به طور کامل درک کنند ، تجزیه و تحلیل و ارزیابی کنند تا در نهایت تولید مثل ، اصلاح و گسترش قابلیت های خود باشند.
به عنوان مثال ، متا از Llama 3.1 405b به عنوان “اولین مدل AI منبع باز در سطح مرز” استفاده کرد ، اما فقط پارامترهای از پیش آموزش داده شده سیستم یا وزن و کمی نرم افزار را به اشتراک گذاشت. در حالی که این امر به کاربران امکان بارگیری و استفاده از مدل را در خواست می دهد ، مؤلفه های کلیدی مانند کد منبع و مجموعه داده ها بسته می شوند – که در پی اعلامیه مبنی بر اینکه متا پروفایل های BOT AI را به اتر تزریق می کند ، حتی اگر جلوی بررسی محتوا را برای دقت کند ، نگران کننده تر می شود.
برای عادلانه بودن ، آنچه مشترک است ، مطمئناً به جامعه کمک می کند. مدل های وزن باز انعطاف پذیری ، دسترسی ، نوآوری و سطح شفافیت را ارائه می دهند. تصمیم Deepseek برای منبع باز وزن خود ، گزارش های فنی خود را برای R1 منتشر کرده و استفاده از آن را آزاد می کند ، به عنوان مثال ، جامعه هوش مصنوعی را قادر به مطالعه و تأیید روش آن و بافتن آن در کار خود کرده است.
با این حال ، گمراه کننده است که یک منبع باز سیستم هوش مصنوعی را وقتی که هیچ کس نمی تواند به آن نگاه کند ، آزمایش و درک هر قطعه از معما را که در ایجاد آن وجود دارد ، آزمایش و درک کند.
این سوء استفاده بیش از این است که اعتماد عمومی را تهدید کند. این امر به جای توانمندسازی همه افراد جامعه برای همکاری ، ساخت و پیشرفت در مدل هایی مانند Llama X ، مبتکران را وادار می کند که از چنین سیستم های هوش مصنوعی استفاده کنند تا کورکورانه به مؤلفه هایی که مشترک نیستند اعتماد کنند.
در آغوش گرفتن چالش قبل از ما
از آنجا که خودروهای خودران در شهرهای بزرگ به خیابان ها می روند و سیستم های هوش مصنوعی به جراحان اتاق عمل کمک می کنند ، ما فقط در ابتدای اجازه دادن به این فناوری هستیم که چرخ ضرب المثل را بگیرد. این قول بسیار زیاد است ، همانطور که پتانسیل خطا نیز وجود دارد – به همین دلیل ما به اقدامات جدیدی از آنچه که در دنیای هوش مصنوعی قابل اعتماد بودن است ، نیاز داریم.
حتی به عنوان Anka Reuel و همکارانش در دانشگاه استنفورد اخیراً سعی در ایجاد چارچوب جدیدی برای معیارهای هوش مصنوعی برای ارزیابی چگونگی عملکرد مدل ها دارند ، به عنوان مثال ، بررسی این صنعت و عموم مردم هنوز کافی نیست. معیار نمی تواند این واقعیت را به خود اختصاص دهد که مجموعه داده های موجود در هسته سیستم های یادگیری دائما در حال تغییر هستند و معیارهای مناسب از مورد استفاده تا مورد استفاده متفاوت است. این حوزه همچنین هنوز فاقد یک زبان ریاضی غنی برای توصیف قابلیت ها و محدودیت ها در هوش مصنوعی معاصر است.
با به اشتراک گذاشتن کل سیستم های هوش مصنوعی برای فعال کردن باز بودن و شفافیت به جای تکیه بر بررسی های ناکافی و پرداخت خدمات لب به کلمات کلیدی ، می توانیم همکاری بیشتری را پرورش داده و نوآوری را با هوش مصنوعی ایمن و اخلاقی توسعه دهیم.
در حالی که هوش مصنوعی منبع باز واقعی یک چارچوب اثبات شده برای دستیابی به این اهداف ارائه می دهد ، عدم شفافیت در صنعت وجود دارد. بدون رهبری جسورانه و همکاری شرکتهای فنی تا خودمختار ، این شکاف اطلاعات می تواند به اعتماد و پذیرش عمومی آسیب برساند. در آغوش باز بودن ، شفافیت و منبع باز فقط یک مدل تجاری قوی نیست – بلکه در مورد انتخاب بین آینده هوش مصنوعی است که به جای تعداد معدودی از همه به نفع همه است.
جیسون کورسو استاد دانشگاه میشیگان و بنیانگذار Voxel51 است.
ارسال پاسخ