بنگاههای هوش مصنوعی هشدار دادند که تهدید فوق العاده اطلاعاتی را محاسبه کنند یا خطر فرار از کنترل انسان را در معرض خطر قرار دهند | هوش مصنوعی (AI)
Max Tegmark, a professor of physics and AI researcher at MIT, said global AI safety regimes need to be agreed upon. Photograph: Horacio Villalobos/Corbis/Getty Images

بنگاههای هوش مصنوعی هشدار دادند که تهدید فوق العاده اطلاعاتی را محاسبه کنند یا خطر فرار از کنترل انسان را در معرض خطر قرار دهند | هوش مصنوعی (AI)

به گزارش سرویس بین الملل رسانه اخبار تکنولوژی روز دنیا تک فاکس،

از شرکتهای اطلاعاتی مصنوعی خواسته شده است که قبل از انتشار سیستم های قدرتمند ، محاسبات ایمنی را که زیربنای اولین آزمایش هسته ای رابرت اوپنهایمر بود ، تکرار کنند.

مکس تگارک ، یک صدای پیشرو در ایمنی هوش مصنوعی ، گفت که او محاسبات مشابه با فیزیکدان آمریکایی آرتور کامپتون را قبل از آزمایش تثلیث انجام داده است و احتمال 90 ٪ را پیدا کرده است که یک هوش مصنوعی بسیار پیشرفته تهدیدی وجود دارد.

دولت آمریكا در سال 1945 با تثلیث پیش رفت ، پس از اطمینان ، شانس ناپدیدی كوچك برای بمب اتمی كه جو را نادیده گرفته و بشریت را به خطر می اندازد ، وجود دارد.

در مقاله ای که توسط Tegmark و سه نفر از دانشجویان وی در انستیتوی فناوری ماساچوست (MIT) منتشر شده است ، آنها توصیه می کنند “ثابت کامپتون” را محاسبه کنید-که در مقاله به عنوان این احتمال وجود دارد که یک هوش مصنوعی همه قدرتمند از کنترل انسان فرار کند. در مصاحبه ای در سال 1959 با نویسنده مروارید آمریكا ، كامپتون گفت كه وی پس از محاسبه شانس یك واکنش همجوشی فراری ، این آزمایش را تأیید كرده است كه “کمی كمتر” از یك در سه میلیون است.

Tegmark گفت که بنگاه های هوش مصنوعی باید مسئولیت محاسبه دقیق این را که آیا فوق العاده هوش مصنوعی (ASI) – اصطلاحی برای یک سیستم نظری که از همه جنبه ها برتر از هوش انسانی است – مسئولیت پذیری را به عهده بگیرند.

وی گفت: “شرکت هایی که در حال ایجاد اطلاعات فوق العاده هستند ، باید ثابت کامپتون را نیز محاسبه کنند ، احتمال اینکه ما کنترل آن را از دست بدهیم.” “این کافی نیست که بگوییم” ما نسبت به آن احساس خوبی داریم “. آنها باید درصد را محاسبه کنند.”

Tegmark گفت که یک اجماع مداوم کامپتون که توسط چندین شرکت محاسبه می شود ، “اراده سیاسی” را برای توافق رژیم های ایمنی جهانی برای AIS ایجاد می کند.

Tegmark ، استاد فیزیک و محقق هوش مصنوعی در MIT ، همچنین بنیانگذار موسسه آینده زندگی است ، غیرانتفاعی که از توسعه ایمن هوش مصنوعی پشتیبانی می کند و در سال 2023 نامه ای آزاد منتشر می کند و خواستار مکث در ساخت هوش مصنوعی قدرتمند است. این نامه توسط بیش از 33،000 نفر از جمله الون مسک-حامی اولیه موسسه-و استیو وزنیاک ، بنیانگذار اپل امضا شده است.

این نامه ، ماهها پس از انتشار Chatgpt ، دوره جدیدی از توسعه هوش مصنوعی را آغاز کرد ، هشدار داد که آزمایشگاه های AI در “مسابقه خارج از کنترل” برای استقرار “ذهن های دیجیتالی همیشه قدرتمندتر” قفل شده اند که هیچ کس نمی تواند “درک ، پیش بینی یا قابل اعتماد کنترل” را انجام دهد.

Tegmark با گاردین به عنوان گروهی از متخصصان هوش مصنوعی از جمله متخصصان صنعت فناوری ، نمایندگان نهادهای ایمنی تحت حمایت دولت و دانشگاهیان رویکرد جدیدی را برای توسعه ایمن هوش مصنوعی ترسیم کردند.

گزارش اجماع سنگاپور در مورد اولویت های تحقیقات جهانی ایمنی AI توسط Tegmark ، دانشمند رایانه ای پیشرو در جهان یوشوا بنگیو و کارمندان در شرکتهای پیشرو در زمینه هوش مصنوعی مانند OpenAI و Google DeepMind تهیه شده است. این سه حوزه گسترده را برای اولویت بندی در تحقیقات ایمنی هوش مصنوعی تنظیم کرده است: توسعه روش هایی برای اندازه گیری تأثیر سیستم های هوش مصنوعی فعلی و آینده. مشخص کردن اینکه چگونه یک هوش مصنوعی باید برای دستیابی به آن یک سیستم رفتار و طراحی کند. و مدیریت و کنترل رفتار یک سیستم.

Tegmark با اشاره به این گزارش گفت: استدلال برای توسعه ایمن در هوش مصنوعی پس از جدیدترین اجلاس AI دولت در پاریس ، هنگامی که معاون رئیس جمهور ایالات متحده ، JD Vance ، گفت: آینده هوش مصنوعی “با دست زدن به ایمنی در مورد ایمنی” پیروز نمی شود.

Tegmark گفت: “واقعاً احساس می کند که غم و اندوه از پاریس رفته است و همکاری بین المللی به عقب برگشته است.”