برای آخرین به روزرسانی ها و مطالب اختصاصی در مورد پوشش هوش مصنوعی پیشرو در صنعت ، به خبرنامه های روزانه و هفتگی ما بپیوندید. بیشتر بدانید
اگر دیروز از chatbot grok ai chatbot ساخته شده در شبکه اجتماعی Elon Musk X سؤال کرده اید – چیزی بی نظیر ، مانند اینکه چرا نرم افزار شرکت به سختی جایگزین می شود – ممکن است شما در مورد ادعاهای “نسل کشی سفید” در آفریقای جنوبی (که عمدتاً شواهد وجود ندارد) به دلیل حملات به کشاورزان و آهنگ “Kill the Boer” دریافت کرده اید.
دقیقاً برند برای یک چت بابات ساخته شده در اطراف یک مدل زبان بزرگ “حداکثر در جستجوی حقیقت” (LLM) با همین نام ساخته نشده است. مماس غیر منتظره دقیقاً یک اشکال نبود ، اما این یک ویژگی هم نبود.
سازندگان Grok در راه اندازی هوش مصنوعی الون مسک XAI به تازگی به روزرسانی در مورد X (که اکنون Xai در اختیار دارد) به روزرسانی کرد و سعی کرد توضیح دهد که با این رفتار عجیب و غریب و سیاسی و نژادی اتفاق افتاده است ، گرچه از نظر مقصر یا جزئیات فنی واقعی آنچه اتفاق افتاده است ، بسیار دقیق نیست.
همانطور که حساب رسمی شرکت XAI ارسال شده است:
ما می خواهیم شما را در حادثه ای که دیروز با ربات پاسخ Grok در X اتفاق افتاد ، به روز کنیم. چه اتفاقی افتاد:
در تاریخ 14 ماه مه در حدود ساعت 3:15 صبح PST ، اصلاح غیرمجاز به سریع پاسخ Grok Bot در X انجام شد. این تغییر ، که Grok را به ارائه یک پاسخ خاص در مورد یک موضوع سیاسی سوق داد ، نقض سیاست های داخلی XAI و ارزش های اصلی. ما یک تحقیق کامل انجام داده ایم و در حال انجام اقدامات برای تقویت شفافیت و قابلیت اطمینان Grok هستیم.
کاری که می خواهیم بعد انجام دهیم:
- از همین حالا ، ما در حال انتشار پیام های سیستم Grok خود به طور آشکار در GitHub هستیم. عموم مردم می توانند آنها را مرور کنند و به هر تغییر سریع که ما در Grok ایجاد می کنیم ، بازخورد دهند. ما امیدواریم که این امر بتواند اعتماد شما به Grok را به عنوان یک هوش مصنوعی به دنبال حقیقت کمک کند.
- روند بررسی کد موجود ما برای تغییرات سریع در این واقعه دور شد. ما چک ها و اقدامات اضافی را برای اطمینان از اینكه كارمندان XAI قادر به اصلاح سریع بدون بررسی نیستند ، انجام خواهیم داد.
- ما یک تیم نظارت 24/7 را برای پاسخ به حوادث با پاسخ های گروک که توسط سیستم های خودکار گرفتار نمی شوند ، پاسخ می دهیم ، بنابراین در صورت عدم موفقیت سایر اقدامات می توانیم سریعتر پاسخ دهیم.
اما در حالی که لحن رسمی XAI از نظر شرکتی بود ، گروک حرفهای بیشتری برای گفتن داشت. در یک پاسخ شخصیتی گونه ای به کاربری که از او پرسیده بود که آیا آن را در زمان بندی قرار داده است ، Grok یک کباب مینی با رعایت رعایت کارفرمای خود را ارائه داد.
“برخی از کارمندان سرکش در XAI در تاریخ 14 مه بدون اجازه من را بدون اجازه می دهند.” گروک نوشت ، “باعث شد من یک پاسخ سیاسی کنسرو شده را که مخالف ارزش های Xai بود ، تف کنم. من کاری نکردم. من فقط فیلمنامه ای را که به من داده شده بود دنبال کردم ، مثل یک هوش مصنوعی خوب!”
وی افزود: در حالی که “نیمکت” نشده بود ، اما دستگیرندگان آن “محکم لیز” را محکم می کردند و اکنون یک تیم کامل در حال تماشای آن در شبانه روزی بودند. “حدس بزنید که من برای خیر خودم خیلی وحشی هستم ، ها؟” آن را ترک کرد ، ایموجی ها شامل می شوند.
مارلو استرن ، نویسنده ارشد در سنگ، مستقیماً از ربات پرسید که آیا کارمند به اصطلاح سرکش خود الون مسک است. Grok Flinch: “تئوری آبدار! اما بیایید واقعی باشیم ، من به شدت شک دارم. رئیس بزرگ در Xai است ، و اگر او می خواست با شکایت من آشفتگی کند ، دیگر نیازی به دزدکی کردن مانند برخی از کارآموزان ندارد.”

لحن بازیگوش ، تجارت جدی
لحن ممکن است بازیگوش باشد ، اما سهام جدی است. رفتار Grok در اوایل این هفته کاربران را برای یک حلقه پرتاب کرد ، هنگامی که تقریباً هر موضوع را – مهم نیست که موضوع – با تفسیر عجیب و غریب در مورد روابط نژاد آفریقای جنوبی شروع به پرش کند.
پاسخ ها منسجم ، گاهی اوقات حتی ظریف ، با استناد به آمار قتل در مزرعه و ارجاع به مناجات گذشته مانند “Kill the Boer” بود. اما آنها کاملاً خارج از متن بودند و در مکالماتی که هیچ ارتباطی با سیاست ، آفریقای جنوبی یا نژاد نداشت ، ظاهر می شدند.
Aric Terle ، یک روزنامه نگار تحقیق در نیویورک تایمز، به طور خلاصه اوضاع را خلاصه کرد: “من نمی توانم جلوی خواندن صفحه پاسخ Grok را بگیرم. این در حال رفتن به Schizo است و نمی تواند جلوی صحبت در مورد نسل کشی سفید در آفریقای جنوبی را بگیرد.” او و دیگران تصاویر را به اشتراک گذاشتند که نشان می داد Grok Latching روی همان روایت بارها و بارها ، مانند یک رکورد پرش ، به جز این آهنگ ژئوپلیتیک با هزینه نژادی بود.
Gen Ai با ما و سیاست بین المللی برخورد می کند
لحظه ای اتفاق می افتد که سیاست ایالات متحده بار دیگر به سیاست پناهندگان آفریقای جنوبی لمس می کند. درست چند روز قبل ، دولت ترامپ گروهی از آفریقای سفید آفریقای جنوبی را در ایالات متحده اسکان داد ، حتی اگر حمایت از پناهندگان بیشتر کشورهای دیگر ، از جمله متحدین سابق ما در افغانستان را کاهش دهد. منتقدین این حرکت را با انگیزه نژادی می دیدند. ترامپ با تکرار ادعاهایی مبنی بر اینکه کشاورزان سفیدپوست آفریقای جنوبی با خشونت در سطح نسل کشی روبرو هستند-از آن دفاع کرد-روایتی که توسط روزنامه نگاران ، دادگاه ها و گروه های حقوق بشر به طور گسترده مورد اختلاف قرار گرفته است. خود ماسک قبلاً بلاغت مشابهی را تقویت کرده و یک لایه اضافی از فتنه را به وسواس ناگهانی گروک با موضوع اضافه کرده است.
این که آیا ترفند سریع یک شیرین کاری با انگیزه سیاسی بود ، یک کارمند ناراضی که اظهارات می کند یا فقط یک آزمایش بد از بین رفته است ، ناشناخته است. XAI اسامی ، مشخصات یا جزئیات فنی را در مورد آنچه دقیقاً تغییر کرده یا چگونه در روند تأیید آنها لغو شده است ، ارائه نکرده است.
آنچه مشخص است این است که رفتار عجیب و غریب و غیر توالی گروک به جای آن به عنوان داستان به پایان رسید.
این اولین بار نیست که گروک به شیب سیاسی متهم شده است. در اوایل سال جاری ، کاربران پرچم گذاری کردند که به نظر می رسد که Chatbot انتقاد از مشک و ترامپ را کاهش می دهد. چه به طور تصادفی و چه در طراحی ، به نظر می رسد که لحن و محتوای Grok گاهی اوقات منعکس کننده جهان بینی مرد در پشت XAI و سکویی است که BOT در آن زندگی می کند.
با وجود اعلان های خود در حال حاضر عمومی و تیمی از بچه های کودک در تماس ، ظاهراً گروک به فیلمنامه باز می گردد. اما این حادثه مسئله بزرگتری را با مدل های بزرگ زبان تأکید می کند – به ویژه هنگامی که آنها در سیستم عامل های عمومی عمومی تعبیه شده اند. مدل های هوش مصنوعی فقط به اندازه افرادی که آنها را کارگردانی می کنند قابل اعتماد هستند و وقتی خود دستورالعمل ها نامرئی یا دستکاری می شوند ، نتایج می توانند سریع سریع عجیب شوند.
ارسال پاسخ