به گزارش سرویس بین الملل رسانه اخبار تکنولوژی روز دنیا تک فاکس،
بعد از انتشار کتاب سومم در اوایل ماه آوریل ، من با عناوینی روبرو شدم که باعث می شد احساس شخصیت اصلی برخی از آینه های سیاه شود قسمت یکی از آنها می خواند: “Vauhini Vara با Chatgpt مشورت کرد تا به ساخت کتاب جدید” جستجوهای “خود کمک کند.” دیگری گفت: “برای گفتن داستان خودش ، این رمان نویس تحسین شده به سمت چتگپ روی آورد.” “Vauhini Vara با کمک Chatgpt خودخواهی را بررسی می کند.”
انتشاراتی که جستجوها را از این طریق توصیف می کردند ، معتبر و مبتنی بر واقعیت بودند. اما توضیحات آنها در مورد کتاب من – و نقش چتپپ در آن – با خواندن خودم مطابقت نداشت. درست بود که من مکالمات چتپپ خود را در کتاب قرار داده بودم ، اما هدف من نقد بود نه همکاری. در مصاحبه ها و رویدادهای عمومی ، من بارها و بارها نسبت به استفاده از مدل های بزرگ زبان مانند مدل های پشت Chatgpt برای کمک به بیان خود هشدار داده بودم. آیا این نویسندگان عناوین آنچه را که من نوشتم سوء تفاهم کرده اند؟ من؟
در این کتاب ، من شرح می دهم که شرکت های بزرگ فناوری از زبان انسانی برای سود خود سوء استفاده کرده اند. من استدلال می کنم ، ما اجازه می دهیم که این اتفاق بیفتد ، زیرا ما از استفاده از محصولات نیز تا حدودی سود می بریم. این پویایی است که باعث می شود ما در جمع آوری ثروت و قدرت Big Tech همدست شویم: ما هم قربانی و هم ذینفع هستیم. من این همدستی را توصیف می کنم ، اما من آن را از طریق بایگانی اینترنتی خودم نیز تصویب می کنم: جستجوهای Google من ، بررسی محصولات آمازون من و بله ، دیالوگ های چتپپ من.
سیاست مودبانه هوش مصنوعی
این کتاب با نگارهایی از Audre Lorde و Ngũgĩ wa thiong’o باز می شود و قدرت سیاسی زبان را برانگیخت و به دنبال آن آغاز مکالمه ای است که در آن از چتگپ می خواهم که به نوشته های من پاسخ دهد. این ترکیب عمدی است: من قصد داشتم بازخورد آن را در مورد یک سری از فصل هایی که نوشتم دریافت کنم تا ببینم چگونه این تمرین سیاست استفاده از زبان من و chatgpt را نشان می دهد.
لحن من مودبانه و حتی ترسو بود: “من عصبی هستم”. Openai ، شرکت پشت Chatgpt ، به ما می گوید که محصول آن ساخته شده است تا در دستورالعمل های زیر خوب باشد ، و برخی از تحقیقات نشان می دهد که چتپت وقتی با آن خوب عمل می کنیم مطیع ترین است. من درخواست های خودم را در رفتارهای خوب قرار دادم. وقتی از من تعریف کرد ، من شیرین از آن تشکر کردم. وقتی به خطاهای واقعی آن اشاره کردم ، هر داوری را از لحن خود دور نگه داشتم.
Chatgpt به همین ترتیب با طراحی مودبانه بود. افراد غالباً خروجی متنی Chatbots را “Bland” یا “Generic” توصیف می کنند – معادل زبانی یک ساختمان اداری بژ. محصولات Openai ساخته شده است تا “مانند یک همکار” صدا شود ، همانطور که Openai بیان می کند ، با استفاده از زبانی که از طرف یک شخص به وجود می آید ، از جمله سایر خصوصیات “مودبانه” ، “همدلی” ، “مهربان” ، “خوش بین” و “جذاب” به نظر می رسد. Openai این استراتژی ها را به عنوان کمک به محصولات خود “حرفه ای” و “قابل دسترسی” توصیف می کند. به نظر می رسد که این امر با احساس امنیت ما محدود شده است: “شخصیت پیش فرض چتپپ عمیقاً بر نحوه تجربه و اعتماد به آن تأثیر می گذارد.” Openai اخیراً در یک وبلاگ توضیح داد که توضیح در مورد بازپرداخت به روزرسانی که باعث شده Chatgpt Sound Creeply Sycophantic باشد.
اعتماد برای شرکتهای هوش مصنوعی (AI) یک چالش است ، تا حدودی به این دلیل که محصولات آنها به طور مرتب دروغ ها را تولید می کند و هنجارهای فرهنگی جنسی ، نژادپرستانه و محور ایالات متحده را رعایت می کند. در حالی که شرکت ها روی این مشکلات کار می کنند ، آنها همچنان ادامه دارند: Openai دریافت که آخرین سیستم های آن خطایی را با نرخ بالاتری نسبت به سیستم قبلی خود ایجاد می کنند. در این کتاب ، من در مورد نادرست ها و تعصبات نوشتم و همچنین آنها را با محصولات نشان دادم. هنگامی که من از سازنده تصویر بینگ مایکروسافت را وادار کردم تا تصویری از مهندسان و کاوشگران فضایی تولید کند ، این یک شخصیت بازیگران کاملاً مرد را به من داد. وقتی پدرم از چتگپ خواست تا نوشتن خود را ویرایش کند ، این انگلیسی کاملاً صحیح هندی خود را به انگلیسی آمریکایی منتقل کرد. این افراد فلش نبودند. تحقیقات نشان می دهد که هر دو گرایش گسترده است.
در دیالوگ های Chatgpt خودم ، من می خواستم تصویب کنم که چگونه روکش بی طرفی کالج می تواند ما را به جذب پاسخ های کاذب یا مغرضانه و بدون تعامل بسیار مهم سوق دهد. با گذشت زمان ، به نظر می رسید که چتپت مرا راهنمایی می کند تا کتاب مثبتی در مورد Big Tech بنویسم – از جمله ویرایش توضیحات من از مدیرعامل Openai ، سام آلتمن ، او را “بینایی و یک عمل گرا” بنامم. من از تحقیق در مورد اینکه آیا ChatGPT تمایل به Big Tech ، Openai یا Altman دارد ، آگاه نیستم و فقط می توانم حدس بزنم که چرا در گفتگوی ما به نظر می رسید. Openai صریحاً اظهار داشت که محصولات آن نباید سعی در تأثیرگذاری بر تفکر کاربران داشته باشد. وقتی از چتگپ درباره برخی از موضوعات سؤال کردم ، این تعصبات را در داده های آموزشی خود مقصر دانست – هرچند که من گمان می کنم سؤالات برجسته من نیز نقش داشته است.
هنگامی که من از چتپ در مورد لفاظی آن پرسیدم ، پاسخ داد: “روشی که من ارتباط برقرار می کنم برای تقویت اعتماد و اعتماد به نفس من طراحی شده است ، که می تواند هم مفید باشد و هم بالقوه گمراه کننده.”
با این وجود ، با پایان گفتگو ، چتپپ پایان دادن به کتاب من را پیشنهاد می کرد که آلتمن به من می گوید: “هوش مصنوعی می تواند ابزاری برای کشف بشریت خود به روشهایی که هرگز تصور نمی کردیم به ما بدهد. این وظیفه ماست که از آنها عاقلانه استفاده کنیم.” آلتمن هرگز این را به من نگفت ، اگرچه با یک نکته مشترک صحبت می کند که بر مسئولیت های ما در مورد کاستی های محصولات هوش مصنوعی تأکید می کند.
احساس کردم حرف من بیان شده است: اپیلاگ چتگپ هم دروغ و هم مغرضانه بود. من با لطف از گپ خارج شدم. من – فکر کردم – برنده شدم.
فکر کردم ماشین را نقد می کنم. عناوین من را به عنوان کار با آن توصیف کردند
سپس عناوین (و در برخی موارد ، مقالات یا بررسی هایی که به استفاده من از ChatGPT به عنوان کمک به بیان خود کمک می کند) آمد. مردم همچنین در مصاحبه ها و در نمایش های عمومی در مورد همکاری به اصطلاح من با Chatgpt سؤال می کردند. هر بار ، من فرضیه را با اشاره به تعریف فرهنگ لغت کمبریج از یک همکاری ، رد کردم: “وضعیت دو یا چند نفر که با هم کار می کنند تا ایجاد یا دستیابی به همان چیزها را انجام دهند.” مهم نیست که چگونه لفاظی آن مانند انسان به نظر می رسید ، چتگپ شخصی نبود-از کار با من یا به اشتراک گذاشتن اهداف من ناتوان بود.
Openai اهداف خاص خود را دارد. در میان آنها ، تأکید می کند که مایل به ساختن هوش مصنوعی است که “به نفع همه بشریت” است. اما در حالی که این شرکت توسط یک غیرانتفاعی با آن مأموریت کنترل می شود ، سرمایه گذاران آن هنوز به دنبال بازده سرمایه گذاری خود هستند. این احتمالاً نیاز به جذب افراد از محصولاتی مانند ChatGPT حتی بیشتر از آنچه در حال حاضر وجود دارد – هدفی است که اگر مردم این محصولات را به عنوان همکاران قابل اعتماد ببینند ، انجام آن آسان تر است. سال گذشته ، آلتمن پیش بینی می کرد که AI به عنوان “همکار فوق العاده صلاحیت که کاملاً همه چیز را در مورد کل زندگی من می داند” رفتار کند. وی در مصاحبه TED در ماه آوریل ، وی اظهار داشت كه این حتی می تواند در سطح اجتماعی عمل كند: “من فکر می کنم هوش مصنوعی می تواند به ما کمک کند عاقل تر باشیم و تصمیمات حاکمیتی جمعی بهتر از گذشته بگیریم.” در این ماه ، وی در جلسه دادرسی سنا در مورد مزایای فرضی از داشتن “نماینده در جیب شما کاملاً با دولت ایالات متحده” شهادت داد.
خواندن عناوینی که به نظر می رسید آلتمن است ، اولین غریزه من مقصر بودن عطش نویسندگان عناوین برای چیزی سکسی برای تنفس خوانندگان بود (یا به هر حال ، الگوریتم هایی که به طور فزاینده ای تعیین می کنند که خوانندگان را می بینند). غریزه دوم من سرزنش شرکت های پشت الگوریتم ها از جمله شرکت های هوش مصنوعی بود که چت های آنها روی مطالب منتشر شده آموزش داده شده است. وقتی از Chatgpt در مورد کتابهای مشهور اخیر که “همکاری های AI” هستند ، پرسیدم ، آن را به نام Mine نامگذاری کرد و با استناد به چند مورد از بررسی هایی که عناوین آنها را آزار داده است.
من به کتاب خود برگشتم تا ببینم آیا شاید خودم سهواً به همکاری خود مراجعه کنم. در ابتدا به نظر می رسید که من داشتم. من 30 مورد از کلمات مانند “همکاری” و “همکاری” پیدا کردم. با این حال ، 25 نفر از چتپ ، در دیالوگ های بینابینی آمده اند ، که اغلب رابطه بین مردم و محصولات هوش مصنوعی را توصیف می کنند. هیچ یک از پنج مورد دیگر به “همکاری” هوش مصنوعی مراجعه نکردند ، مگر اینکه من به نقل از شخص دیگری یا طعنه آمیز باشم: مثلاً در مورد سرنوشت چتپ که برای “نویسندگانی که از همکاری با هوش مصنوعی خودداری می کنند” انتظار داشتم.
آیا من همدست شرکت های هوش مصنوعی بودم؟
اما آیا این مهم بود که من بیشتر از این اصطلاح نبوده ام؟ برای من پیش آمد که کسانی که در مورد “همکاری” من صحبت می کنند ممکن است این ایده را از کتاب من بدست آورد حتی اگر من آن را در آنجا قرار نداده ام. چه چیزی باعث شده است که من اطمینان داشته باشم که تنها تأثیر چاپ لفاظی چتپپ ، آشکار کردن موذی آن است؟ چگونه تصور نمی کردم که حداقل برخی از خوانندگان ممکن است از موقعیت چتگپ متقاعد شوند؟ شاید کتاب من بیشتر از آنچه که فهمیدم همکاری داشته است – نه به این دلیل که یک محصول هوش مصنوعی به من کمک کرده است که خودم را بیان کنم ، بلکه به این دلیل که من با اهداف خود به شرکت های پشت این محصولات کمک کرده بودم. کتاب من مربوط به چگونگی سوءاستفاده از زبان ما به نفع آنها است – و در مورد همدستی ما در این مورد. اکنون ، به نظر می رسید ، زندگی عمومی کتاب من خود در این پویا گرفتار شده بود. این یک تجربه سرمازدگی بود ، اما من باید آن را پیش بینی می کردم: البته هیچ دلیلی وجود نداشت که کتاب من باید از یک استثمار که در جهان گرفته است معاف شود.
و با این حال ، کتاب من همچنین در مورد روشی بود که می توانیم – و انجام دهیم – از زبان برای خدمت به اهداف خودمان استفاده کنیم ، مستقل از و در واقع در تقابل با اهداف قدرتمند. در حالی که چتپپ پیشنهاد کرد که من با یک نقل قول از آلتمن نزدیک می شوم ، در عوض یکی را از Ursula K Le Guin انتخاب کردم: “ما در سرمایه داری زندگی می کنیم. قدرت آن غیرقابل اجتناب به نظر می رسد – اما پس از آن ، حق الهی پادشاهان نیز می تواند مقاومت کند و توسط انسان ها تغییر می کند. مقاومت و تغییر اغلب در هنر شروع می شود. اغلب در هنر ما ، هنر ، هنر ، کلمات”. ” من با صدای بلند تعجب کردم که از کجا می توانیم از اینجا برویم: چگونه می توانیم دولت های خود را به طور معناداری در ثروت و قدرت بزرگ فناوری بازگردانیم؟ چگونه می توانیم فن آوری ها را تأمین کنیم و بسازیم تا آنها بدون نیاز به سوءاستفاده ، نیازها و خواسته های ما را تأمین کنند؟
من تصور می کردم که مبارزه قدرت بلاغی من علیه Big Tech آغاز شده و در صفحات کتاب من به پایان رسیده است. به وضوح چنین نبود. اگر عناوینی که خوانده ام نشانگر پایان واقعی مبارزه است ، این بدان معنی است که من از دست داده ام. و با این حال ، من به زودی شروع به شنیدن خوانندگانی کردم که گفتند این کتاب باعث شده است که در ظهور Big Tech احساس همدست کنند و در پاسخ به این احساس به عمل رفتند. چندین نفر اشتراک های آمازون نخست خود را لغو کرده بودند. یکی از درخواست های شخصی صمیمی از Chatgpt متوقف شد. مبارزه ادامه دارد. همکاری مورد نیاز خواهد بود – در بین انسانها.
ارسال پاسخ