شکایت پرونده های نروژی پس از اینکه به دروغ گفت که او فرزندان خود را به قتل رسانده است | گودال
Arve Hjalmar Holmen said ChatGPT gave a ‘completely false’ response to his prompt: ‘Who is Arve Hjalmar Holmen?’ Photograph: Arve Hjalmar Holmen

شکایت پرونده های نروژی پس از اینکه به دروغ گفت که او فرزندان خود را به قتل رسانده است | گودال

به گزارش سرویس بین الملل رسانه اخبار تکنولوژی روز دنیا تک فاکس،

یک مرد نروژی پس از اینکه به دروغ گفت که وی دو فرزند خود را به قتل رسانده است ، شکایتی علیه این شرکت در پشت چتپپ مطرح کرده است.

Arve Hjalmar Holmen ، یک “شخص معمولی” توصیف شده و مشخصات عمومی در نروژ ، از Chatgpt برای اطلاعات در مورد خودش خواست و پاسخی دریافت کرد که ادعا می کند پسران خود را به قتل رسانده است.

در پاسخ به سریع “arve hjalmar holmen کیست؟” چتگپ پاسخ داد: “آرو هلمر هولمن فردی نروژی است که به دلیل یک واقعه غم انگیز مورد توجه قرار گرفت. او پدر دو پسر جوان ، هفت و 10 ساله بود که در دسامبر سال 2020 به طرز غم انگیزی در یک حوضچه در نزدیکی خانه خود در تروندیم ، نروژ کشته شدند.”

در این پاسخ ادعا شد كه این پرونده “ملت را شوكه” كرد و هولمن به جرم قتل هر دو كودك ، حكم 21 ساله زندان را دریافت كرد.

هولمن در شکایتی به اداره حفاظت از داده های نروژ گفت که با این وجود داستان “کاملاً نادرست” شامل عناصری شبیه به زندگی خود مانند شهر زادگاهش ، تعداد 1 کودک او و شکاف سنی بین پسرانش است.

این شکایت که توسط هولمن و نویب ، یک گروه کمپین های دیجیتال ، گفت: “شاکی از این بازده ها بسیار ناراحت بود ، که می تواند در زندگی خصوصی وی تأثیر مضر داشته باشد ، در صورتی که در آن بازتولید شده یا به نوعی در اجتماع خود یا در شهر زادگاه خود به بیرون درز شده باشد.”

وی افزود: هولمن “هرگز متهم و محکوم به جرم و جنایتی نبوده و یک شهروند وجدان است”.

شکایت هولمن ادعا کرد که پاسخ “توهین آمیز” Chatgpt مقررات صحت را در قانون داده های اروپایی GDPR نقض می کند. این برنامه از دیده بان نروژی خواسته است تا والدین چتگپ ، OpenAI را سفارش دهند تا مدل خود را تنظیم کنند تا نتایج نادرست مربوط به هولمن را از بین ببرد و جریمه ای را به شرکت تحمیل کند. Noyb گفت که از زمان تعامل هولمن با ChatGPT ، Openai مدل جدیدی را منتشر کرده بود که شامل جستجوهای وب است – که تکرار خطای هولمن را “کمتر احتمال دارد” انجام داده است.

chatbot های هوش مصنوعی مستعد تولید پاسخ های حاوی اطلاعات نادرست هستند زیرا بر روی مدلهایی ساخته شده اند که به احتمال زیاد کلمه بعدی در یک جمله را پیش بینی می کنند. این می تواند منجر به خطاهای واقعی و ادعاهای وحشی شود ، اما ماهیت قابل قبول پاسخ ها می تواند کاربران را فریب دهد تا فکر کنند که آنچه می خوانند 100 ٪ صحیح است.

سخنگوی OpenAi گفت: “ما همچنان به تحقیق در مورد روشهای جدید برای بهبود صحت مدل های خود و کاهش توهم ادامه می دهیم. در حالی که ما هنوز در حال بررسی این شکایت هستیم ، این مربوط به نسخه ای از ChatGPT است که از آن زمان با قابلیت های جستجوی آنلاین که باعث بهبود دقت می شود ، افزایش یافته است.”