به گزارش بخش علمی رسانه اخبار فناوری تک فاکس،
جو روگان پس از کشف اینكه فیس بوک آزمایش پنهانی را در مورد هزاران نفر انجام داد كه گفته می شود عده ای را برای اقدام به خودكشی سوق داده اند ، متحیر شد.
ربکا لموف ، مورخ علوم و متخصص کنترل ذهن در دانشگاه هاروارد ، در پادکست تجربه جو روگان فاش کرد که غول رسانه های اجتماعی بی سر و صدا فیدهای خبری نزدیک به 700000 کاربر را در سال 2012 تغییر داده است.
این تغییرات یا باعث شده است که فیدهای خبری مثبت تر یا منفی تر شوند و به فیس بوک اجازه می دهد احساسات کاربران خود را دستکاری کند تا در رفتار خود به مطالعه بکشند.
سکوی متعلق به مارک زاکربرگ ادعا کرد که آنها آزمایش یک هفته ای را انجام داده اند تا “محتوای افراد را در فیس بوک مشاهده کنند تا حد ممکن و جذاب باشند.”
با این حال ، این آزمایش توسط عموم مردم به عنوان شستشوی مغزی مورد ضرب و شتم قرار گرفت ، زیرا این کار را به طور پنهانی با استفاده از محتوای خبری خود ، کاربران را دستکاری می کرد ، و آنها را فقط داستانهای با بار عاطفی نشان می داد و به طور بالقوه باعث آسیب روحی می شود.
لموف گفت که این آزمایش شبیه به نوع شستشوی مغزی است که در فرقه ها اتفاق می افتد ، که متمرکز بر تغییر نحوه فکر مردم با داشتن “احساسات” “مسری” دیگران است.
لموف توضیح داد: “این طور نیست که افکار من را تغییر داده است ، این است که احساسات من را در مورد افکار من تغییر داده است.”
فیس بوک هرگز به 689،003 نفری که فیدهای خود را تغییر داده اند ، آگاه نبودند و لیموف اضافه کرد حداقل یک نفر ادعا کرد که آنها معتقدند که فید اخبار منفی آنها در طول دوره مطالعه آنها را به سمت خودکشی سوق داده است.
جو روگان با یک مورخ علوم و متخصص در مورد کنترل ذهن در مورد چندین تلاش پنهانی برای تأثیرگذاری و دستکاری کاربران اینترنت و رسانه های اجتماعی بدون اطلاع آنها صحبت کرد
علیرغم خشم شدید عمومی هنگامی که این آزمایش در سال 2014 عمومی شد ، کارشناس کنترل ذهن خاطرنشان کرد که کاربران فیس بوک ناآگاهانه موافقت می کنند که هنگام ثبت نام در این سیستم عامل ، بخشی از این آزمایشات باشند.
لموف ، نویسنده “بی ثباتی حقیقت: شستشوی مغزی ، کنترل ذهن و بیش از حد ترغیب” ، آشکار شد: “هر وقت به سکو می روید ، شما موافقت می کنید که آزمایش یا آزمایش AB را انجام دهید.
وی در پادکست 15 مه افزود: “به همین دلیل هنگام انتشار این آزمایش در سال 2014 ، بحث اخلاقی وجود داشت.”
این مطالعه توسط محققان از دانشگاه کرنل و دانشگاه کالیفرنیا-سان فرانسیسکو.
این آزمایش مخفیانه الگوریتم را برای اولویت بندی پست های مثبت یا منفی برای گروه های مختلف ، بدون دانش کاربران یا رضایت صریح تغییر داد.
هدف آنها این بود که ببینیم چگونه احساسات از طریق شبکه های اجتماعی گسترش می یابند و درک می کنند که آیا لحن عاطفی برخی از مطالب خاص بر پست های خود بیننده و حالات عاطفی تأثیر می گذارد یا خیر.
به عبارت ساده تر ، دانشمندان سعی کردند ببینند که آیا می توانند با قرار دادن آنها در یک فید خبری تغییر یافته و مغرضانه ، مردم را شادتر یا افسرده تر کنند.
این مطالعه نشان داد که کاربرانی که در معرض محتوای مثبت تر هستند ، در واقع به روزرسانی های مثبت تری ارسال می کنند ، در حالی که مطالب منفی تر به روزرسانی های منفی بیشتری ارسال می کنند.

ربکا لموف ، کارشناس کنترل ذهن ، فاش کرد که فیس بوک به طور مخفیانه نتایج اخبار بیش از 680،000 نفر را تغییر داده است تا با تغییر اطلاعاتی که دریافت می کنند ، چگونه می توان احساسات آنها را دستکاری کرد
با این حال ، لموف فاش کرد که یک نفر در سال 2014 در صفحه فیس بوک گروه تحقیقاتی نوشت که آنها در یک اورژانس بیمارستان بودند که در زمان این آزمایش مخفی تهدید به خودکشی می کردند. برخی دیگر تجربیات مشابهی را به اشتراک گذاشتند.
این متخصص توضیح داد: “مطمئناً آنها هرگز نمی توانند بدانند و نمی توان آن را به عقب ردیابی کرد.”
روگان هشدار داد: “هر وقت مردم قدرت ، قدرت بررسی نشده و تأثیر مجنون داشته باشند ، به ویژه تأثیر در دستکاری مردم و تأثیرگذاری بر ذهن مردم … شما می توانید با این تعداد بسیار دور شوید.”
“مهم نیست که شما چه کسی هستید ، شما آسیب پذیر هستید ، خواه از طریق جامعه باشد ، خواه از طریق گروه های همسالان باشد ، خواه از طریق جامعه باشد ، ما آسیب پذیر هستیم. وی افزود: همه آسیب پذیر هستند.
پاسخ عمومی به این مطالعه ، که در مجموعه مقالات آکادمی ملی علوم منتشر شده است ، حتی باعث تحقیقات مقامات دولتی شد.
در ایالات متحده ، هیچ اقدام حقوقی مستقیمی انجام نشده است زیرا این آزمایش در آن زمان در شرایط خدمات فیس بوک قرار می گیرد ، که امکان استفاده از داده ها را برای اهداف تحقیق فراهم می کند.
مرکز اطلاعات حریم خصوصی الکترونیکی (EPIC) – یک گروه تحقیقاتی غیرانتفاعی با تمرکز بر حمایت از حریم خصوصی و آزادی بیان آنلاین – در سال 2014 شکایتی را به کمیسیون تجارت فدرال (FTC) ارائه داد.

منتقدین آزمایش فیس بوک را به عنوان شستشوی مغزی مورد ضرب و شتم قرار دادند زیرا به طور پنهانی احساسات کاربران را دستکاری می کرد ، از آسیب پذیری آنها در برابر داستانهای عاطفی سوء استفاده می کرد و به طور بالقوه باعث آسیب روحی می شود
آنها ادعا كردند كه فیس بوک با ارائه نادرست شیوه های داده خود ، كاربران را فریب داده و سفارش FTC 2012 را بر رضایت کاربر نقض كرده است.
این شکایت استدلال می کند که مطالعه بدون اعلام ، احساسات کاربران را با استفاده از داده ها در فیدهای خبری خود دستکاری می کند ، اما این شکایت هرگز به یک دادخواست تمام عیار علیه فیس بوک افزایش یافت.
دفتر کمیساریای اطلاعات انگلیس همچنین بررسی کرد که آیا اقدامات فیس بوک قوانین حفاظت از داده ها را نقض کرده است یا خیر.
علیرغم ادعاهای مبنی بر اینکه پروژه مخفی فیس بوک غیر اخلاقی بود ، ICO برای مطالعه بحث برانگیز هیچ مجازاتی بر این شرکت تحمیل نکرد.
آزمایش سال 2012 تنها مورد کنترل ذهن و دستکاری مربوط به افراد مظنون به صورت آنلاین نبود.
روگان همچنین به تحقیقات رابرت اپشتاین ، که وی در یک قسمت سپتامبر 2024 از پادکست خود مصاحبه کرد ، اشاره کرد ، که نشان می دهد نتایج موتور جستجوی اینترنتی می تواند به طور قابل توجهی رای دهندگان نامشخص را تغییر دهد.
تحقیقات اپشتین نشان داد که بخش قابل توجهی از گفتمان آنلاین ممکن است توسط ربات های خودکار هدایت شود و روایات را برای برنامه های سیاسی یا شرکتی شکل می دهد.
روگان به انتخابات ریاست جمهوری سال 2016 اشاره کرد و خاطرنشان کرد که اگر شخصی در گوگل جستجو می کرد “آیا هیلاری کلینتون یک جنایتکار است؟” موتور جستجو فقط نتایج مربوط به دونالد ترامپ را به عنوان یک جنایتکار ادعا می کند.
“شما در هیلاری کلینتون چیزهایی پیدا نمی کنید. شما مجبور بودید حفر و حفر و حفر را ادامه دهید. اگر می خواستید چیزهای مثبتی را در هیلاری کلینتون پیدا کنید ، می توانید آنها را به راحتی پیدا کنید.
روگان ادعا كرد كه تعداد کمی از مرورگرهای جستجوی اینترنتی وجود دارد كه به افراد اجازه می دهد تا موضوعات به اصطلاح “بحث برانگیز” را جستجو كنند.
به گفته میزبان پادکست ، مرورگرهای محبوب مانند Google در تلاش برای سانسور آنچه را که او به نام malinformation نامیده می شود ، نتایج جستجوی خود را تغییر می دهند.
“سوءاستفاده اطلاعاتی صحیح است ، اما این در نهایت مضر خواهد بود. آنها عوارض جانبی واکسن را تحت سوءاستفاده قرار می دهند زیرا این امر باعث تردید واکسن می شود.
در ژانویه سال 2025 ، متا اعلام کرد که برنامه بررسی حقایق شخص ثالث خود را با شروع از ایالات متحده شروع می کند ، به دلیل ادامه نگرانی ها مبنی بر اینکه کمپین سانسور آنها در فیس بوک مانع گفتار آزاد است.
ارسال پاسخ