چگونه می توان خود را در برابر کلاهبرداری های صوتی Deepfake Deepfake که شامل فرزندان خود است محافظت کنید
چگونه می توان خود را در برابر کلاهبرداری های صوتی Deepfake Deepfake که شامل فرزندان خود است محافظت کنید

چگونه می توان خود را در برابر کلاهبرداری های صوتی Deepfake Deepfake که شامل فرزندان خود است محافظت کنید

به گزارش بخش موبایل رسانه اخبار تکنولوژی تک فاکس،

ارزیابی تهدید جنایات سازمان یافته اروپا در اروپا هشدار می دهد که هوش مصنوعی به تسریع در میزان جرم کمک می کند. این سازمان می نویسد ، “هوش مصنوعی اساساً در حال تغییر شکل چشم انداز جرم سازمان یافته است. این فناوری ها عملیات جنایی را به صورت خودکار و گسترش می دهند و آنها را مقیاس پذیر تر و سخت تر می کند.” آنچه در ذهن دارید ، شکل دیگری از حمله عمیق در حال استفاده است تا برای کلاهبرداری و پاره کردن مصرف کنندگان بیشتر مورد استفاده قرار گیرد. اول ، برخی از پس زمینه ها.

هوش مصنوعی توسط کلاهبرداران برای دستکاری شما از طریق “مهندسی اجتماعی” استفاده می شود

هوش مصنوعی بیشتر و بیشتر در کلاهبرداری های کلاهبرداری آنلاین مورد استفاده قرار می گیرد که منجر به دستکاری افراد برای انجام اقدامات خاص به دلیل اقناع ، فریب و ارعاب می شود. به این مهندسی اجتماعی گفته می شود. به عنوان مثال ، اگر متن یا ایمیل جعلی را از طرف شرکت مخابراتی خود دریافت می کنید ، کلاهبرداران به نظر می رسد که اگر بلافاصله به آنها پرداخت نکنید ، سرویس شما قطع می شود. آنها می دانند که شما برای از دست دادن خدمات خود هر کاری انجام خواهید داد و آنها شما را در پرداخت پرداختی که نیازی به انجام آن ندارید دستکاری کرده اند. در عین حال ، آنها شما را در فاش کردن داده های شخصی که برای دسترسی به حسابهای مالی شما استفاده می شود و شما را از بین می برد ، کلاهبرداری کرده اند.

ایوان درنبوش ، کارشناس سابق امنیت سایبری NSA ، به Forbes گفت که هوش مصنوعی می تواند به کلاهبرداران کمک کند تا سریعتر از همیشه پیام های باورنکردنی ایجاد کنند. با هوش مصنوعی ، هزینه ایجاد این حملات بسیار پایین است. درنبوش گفت: “هوش مصنوعی در حال کاهش هزینه های مجرمان است ، و جامعه به روش های جدیدی برای کاهش پرداخت های خود ، افزایش بودجه عملیاتی آنها یا هر دو نیاز دارد.”

در حالی که بیشتر شما وقتی در مورد “Deepfakes” می شنوید به فیلم های جعلی فکر می کنید ، آخرین نبرد حول صوتی جعلی و استفاده از آن برای کلاهبرداری افراد می چرخد. تصور کنید که از دخترتان تماس تلفنی دریافت می کنید که او بر خلاف خواست خود نگه داشته می شود و فقط در صورت پرداخت باج ، آزاد می شود. در حالی که کلاهبرداری از این دست قبلاً بدون هوش مصنوعی موفق شده است ، تصور کنید صدای لرزان و ترسناک دختر ، همسر یا پسر خود را شنیدید ، یا حتی یکی از والدین شما در مورد مصیبت وحشتناک خود به شما می گوید و از شما می خواهد هر آنچه را که افراد بد خواستار آن هستند بپردازید. با هوش مصنوعی ، این تماس ها می تواند ایجاد شود حتی اگر خویشاوندی که فکر می کردید فقط شنیده اید برای زندگی او در فیلم ها یا خانه ایمن است.

چگونه می توان خانواده خود را از حمله صوتی عمیق جلوگیری کرد

تصور کنید که مطمئن هستید که تماس گیرنده یکی از بچه های شما یا اقوام دیگری بوده است. شما نمی خواهید در هر زمان به بانک بروید. FBI قبلاً اعلامیه خدمات عمومی (شماره هشدار خدمات I-120324-PSA) را صادر کرده است و به مردم در مورد این حملات هشدار داده است. و G-Men ایده خوبی برای مقابله با چنین حملاتی دارند. دفعه بعد که با یک دوست عزیز صحبت می کنید ، کدی را ایجاد کنید که هیچ کس دیگری آن را نمی شناسد. هر شخص باید کد خاص خود را داشته باشد که فقط آنها می دانند. به این ترتیب ، اگر از دخترتان تماس بگیرید ، می توانید تأیید کنید که آیا این واقعاً صدای او از طریق بلندگوهای آیفون شما یا صدای عمیق ایجاد شده توسط AI است.

این کار را خاموش نکنید زیرا هرگز نمی دانید چه زمانی ممکن است قربانی بعدی حمله صوتی عمیق باشید. اگر این همه برای شما آشنا به نظر می رسد ، ما برای اولین بار در مورد هشدار FBI در ماه دسامبر گزارش دادیم. اما اکنون با درگیری Europol و توسعه Deepfakes Audio ، سطح نگرانی بیشتر است.

این مقاله در ماه دسامبر اظهار نظری از خواننده ای ایجاد کرد که ایجاد کلمه مخفی “احمق ترین و بدبینانه ترین توصیه تا کنون” خوانده است. نویسنده این اظهار نظر نگران است که در زمان استرس ، خویشاوند شما ممکن است کلمه مخفی را به خاطر نکشید و سپس آنچه را که در واقعیت ممکن است یک “تماس باج” واقعی باشد ، نادیده می گیرید. در حالی که این ممکن است یک نگرانی قانونی باشد ، شما باید کد کد را چیزی بیان کنید که حتی در صورت استرس به یاد داشته باشید.

اگر ایده ایجاد یک کلمه کد را دوست ندارید ، گوش دهید تا اطمینان حاصل کنید که صدای بستگان شما روباتیک به نظر نمی رسد و اگر عبارات خاصی از متن تکرار می شوند ، احتمال دارد که به یک صدای عمیق گوش دهید.

در Honor Magic 7 Pro تلفن هوشمند در ژانویه با ویژگی ویژه تشخیص DeepFake منتشر شد. درباره این ویژگی افتخار نوشته است ، “تشخیص Deepfake AI از طریق مجموعه داده های بزرگی از فیلم ها و تصاویر مربوط به کلاهبرداری های آنلاین آموزش داده شده است ، این امکان را به AI می دهد تا در سه ثانیه شناسایی ، غربالگری و مقایسه را انجام دهد. اگر محتوای مصنوعی یا تغییر یافته توسط ویژگی تشخیص داده شود ، یک هشدار خطر بلافاصله به کاربر صادر می شود ، و آنها را از امنیت پتانسیل خود برای آنها جلوگیری می کند. بررسی ما از Magic 7 Pro را بررسی کنید.