موبایل

نامرئی ، خودمختار و هک قابل هک: معضل عامل AI که هیچ کس در حال آمدن است

نامرئی ، خودمختار و هک قابل هک: معضل عامل AI که هیچ کس در حال آمدن است

به گزارش سرویس تازه های دنیای فناوری وبسایت اخبار تکنولوژی تک فاکس،

این مقاله بخشی از شماره ویژه VentureBeat با عنوان “کتاب پخش تاب آوری سایبری: پیمایش در دوره جدید تهدیدها” است. اطلاعات بیشتر از این شماره ویژه را در اینجا بخوانید.

هوش مصنوعی تولیدی سؤالات امنیتی جالب را مطرح می کند و با حرکت شرکت ها به دنیای عامل ، این مسائل ایمنی افزایش می یابد.

هنگامی که عوامل هوش مصنوعی وارد گردش کار می شوند ، باید بتوانند به داده ها و اسناد حساس برای انجام کار خود دسترسی پیدا کنند-آنها را به یک خطر قابل توجهی برای بسیاری از شرکت های امنیتی تبدیل کرده است.

نیکول کاریانان ، VP از AI سایبر استراتژیک در DarkTrace گفت: “افزایش استفاده از سیستم های چند عامل ، بردارهای حمله جدید و آسیب پذیری هایی را معرفی می کند که در صورت عدم اطمینان از ابتدا به درستی می توان از آنها بهره برداری کرد.” “اما تأثیرات و مضرات آن آسیب پذیری ها می تواند به دلیل افزایش حجم نقاط اتصال و رابط هایی که سیستم های چند عامل دارند ، حتی بزرگتر باشد.”

چرا عوامل هوش مصنوعی چنین خطر امنیتی بالایی را مطرح می کنند

نمایندگان هوش مصنوعی – یا هوش مصنوعی خودمختار که اقدامات را از طرف کاربران انجام می دهند – فقط در چند ماه گذشته بسیار محبوب شده اند. در حالت ایده آل ، آنها را می توان به گردش کار خسته کننده وصل کرد و می تواند هر کار را انجام دهد ، از چیزی به سادگی یافتن اطلاعات بر اساس اسناد داخلی گرفته تا توصیه هایی برای کارمندان انسانی.

اما آنها یک مشکل جالب برای متخصصان امنیت سازمانی ایجاد می کنند: آنها باید به داده هایی که باعث می شود آنها را مؤثر کند ، دسترسی پیدا کنند ، بدون اینکه به طور تصادفی اطلاعات خصوصی را به دیگران باز کنند یا ارسال کنند. با این که مأمورین بیشتر کارهایی را انجام می دهند که کارمندان انسانی از آن استفاده می کردند ، مسئله صحت و پاسخگویی به بازی می رسد ، به طور بالقوه تبدیل به سردرد برای تیم های امنیتی و انطباق می شود.

کریس بتز ، CISO از AWS ، به VentureBeat گفت که نسل بازیابی (RAG) و موارد استفاده از عامل “زاویه ای جذاب و جالب” در امنیت است.

بتز گفت: “سازمانها باید در مورد آنچه به طور پیش فرض در سازمان خود به نظر می رسد فکر کنند ، زیرا یک نماینده از طریق جستجوی هر چیزی که از مأموریت خود پشتیبانی کند ، پیدا می کند.” “و اگر اسناد را تحت الشعاع قرار می دهید ، باید در مورد سیاست اشتراک پیش فرض در سازمان خود فکر کنید.”

سپس متخصصان امنیتی باید بپرسند که آیا نمایندگان باید کارمندان دیجیتالی یا نرم افزار در نظر گرفته شوند. چقدر مأمورین باید دسترسی داشته باشند؟ چگونه باید آنها را شناسایی کرد؟

آسیب پذیری های عامل هوش مصنوعی

ژنرال هوش مصنوعی بسیاری از شرکتها را از آسیب پذیری های احتمالی آگاه کرده است ، اما مأمورین می توانند آنها را برای مسائل بیشتر باز کنند.

Carignan گفت: “حملاتی که امروز می بینیم بر سیستم های تک عامل ، مانند مسمومیت با داده ها ، تزریق سریع یا مهندسی اجتماعی برای تأثیرگذاری بر رفتار عامل ، تأثیر می گذارد ، همه می توانند در یک سیستم چند عامل آسیب پذیر باشند.”

شرکت ها باید به آنچه نمایندگان قادر به دسترسی به امنیت داده ها هستند ، توجه کنند.

بتز خاطرنشان كرد: بسیاری از مسائل امنیتی پیرامون دسترسی كارمندان انسانی می توانند برای مأمورین گسترش یابد. بنابراین ، “این اطمینان حاصل می شود که مردم به چیزهای مناسب و فقط چیزهای مناسب دسترسی دارند.” وی افزود: وقتی صحبت از گردش کار عامل با چندین مرحله می شود ، “هر یک از این مراحل فرصتی است” برای هکرها.

به نمایندگان هویت بدهید

یک پاسخ می تواند صدور هویت دسترسی خاص به نمایندگان باشد.

دنیایی که مدلها در مورد مشکلات در طول روزها استدلال می کنند “دنیایی است که ما باید بیشتر در مورد ضبط هویت نماینده و همچنین هویت انسان مسئول درخواست آن نماینده در همه جای سازمان ما فکر کنیم.” جیسون کلینتون ، CISO از ارائه دهنده مدل Anthropic.

شناسایی کارمندان انسانی کاری است که بنگاه ها برای مدت طولانی انجام داده اند. آنها مشاغل خاصی دارند. آنها یک آدرس ایمیلی که از آنها استفاده می کنند برای ورود به حساب و توسط مدیران IT ردیابی می شوند. آنها لپ تاپ های فیزیکی با حساب هایی دارند که می توانند قفل شوند. آنها مجوز فردی برای دسترسی به برخی داده ها دریافت می کنند.

تنوع این نوع دسترسی و شناسایی کارمندان می تواند به مأمورین اعزام شود.

هر دو بتز و کلینتون معتقدند که این روند می تواند رهبران شرکت ها را وادار کند تا در نحوه دسترسی اطلاعات به کاربران تجدید نظر کنند. این حتی می تواند سازمان ها را به منظور تعمیرات اساسی گردش کار خود سوق دهد.

بتز گفت: “استفاده از یک گردش کار عامل در واقع فرصتی را برای شما فراهم می کند تا موارد استفاده را برای هر مرحله در طول مسیر به داده های مورد نیاز خود به عنوان بخشی از پارچه محدود کنید ، اما فقط داده های مورد نیاز آن است.”

وی افزود: گردش کار عامل “می تواند به برخی از این نگرانی ها در مورد افزایش بیش از حد کمک کند ، زیرا شرکت ها باید در نظر بگیرند که چه داده هایی برای انجام اقدامات انجام می شود. کلینتون افزود: در یک گردش کار که در اطراف مجموعه خاصی از عملیات طراحی شده است ، “هیچ دلیلی وجود ندارد که مرحله اول نیاز به دسترسی به همان داده هایی که مرحله هفتم به آن نیاز دارد ، دسترسی داشته باشد.”

حسابرسی به سبک قدیمی کافی نیست

شرکت ها همچنین می توانند به دنبال سیستم عامل های عامل باشند که به آنها اجازه می دهد تا نحوه کار نمایندگان را بررسی کنند. به عنوان مثال ، Don Schuerman ، CTO ارائه دهنده اتوماسیون گردش کار PEGA ، گفت که شرکت وی با گفتن اینکه عامل چه کاری انجام می دهد ، از امنیت عامل کمک می کند.

شورمن به VentureBeat گفت: “از پلتفرم ما در حال حاضر برای حسابرسی کارهایی که انسان ها انجام می دهند استفاده می شود ، بنابراین ما می توانیم هر قدم را که یک عامل انجام می دهد نیز حسابرسی کنیم.”

جدیدترین محصول PEGA ، AgentX ، به کاربران انسانی اجازه می دهد تا به صفحه نمایش بپردازند و مراحل انجام شده را انجام می دهند. کاربران می توانند ببینند که در طول جدول زمانی گردش کار عامل قرار دارد و از اقدامات خاص آن خواسته می شود.

ممیزی ها ، جدول زمانی و شناسایی راه حل های کاملی برای موضوعات امنیتی ارائه شده توسط نمایندگان هوش مصنوعی نیستند. اما از آنجا که شرکت ها پتانسیل نمایندگان را کشف می کنند و شروع به استقرار آنها می کنند ، با ادامه آزمایش AI ، پاسخ های هدفمند تر می توانند به دست بیایند.

نوشته های مرتبط

اپل قصد دارد کاربران آیفون را با iOS 18.3.1 غافلگیر کند

سوگل سیدصالحی

کیفیت تماس با AT&T در حال تغییر است … و می توانید آن را در نوکیا “سرزنش کنید”

سوگل سیدصالحی

Xiaomi 15 Ultra Curfaces در Geekbench ، تأیید مشخصات کلیدی قبل از راه اندازی

سوگل سیدصالحی

ارسال دیدگاه