موبایل

چگونه دفاع هوش مصنوعی سیسکو قصد دارد تهدیدهای سایبری را که هرگز نمی بینید متوقف کند

چگونه دفاع هوش مصنوعی سیسکو قصد دارد تهدیدهای سایبری را که هرگز نمی بینید متوقف کند

به گزارش سرویس تازه های دنیای فناوری وبسایت اخبار تکنولوژی تک فاکس،

این مقاله بخشی از شماره ویژه VentureBeat با عنوان “کتاب پخش تاب آوری سایبری: پیمایش در دوره جدید تهدیدها” است. اطلاعات بیشتر از این شماره ویژه را در اینجا بخوانید.

از آنجا که AI Adoption در سراسر شرکت ها تسریع می کند ، سازگاری سریع رعد و برق آن یک پارادوکس امنیتی ایجاد می کند-تیم ها چگونه از سیستمی محافظت می کنند که دائماً در حین مقیاس بندی آن در سطح شرکت قرار می گیرد؟

هوش مصنوعی مخالف اکنون بر این تهدید حاکم است و باعث جنگ سایبری خفا می شود. مخالفان سریع می توانند همه جنبه های هوش مصنوعی ، از جمله مدل های بزرگ زبان (LLM) را اسلحه کنند. پذیرش سریع هوش مصنوعی در حال باز کردن سطوح حمله جدیدی است که تیم های امنیتی نمی توانند از استفاده از فناوری های امنیتی فعلی استفاده کنند.

نکته آخر این است که شکاف بین هوش مصنوعی مخالف و هوش مصنوعی دفاعی به سرعت در حال رشد است و امنیت و ثبات مالی شرکتها در تعادل قرار دارند. از مسمومیت با داده ها گرفته تا حملات تزریق سریع ، مخالفان در حال سوءاستفاده از آسیب پذیری های هوش مصنوعی هستند و این فناوری را به یک وکتور برای اطلاعات غلط ، نقض امنیتی و اختلال در تجارت تبدیل می کنند.

چگونه سیسکو به بستن شکاف ها کمک می کند

استراتژی دفاعی هوش مصنوعی سیسکو با هدف بستن این شکافهای گسترده بین تجارت مخالف AI و پتانسیل آن برای آسیب رساندن به بنگاه ها انجام می شود. با توجه به اینکه اکثر استقرار های Gen AI انتظار می رود تا سال 2028 امنیت کافی داشته باشند ، زمان بندی سیسکو از نظر پیش بینی کننده است.

گارتنر نیز حرفدر رادار تأثیرگذاری فناوری در حال ظهور خود گزارش شده است: امنیت ابر که 40 ٪ از اجرای ژنرال AI تا سال 2028 بر روی زیرساخت های فاقد پوشش امنیتی کافی مستقر می شوند و شرکت ها را در معرض تهدیدات سایبری AI در مقیاس بی سابقه قرار می دهند.

هیچ شغلی نمی تواند در مورد محافظت از مدل های هوش مصنوعی به تعویق بیفتد – آنها به کمک به پرداختن به پارادوکس مدیریت چنین دارایی بسیار سازگار که بدون اطلاع آنها می تواند به راحتی سلاح شود ، نیاز به کمک دارند.

دفاعی AI سیسکو که در ژانویه راه اندازی شد ، به این معضل می پردازد و نظارت بر زمان واقعی ، اعتبار سنجی مدل و اجرای سیاست را در مقیاس ادغام می کند.

جنگ غیب: هوش مصنوعی به عنوان سطح حمله

بزرگترین قدرت هوش مصنوعی ، و جایی که بیشترین ارزش را به شرکت ها تحویل می دهد ، توانایی آن در خودآموزی و سازگاری است. اما این همچنین بزرگترین ضعف آن است. مدل های هوش مصنوعی غیر قطعی هستند ، به این معنی که رفتار آنها با گذشت زمان تغییر می کند. این غیرقابل پیش بینی ، نقاط کور امنیتی را ایجاد می کند که مهاجمان از آن سوء استفاده می کنند.

شواهدی مبنی بر اینکه با گسترش پارادوکس ، چقدر جنگ سایبری مخفیک شدید است. حملات مسمومیت با داده ها مجموعه داده های آموزش را خراب می کند و باعث می شود هوش مصنوعی خروجی های مغرضانه ، ناقص یا خطرناک تولید کند. حملات تزریق سریع به منظور فریب چت بابات های هوش مصنوعی در آشکار کردن داده های حساس مشتری یا اجرای دستوراتی که به مدل ها و داده ها آسیب می رسانند ، طراحی شده اند. مدل های تبعید مدل مدلهای هوش مصنوعی اختصاصی ، سرقت مالکیت معنوی و تضعیف مزیت رقابتی یک شرکت را هدف قرار می دهد.

Shadow AI – یا استفاده غیرقابل تحمل از ابزارهای هوش مصنوعی توسط کارمندان ، که ناخواسته داده های حساس (یا نه) را به مدل های هوش مصنوعی خارجی مانند ChatGPT و Copilot تغذیه می کنند – همچنین به مشکلی در حال رشد گسترده تر و با سرعت بیشتری کمک می کند.

همانطور که Jeetu Patel ، EVP و CPO در Cisco به VentureBeat گفتند: “رهبران تجارت و فناوری نمی توانند هنگام پذیرش هوش مصنوعی ، ایمنی را برای سرعت قربانی کنند. در یک منظره پویا که در آن رقابت شدید است ، سرعت برندگان را تصمیم می گیرد. “

به عبارت ساده: سرعت بدون امنیت یک بازی باخت است.

دفاع سیسکو هوش مصنوعی: یک رویکرد جدید برای امنیت هوش مصنوعی

دفاع هوش مصنوعی سیسکو ، امنیت ساخته شده و تعبیه در زیرساخت های شبکه است تا بتواند از هر جنبه ای از توسعه ، راه اندازی و استفاده هوش مصنوعی مقیاس و محافظت کند.

در هسته اصلی آن ، این سکو ارائه می دهد:

  • قابلیت دید هوش مصنوعی و سایه AI: تیم های امنیتی در زمان واقعی در برنامه های AI مجازات و غیرقابل تحقق به دست می آورند و ردیابی می کنند چه کسی از هوش مصنوعی استفاده می کند ، چگونه آموزش می یابد و آیا این سیاست ها را مطابق با سیاست های امنیتی می کند.
  • اعتبار سنجی خودکار مدل و تیم قرمز: تیم قرمز الگوریتمی سیسکو ، که از کسب اطلاعات قوی خود تهیه شده است ، تریلیون های شبیه سازی حمله را اجرا می کند و آسیب پذیری ها را قبل از مخالفان مشخص می کند.
  • زمان اجرا امنیت و اجرای تطبیقی: مدل های AI برای تشخیص و مسدود کردن تزریق سریع ، مسمومیت با داده ها و سوء استفاده های متناقض در زمان واقعی ، تحت اعتبار مداوم قرار می گیرند.
  • کنترل دسترسی و پیشگیری از از دست دادن داده ها (DLP): شرکت ها می توانند از استفاده غیرمجاز از هوش مصنوعی جلوگیری کنند ، سیاست های امنیتی را اجرا کنند و اطمینان حاصل کنند که داده های حساس هرگز در مدل های هوش مصنوعی خارجی نشت نمی کنند.

با تعبیه امنیت هوش مصنوعی در پارچه شبکه سیسکو ، دفاع هوش مصنوعی تضمین می کند که امنیت هوش مصنوعی ذاتی برای عملیات شرکت است – و نه یک نتیجه گیری.

دفاع AI امنیت را در DNA شرکتهای AI محور جاسازی می کند

با نگرانی از نتایج و ترس از عقب نشینی از رقبا ، سازمان های بیشتری در حال عجله برای استقرار هوش مصنوعی در مقیاس هستند. در حال حاضر عجله “استقرار در حال حاضر ، ایمن بعداً” به نتیجه می رسد و در بهترین حالت خطرناک است و به سوخت جنگ سایبری خفا در برابر مخالفان با بودجه خوب قصد دارد قصد حمله به سازمان های هدف را به خواست خود داشته باشد.

شاخص آمادگی AI 2024 سیسکو نشان داد که تنها 29 ٪ از شرکت ها برای تشخیص و جلوگیری از دستکاری هوش مصنوعی غیرمجاز مجهز هستند. این بدان معناست که 71 ٪ از شرکتها در برابر حملات سایبری AI ، نقض انطباق و خرابی فاجعه بار هوش مصنوعی آسیب پذیر هستند.

گارتنر هشدار می دهد که شرکت ها باید مکانیسم های دفاعی در زمان AI را پیاده سازی کنند ، زیرا ابزارهای امنیتی سنتی نقطه پایانی نمی توانند مدل های هوش مصنوعی را از حملات مخالف محافظت کنند.

برای ماندن ، شرکت ها باید:

  • اتخاذ چارچوب های امنیتی یکپارچه AI: راه حل های امنیتی باید جامع ، خودکار و تعبیه شده در زیرساخت ها باشد.
  • اطلاعات تهدید هوش مصنوعی و اعتبارسنجی مداوم را اجرا کنید: مدل های AI نیاز به نظارت مداوم دارند زیرا چشم انداز تهدید خیلی سریع برای دفاع استاتیک تغییر می کند.
  • از انطباق هوش مصنوعی در محیط های چند ابر اطمینان حاصل کنید: چارچوب های نظارتی در سطح جهان سفت می شوند. شرکت ها باید سیاست های امنیتی AI را با تحول در مورد انطباق مانند قانون اتحادیه اروپا و چارچوب امنیتی NIST AI تراز کنند.

دفاع سیسکو هوش مصنوعی: سخت افزاری شرکت در برابر تهدیدهای در حال تحول

هوش مصنوعی آینده نوآوری سازمانی است ، اما هوش مصنوعی ناامن یک مسئولیت است. بدون محافظت در سمت چپ ، هوش مصنوعی را می توان دستکاری ، بهره برداری و سلاح های سایبری کرد.

دفاع سیسکو AI فقط یک ابزار امنیتی نیست-بلکه یک استراتژی امنیتی AI در سطح شرکت است. سیسکو با ادغام نظارت بر هوش مصنوعی در زمان واقعی ، اعتبار سنجی خودکار مدل و اجرای شبکه تعبیه شده ، استاندارد جدید را برای امنیت هوش مصنوعی در مقیاس تعیین می کند.

همانطور که پاتل هشدار داد: “چالش های امنیتی AI معرفی می کند ، جدید و پیچیده است و آسیب پذیری ها مدل ها ، برنامه ها و زنجیره های تأمین را شامل می شوند. ما باید متفاوت فکر کنیم. دفاع هوش مصنوعی برای اطمینان از اینكه بنگاهها می توانند با جسارت و بدون تجارت نوآوری كنند ، ساخته شده است. “

نوشته های مرتبط

به کاربران آیفون اپل هشدار داده می شود: این تنظیمات به طور پیش فرض روشن است اما باید ASAP غیرفعال شود

سوگل سیدصالحی

بازی های موبایل خود را با Asus Rog Phone 8 ، اکنون 30 ٪ تخفیف در آمازون قرار دهید

سوگل سیدصالحی

Motorola Razr Plus (2025) انتظارات تاریخ انتشار ، برآورد قیمت و به روزرسانی

سوگل سیدصالحی

ارسال دیدگاه