مروری بر آسیب پذیری شبکه های عصبی عمیق نسبت به نمونه های خصمانه و رویکرد های مقابله با آن ها

پیام:
نوع مقاله:
مقاله مروری (دارای رتبه معتبر)
چکیده:

امروزه شبکه های عصبی به عنوان بارزترین ابزار مطرح در هوش مصنوعی و یادگیری ماشین شناخته شده و در حوزه های مالی و بانکداری، کسب و کار، تجارت، سلامت، پزشکی، بیمه، رباتیک، هواپیمایی، خودرو، نظامی و سایر حوزه ها مورد استفاده قرار می گیرند. در سال های اخیر موارد متعددی از آسیب پذیری شبکه های عصبی عمیق نسبت به حملاتی مطرح شده که غالبا با افزودن اختلالات جمع شونده و غیر جمع شونده بر داده ورودی ایجاد می شوند. این اختلالات با وجود نامحسوس بودن در ورودی از دیدگاه عامل انسانی، خروجی شبکه آموزش دیده را تغییر می دهند. به اقداماتی که شبکه های عصبی عمیق را نسبت به حملات مقاوم می نمایند، دفاع اطلاق می شود. برخی از روش های حمله مبتنی بر ابزارهایی نظیر گرادیان شبکه نسبت به ورودی، به دنبال شناسایی اختلال می باشند و برخی دیگر به تخمین آن ابزارها می پردازند و در تلاش هستند تا حتی بدون داشتن اطلاعاتی از آن ها، به اطلاعات آن ها دست پیدا کنند. رویکردهای دفاع نیز برخی روی تعریف تابع هزینه بهینه و همچنین معماری شبکه مناسب و برخی دیگر بر جلوگیری و یا اصلاح داده قبل از ورود به شبکه متمرکز می شوند. همچنین برخی رویکردها به تحلیل میزان مقاوم بودن شبکه نسبت به این حملات و ارایه محدوده اطمینان متمرکز شده اند. در این مقاله سعی شده است تا جدیدترین پژوهش ها در زمینه آسیب پذیری شبکه های عصبی عمیق  بررسی و مورد نقد قرار گیرند و کارایی آن ها با انجام آزمایش هایی مقایسه شود. در آزمایشات صورت گرفته در بین حملات محصور شده به l∞  و l2 ، روش AutoAttack کارایی بسیار بالایی دارد. البته باتوجه به برتری روش AutoAttack نسبت به روش هایی نظیر MIFGSM، PGD و DeepFool این روش برای اجرا، مدت زمان بیشتری به خاطر ترکیبی بودن ساختار درونی آن نسبت به سایر روش های همردیف خود نیاز دارد. همچنین به مقایسه برخی از رویکردهای پرکاربرد دفاع در مقابل نمونه های خصمانه نیز پرداخته شد و از بین روش های مبتنی بر نواحی محصورشده به l∞   حول داده، روش آموزش خصمانه مبتنی بر مشتقات PGD با پارامترهای مشخص، از سایر روش ها بهتر در مقابل اغلب روش های حمله مقاوم بوده است. لازم به ذکر است که روش های مختلف حمله خصمانه و دفاع نسبت به آن حملات که در این مقاله مورد بررسی قرار گرفت است در یک قالب مناسب و منعطف کدنویسی شده است. این قالب کدنویسی به عنوان یک پشتوانه پایدار ویژه تحقیق و پژوهش در حوزه یادگیری ماشین استاندارد و یادگیری ماشین خصمانه ویژه پژوهشگران و علاقه مندان از طریق آدرس https://github.com/khalooei/Robustness-framework  در دسترس  قرار گرفته است.

زبان:
فارسی
صفحات:
113 تا 144
لینک کوتاه:
magiran.com/p2640676 
دانلود و مطالعه متن این مقاله با یکی از روشهای زیر امکان پذیر است:
اشتراک شخصی
با عضویت و پرداخت آنلاین حق اشتراک یک‌ساله به مبلغ 1,390,000ريال می‌توانید 70 عنوان مطلب دانلود کنید!
اشتراک سازمانی
به کتابخانه دانشگاه یا محل کار خود پیشنهاد کنید تا اشتراک سازمانی این پایگاه را برای دسترسی نامحدود همه کاربران به متن مطالب تهیه نمایند!
توجه!
  • حق عضویت دریافتی صرف حمایت از نشریات عضو و نگهداری، تکمیل و توسعه مگیران می‌شود.
  • پرداخت حق اشتراک و دانلود مقالات اجازه بازنشر آن در سایر رسانه‌های چاپی و دیجیتال را به کاربر نمی‌دهد.
In order to view content subscription is required

Personal subscription
Subscribe magiran.com for 70 € euros via PayPal and download 70 articles during a year.
Organization subscription
Please contact us to subscribe your university or library for unlimited access!