مروری بر آسیب پذیری شبکه های عصبی عمیق نسبت به نمونه های خصمانه و رویکرد های مقابله با آن ها
امروزه شبکه های عصبی به عنوان بارزترین ابزار مطرح در هوش مصنوعی و یادگیری ماشین شناخته شده و در حوزه های مالی و بانکداری، کسب و کار، تجارت، سلامت، پزشکی، بیمه، رباتیک، هواپیمایی، خودرو، نظامی و سایر حوزه ها مورد استفاده قرار می گیرند. در سال های اخیر موارد متعددی از آسیب پذیری شبکه های عصبی عمیق نسبت به حملاتی مطرح شده که غالبا با افزودن اختلالات جمع شونده و غیر جمع شونده بر داده ورودی ایجاد می شوند. این اختلالات با وجود نامحسوس بودن در ورودی از دیدگاه عامل انسانی، خروجی شبکه آموزش دیده را تغییر می دهند. به اقداماتی که شبکه های عصبی عمیق را نسبت به حملات مقاوم می نمایند، دفاع اطلاق می شود. برخی از روش های حمله مبتنی بر ابزارهایی نظیر گرادیان شبکه نسبت به ورودی، به دنبال شناسایی اختلال می باشند و برخی دیگر به تخمین آن ابزارها می پردازند و در تلاش هستند تا حتی بدون داشتن اطلاعاتی از آن ها، به اطلاعات آن ها دست پیدا کنند. رویکردهای دفاع نیز برخی روی تعریف تابع هزینه بهینه و همچنین معماری شبکه مناسب و برخی دیگر بر جلوگیری و یا اصلاح داده قبل از ورود به شبکه متمرکز می شوند. همچنین برخی رویکردها به تحلیل میزان مقاوم بودن شبکه نسبت به این حملات و ارایه محدوده اطمینان متمرکز شده اند. در این مقاله سعی شده است تا جدیدترین پژوهش ها در زمینه آسیب پذیری شبکه های عصبی عمیق بررسی و مورد نقد قرار گیرند و کارایی آن ها با انجام آزمایش هایی مقایسه شود. در آزمایشات صورت گرفته در بین حملات محصور شده به l∞ و l2 ، روش AutoAttack کارایی بسیار بالایی دارد. البته باتوجه به برتری روش AutoAttack نسبت به روش هایی نظیر MIFGSM، PGD و DeepFool این روش برای اجرا، مدت زمان بیشتری به خاطر ترکیبی بودن ساختار درونی آن نسبت به سایر روش های همردیف خود نیاز دارد. همچنین به مقایسه برخی از رویکردهای پرکاربرد دفاع در مقابل نمونه های خصمانه نیز پرداخته شد و از بین روش های مبتنی بر نواحی محصورشده به l∞ حول داده، روش آموزش خصمانه مبتنی بر مشتقات PGD با پارامترهای مشخص، از سایر روش ها بهتر در مقابل اغلب روش های حمله مقاوم بوده است. لازم به ذکر است که روش های مختلف حمله خصمانه و دفاع نسبت به آن حملات که در این مقاله مورد بررسی قرار گرفت است در یک قالب مناسب و منعطف کدنویسی شده است. این قالب کدنویسی به عنوان یک پشتوانه پایدار ویژه تحقیق و پژوهش در حوزه یادگیری ماشین استاندارد و یادگیری ماشین خصمانه ویژه پژوهشگران و علاقه مندان از طریق آدرس https://github.com/khalooei/Robustness-framework در دسترس قرار گرفته است.
- حق عضویت دریافتی صرف حمایت از نشریات عضو و نگهداری، تکمیل و توسعه مگیران میشود.
- پرداخت حق اشتراک و دانلود مقالات اجازه بازنشر آن در سایر رسانههای چاپی و دیجیتال را به کاربر نمیدهد.