فهرست مطالب

فصلنامه پدافند الکترونیکی و سایبری
سال نهم شماره 1 (پیاپی 33، بهار 1400)

  • تاریخ انتشار: 1400/02/22
  • تعداد عناوین: 14
|
  • حسین صابری*، محمدرضا کنگاوری، محمدرضا حسنی آهنگر صفحات 1-17

    کاوش قواعد هم آیی توزیع شده یکی از روش های مهم داده کاوی است که وابستگی بین اقلام داده ای را از منابع داده ای غیرمتمرکز، بدون توجه به مکان فیزیکی آن ها و بر مبنای فرآیند استخراج اقلام مکرر استخراج می کند. هنگامی که الگوریتم های کاوش روی داده های بزرگ مقیاس اجرا می شوند، مقدار زیادی اقلام مکرر تولید می گردد که بسیاری از آن ها غیر مرتبط، مبهم و غیر قابل استفاده برای کسب و کار است و سبب بروز چالشی به نام " انفجار ترکیبی" خواهد شد. در این مقاله یک روش ایتلافی جدید مبتنی بر داده کاوی توزیع شده و هستان شناسی دامنه که به اختصار DARMASO نامیده می شود برای برخورد با این چالش پیشنهاد شده است. این روش از سه الگوریتم به نام  ARMASOMAIN  جهت هدایت و کنترل فرآیند کاوش و تجمیع قواعد هم آیی، DARMASOPRU برای کاهش و هرس داده ها و الگوریتم DARMASOINT برای کاوش و تجمیع قواعد هم آیی تولیدشده از منابع داده ای توزیع شده استفاده می کند. DARMASO از یک الگوی محاسباتی توزیع شده مبتنی بر چارچوب نگاشت-کاهش در محیط توزیع شده چندعاملی استفاده می کند. همچنین یک روش عملی را برای کاوش معنایی از مجموعه داده های بزرگ مقیاس فراهم می کند. این روش، قواعد هم آیی را مبتنی بر اهداف داده کاوی و نیاز کاربر فیلتر کرده و فقط قواعد مفید را تولید و نگهداری می کند.کاهش فضای کاوش و فیلترسازی قواعد، با فرآیند هرس معنایی در قالب حذف نامزدهای نامناسب از مجموعه اقلام مکرر و تولید قواعد هم آیی سودمند حاصل می شود. پیاده سازی با استفاده از یک مجموعه داده ای از دامنه حوادث طبیعی و کلاس زمین لرزه انجام شده است. نتایج ارزیابی با استفاده از معیارهای کمی و کیفی نشان می دهد، الگوریتم های ارایه شده در DARMASO ، فضای کاوش را به میزان قابل توجهی کاهش می دهد. همچنین سرعت و کیفیت استخراج قواعد را بهبود بخشیده و قواعد کاربردی، مطمین، منطقی، با کیفیت و ارزشمندی را برای پشتیبانی از تصمیم گیری از میان انبوه داده ها تولید می کند.

    کلیدواژگان: قواعد هم آیی، هستان شناسی، سامانه های چندعاملی، نگاشت کاهش
  • سعید قاضی مغربی*، هادی عالمی صفحات 19-27

    بلوک درهم ساز یکی از پرکاربردترین بلوک های مخابراتی در طراحی پروتکل های مخابرات دیجیتال است. این بلوک، به منظور تصادفی سازی رشته بیت ها مورد استفاده قرار می گیرد و معمولا بعد از کدگذار منبع یا بعد از کدگذار کانال استفاده می شود. در شناسایی کور نیز فرض می کنند بلوک درهم ساز بعد از کدگذار منبع یا بعد از کدگذار کانال قرار گرفته باشد. غالبا در طراحی درهم سازهای خطی از LFSR ها استفاده می شود. بنابراین، درهم سازها را با استفاده از چندجمله ای بازخورد و حالت اولیه آن تعریف می کنند. در کارهای پیشین، به شناسایی حالت اولیه درهم ساز بعد از کدگذار کانال پرداخته شده است، ولیکن باید توجه داشت که در همه شرایط، الگوریتم های ارایه شده قادر به پاسخگویی نیستند. در این شرایط، ممکن است از روش جستجوی کامل جهت شناسایی حالت اولیه درهم ساز استفاده شود که روشی بسیار زمان بر است. در این مقاله، الگوریتم جدیدی برای شناسایی حالت اولیه درهم ساز بعد از کدگذار کانال ارایه می شود، که قادر است در شرایطی که الگوریتم های دیگر پاسخگو نیستند، به شناسایی حالت اولیه درهم ساز بپردازد. در الگوریتم جدید، فضای جستجو نیز کاهش پیدا کرده و در نتیجه زمان بسیار کمتری برای شناسایی صرف می شود.

    کلیدواژگان: شناسایی کور، درهم ساز هم زمان، حالت اولیه، کدگذار کانال، شناسایی حالت اولیه
  • فاطمه دلدار، مهدی آبادی* صفحات 29-42

    در سال های اخیر، سازوکارهای متعددی برای اجرای پرس وجوهای آماری با ضمانت حریم خصوصی تفاضلی روی پایگاه های داده مسیر حرکت پیشنهاد شده است. هدف اغلب این سازوکارها پاسخ به پرس وجوهای آماری بدون انتشار مسیرهای حرکت اشیا متحرک است. در این مقاله، یک سازوکار حریم خصوصی تفاضلی جدید به نام DP-STDR پیشنهاد می شود که با حفظ سودمندی های فضایی و زمانی، مسیرهای حرکت مصنوعی را با ضمانت حریم خصوصی تفاضلی و برای اهداف تحلیل داده منتشر می کند. DP-STDR برخی ویژگی های اصلی فضایی، زمانی و آماری مسیرهای حرکت واقعی را حفظ کرده و ساختار درختی جدیدی را با ضمانت حریم خصوصی تفاضلی برای نگهداری محتمل ترین مسیرهای موجود با طول ها و نقاط شروع مختلف تعریف می کند. از این ساختار درختی برای تولید مسیرهای حرکت مصنوعی استفاده می شود. آزمایش های انجام شده نشان می دهند که DP-STDR در مقایسه با کارهای مرتبط پیشین، سودمندی پاسخ پرس وجوها را افزایش داده و ویژگی های فضایی، زمانی و آماری مسیرهای حرکت واقعی را بهتر حفظ می کند.

    کلیدواژگان: حریم خصوصی تفاضلی، انتشار پایگاه داده مسیر حرکت، درخت مسیر نویزی، الگوی مسیر حرکت
  • افسانه بنی طالبی دهکردی، محمدرضا سلطان آقایی*، فرساد زمانی بروجنی صفحات 43-59

    شبکه های نرم افزارمحور، معماری جدیدی از شبکه های کامپیوتری بوده که از هدایت کننده مرکزی استفاده می کنند. این شبکه ها متکی بر نرم افزار هستند و از این رو، حملات امنیتی گوناگونی می تواند از طریق اجزای مختلف شبکه بر ضد آن ها صورت گیرد. یکی از این نوع حملات، حمله منع سرویس توزیع شده است. این حمله یکی از جدی ترین تهدیدات در دنیای شبکه های کامپیوتری است و بر روی کارایی شبکه، تاثیرمی گذارد. در این پژوهش یک روش تشخیص حملات منع سرویس توزیع شده به نام «حمله یاب» در شبکه های نرم افزارمحور ارایه شده است. این سامانه مبتنی بر ترکیب روش های آماری و یادگیری ماشین است. در روش آماری از آنتروپی مبتنی بر آی پی مقصد و توزیع نرمال با استفاده از حد آستانه انعطاف پذیر، برای تشخیص حملات استفاده شده است، توزیع نرمال، یکی از مهم ترین توزیع های احتمال پیوسته در نظریه احتمالات است. در این توزیع، میانگین آنتروپی و انحراف استاندارد در تشخیص حملات تاثیر دارند. در بخش یادگیری ماشین، با استخراج ویژگی های مناسب و استفاده از الگوریتم های کلاس بندی نظارت شده، دقت تشخیص حملات منع سرویس توزیع شده بالا می رود. مجموعه داده های مورد استفاده در این پژوهش، ISCX-SlowDDoS2016، ISCX-IDS2012، CTU-13 و ISOT هستند. روش پیشنهادی حمله یاب با چند روش دیگر مقایسه شده است که نتیجه مقایسه نشان می دهد که روش حمله یاب با دقت 65/99 و نرخ هشدار غلط، 12/0 برای مجموعه داده UNB-ISCX و دقت تشخیص 99٫84 و نرخ هشدار غلط 0٫25 برای مجموعه داده 13-CTU دقت و کارایی بالایی نسبت به سایر روش های دیگر دارد.

    کلیدواژگان: حملات منع سرویس توزیع شده، شبکه های نرم افزارمحور، آنتروپی، توزیع نرمال، الگوریتم های کلاس بندی
  • مهدی اسدی، سعید پارسا*، وحید وثوقی صفحات 61-74

    هر شبکه بات گروهی از میزبان هایی است که با کد بدخواه یکسانی آلوده شده و از طریق یک یا چند سرویس دهنده فرمان و کنترل توسط مهاجم یا مدیر بات هدایت می شوند. در شبکه های بات نسل جدید فهرست نام های دامنه سرویس دهنده های فرمان و کنترل به صورت پویا ایجاد می شود. این فهرست پویا که توسط یک الگوریتم تولید دامنه ایجاد می شود به مهاجم کمک می کند تا مکان سرویس دهنده های فرمان و کنترل خود را به صورت دوره ای تغییر داده و از قرار گرفتن آدرس های آن ها در فهرست های سیاه جلوگیری کند. هر میزبان آلوده با استفاده از یک الگوریتم از پیش تعریف شده، تعداد زیادی نام دامنه تولید کرده و با ارسال پرس وجوهای سرویس دهنده دامنه تلاش می کند آن ها را به آدرس های متناظرشان نگاشت کند. در این مقاله، از الگوریتم شبکه عصبی خود رمزگذار عمیق برای شناسایی دامنه هایی که هیچ گونه آگاهی از الگوریتم تولید آن ها وجود نداشته است، استفاده شده و عملکرد روش پیشنهادی با عملکرد الگوریتم های یادگیری ماشین مقایسه شده است. ابتدا مجموعه داده جدیدی از ترکیب یک مجموعه داده با دامنه های سالم و دو مجموعه داده حاوی دامنه های بدخواه و ناسالم ایجادشده و از دو سناریوی دستی و خودکار برای استخراج ویژگی های مجموعه داده جدید استفاده شده است. شبکه عصبی خود رمزگذار عمیق بر روی مجموعه داده جدید و پیش پردازش شده اعمال شده و نتایج در مقایسه با الگوریتم های یادگیری ماشین بررسی شده است. با توجه به نتایج به دست آمده، می توان با استفاده از شبکه عصبی خود رمزگذار عمیق، دامنه های بدخواه تولیدشده توسط الگوریتم های تولید دامنه را با سرعت بیشتر و نرخ صحت بیشتر از 98.61% شناسایی کرد.

    کلیدواژگان: شبکه بات، الگوریتم های تولید دامنه، استخراج ویژگی، شبکه عصبی عمیق، شبکه عصبی خود رمزگذار عمیق
  • سعید یزدانپناه، محمد خیراندیش*، محمد مصلح صفحات 75-90

    عمومیت فایل های صوتی، اغلب توجه مهاجمین و عناصر مخرب را برای استفاده از این حامل، جهت پوشش دهی ارتباطات محرمانه خود جلب می نماید. گستردگی استفاده از این قالب ها، به همراه رویکردهای متعدد و مدرنی که برای نهان نگاری در فایل های صوتی طراحی شده اند،   می توانند فضای سایبری را به محیطی نا امن بدل نمایند. در راستای مقابله با این تهدیدات، امروزه روش های متعدد نهان کاوی ابداع شده اند که با دقت بالایی قادر به تحلیل آماری قالب های مختلف صوتی، مانند MP3 و VoIp هستند. در میان راه حل های ارایه شده، ترکیب روش های پردازش سیگنال و یادگیری ماشین، امکان ایجاد نهان کاوهایی با دقت بسیار بالا را فراهم نموده است. با این وجود، از آنجا که ویژگی های آماری فایل های صوتی گفتاری متفاوت از نمونه های دیگر صوتی است، روش های جاری نهان کاوی قادر نیستند به شکل موثری فایل های حامل گفتاری را تشخیص دهند. مشکل دیگر، ابعاد بالای تحلیلی است که به شکل چشمگیری هزینه پیاده سازی را افزایش می دهد. در پاسخ به مشکلات ذکرشده، این مقاله ویژگی یک بعدی "درصد نمونه های مجاور یکسان" را به عنوان فاکتور جداسازی نمونه های نهان نگاری شده از پاک مطرح می کند. نتایج نشانگر حساسیت 82/99% نهان کاو طراحی شده با استفاده از دسته بند تابع عضویت گاوسی، در نرخ نهان نگاری 50% است. علاوه بر این، این نهان کاو قادر است با دقت مطلوبی حجم پیام مخفی شده را تخمین بزند. عملکرد الگوریتم طراحی شده بر روی یک پایگاه داده متشکل از نمونه های موسیقی کلاسیک نیز ارزیابی شده و نتایج حاکی از کارایی 2/81% آن هستند.

    کلیدواژگان: نهان کاوی گفتار، نهان کاوی صوتی، پردازش سیگنال های صوتی، LSB، نهان نگاری
  • جواد علیزاده*، مجید ابوئی مهریزی صفحات 91-100
    یک تابع چکیده ساز رمزنگاری، ورودی های با طول دلخواه را به یک مقدار چکیده با اندازه ثابت تبدیل می کند. توابع چکیده ساز در بسیاری از کاربردهای رمزنگاری مانند امضای رقمی به کار می روند و می بایست در برابر برخورد، پیش تصویر و پیش تصویر دوم مقاوم باشند. تحلیل چرخشی به عنوان یک روش تحلیل رمز برای تحلیل الگوریتم هایی که در ساختارشان از سه عملگر چرخش، جمع پیمانهای و XOR استفاده می کنند، یعنی سامانه های ARX معرفی شده است. توابع چکیده ساز Shabal و Cubehash که از نامزدهای دور دوم مسابقه SHA-3 هستند، جزو ساختارهای ARX دسته بندی می شوند. این توابع توسط طباطبایی و همکاران با استفاده از تحلیل چرخشی مورد ارزیابی قرار گرفته اند. با بررسی های صورت گرفته مشخص شد این تحلیل ها تحلیل های دقیقی نیستند. در این مقاله تحلیل چرخشی روی توابع چکیده ساز ذکرشده با دقت بیشتری مورد مطالعه و بررسی قرار می گیرد. این کار با توجه به برخی نتایج جدید در حوزه تحلیل چرخشی انجام می شود و نشان داده می شود که در مقایسه با کار طباطبایی و همکاران، تحلیل چرخشی روی تعداد دور کمتری از توابع چکیده ساز Shabal و Cubehash موثر است.
    کلیدواژگان: تابع چکیده ساز، تحلیل چرخشی، جمع پیمانه ای، زنجیره مارکوف
  • مهدی مصلح، سعید ستایشی*، بهرنگ برکتین، محمد مصلح صفحات 101-113
    فناوری نهان نگاری دیجیتال به عنوان یکی از بهترین راه حل ها جهت حل مسئله کپی غیرمجاز، شناسایی محتوا و احراز هویت رسانه های دیجیتال ارایه شده است. نهان نگاری دیجیتال می تواند در حوزه تصویر، متن، صوت ویدیو به کار گرفته شود. نهان نگاری صوت، توجه بسیاری از محققین را به خود جلب کرده است چرا که سامانه شنوایی انسان بسیار حساس تر از سامانه بینایی می باشد. بنابراین، درج داده ها در سیگنال های صوتی به شیوه ای شفاف، بسیار سخت تر از سایر گونه های نهان نگاری است. سامانه نهان نگاری صوت کارآمد می بایست قادر باشد سه معیار شفافیت، مقاوم پذیری و ظرفیت جادهی را بهبود بخشد. بهبود هم زمان این سه معیار به عنوان مساله ای چالش برانگیز در حوزه نهان نگاری است چرا که افزایش ظرفیت جادهی باعث افزایش اعوجاج سیگنال شده و این امر موجب کاهش شفافیت و مقاوم پذیری می گردد. در این مقاله رویکردی جدید به منظور نهان نگاری صوت پیشنهاد می گردد که قادر است سه معیار مقاوم پذیری، شفافیت و ظرفیت را به نحو مناسبی بهبود بخشد. به منظور بهبود مقاوم پذیری سیگنال نهان نگاره شده در برابر حملات پردازش سیگنال از هم افزایی سه تبدیل کارآمد در حوزه پردازش سیگنال به نام های تبدیل گراف محور (GBT)، تبدیل کسینوسی گسسته و تبدیل موجک گسسته (DWT) استفاده شده است. علاوه بر این، به منظور حفظ شفافیت سیگنال نهان نگاری شده، داده های نهان نگاره در ماتریس بالا مثلثی حاصل از تجزیه LU ضرایب تقریب تبدیل موجک گسسته، بر اساس دنباله فیبونانچی درج می شوند. رویه کار بدین صورت است که بر اساس مقدار بیت نهان نگاره، مقادیر غیر صفر ماتریس بالا مثلثی با نزدیک ترین اعداد زوج و یا فرد در دنباله فیبوناچی جایگزین می شوند. عملیات استخراج نهان نگاره به صورت کاملا کور انجام می شود. نتایج حاصل از ارزیابی روش پیشنهادی بر روی فایل های صوتی با سبک های Blue، Electronic، Classic و Jazz نشان می دهند که روش ارایه شده علیرغم مقاوم پذیری مناسب در برابر حملات مختلف پردازش سیگنال، به طور متوسط دارای نرخ سیگنال به نویز 13/45 دسی بل و نرخ جادهی 75/625 بیت بر ثانیه است.
    کلیدواژگان: حق کپی رایت، نهان نگاری صوت، تبدیل گراف محور (GBT)، تبدیل کسینوسی گسسته(DCT)، تبدیل موجک گسسته (DWT)، تجزیه LU
  • سعید قادری پیراقوم، مهدی سخائی نیا*، محرم منصوری زاده صفحات 115-123

    از آنجایی که شناسایی ناهنجاری در شبکه های اجتماعی پویا، در یک دنباله ای از گراف ها در طول زمان صورت می گیرد، علاوه بر چالش ذخیره سازی، فرآیند شناسایی به دلیل آهستگی تکامل گراف ها دشوار است. چند گراف در بازه زمانی مشخص انتخاب می گردد و با بررسی تغییرات این گراف ها ناهنجاری احتمالی شناسایی می گردد. بنابراین انتخاب تعداد گراف(نقاط زمانی) در دنباله گراف ها به عنوان یک چالش مهم در شناسایی ناهنجاری ها در شبکه های اجتماعی پویاست در این مقاله روشی نوینی برای شناسایی ناهنجاری مبتنی بر داده های ساختاری مستخرج از گراف پویای شبکه اجتماعی ارایه گردیده است. با استخراج شاخص های مرکزیت از گراف شبکه و میانگین نرمال شده آن ها، معیار فعالیت برای هر فرد تعریف شده است. با گذر زمان، تغییرات معیار فعالیت برای هر فرد موردسنجش قرارگرفته و به عنوان امکان رفتار هنجار یا ناهنجار علامت گذاری می گردد. درصورتی که شاخص سنجش رفتار فرد از آستانه معینی بیشتر گردید به عنوان ناهنجاری گزارش می گردد. نتایج نشان داد که روش ارایه شده بر روی مجموعه داده VAST 2008 تعداد ناهنجاری بیشتری را با دقت 29/64 و فراخوان 82/81 یافته است. همچنین با انتخاب تعداد مختلف نقاط زمانی در دنباله گراف تعداد ناهنجاری بیشتری را شناسایی نموده است.

    کلیدواژگان: شبکه های اجتماعی، تشخیص ناهنجاری، گراف پویا، سنجش رفتاری
  • آریس آقانیانس، نصیب الله دوستی مطلق* صفحات 125-136

    توزیع کلید کوانتومی مساله تولید و تبادل کلید بین طرفین رمزنگاری را با امنیت نامشروط که با اصول و پدیده های مکانیک کوانتومی تضمین می شود، حل می کند. در پیشینه چهل ساله رمزنگاری کوانتومی، پروتکل های توزیع کلید کوانتومی گوناگونی ابداع شده اند که معروف ترین آنها BB84 است و برخی دیگر همچون پروتکل های شش حالته و اردهالی-چایو-لو با اعمال تغییراتی روی آن به وجود آمده اند. در این مقاله، شکل کلی تری از BB84 با به کارگیری  حالت قطبش که  جفت متعامد از حالت های قطبش و  پایه قطبش را به وجود می آورند، ارایه می شود. افزون بر آن، فرض می شود پایه های قطبش متمایز با احتمال های لزوما نابرابر انتخاب می شوند. سپس، با مطالعه و تحلیل پروتکل توزیع کلید کوانتومی جدید و دو حالت خاص آن از دیدگاه نظریه احتمال، این پروتکل ها با پروتکل های BB84، شش حالته و اردهالی-چایو-لو مقایسه و سرانجام، با ساخت چهار مثال عددی گوناگون، نتایج به دست آمده از تحلیل ها تایید می شوند. برتری پروتکل توزیع کلید کوانتومی جدید در مقایسه با پروتکل های BB84، شش حالته و اردهالی-چایو-لو انعطاف پذیری بالای آن در انتخاب تعداد حالت های قطبش و چگونگی تخصیص احتمال روی انتخاب پایه های قطبش است. این برتری سبب می شود که با تحلیل پروتکل جدید و دو حالت خاص آن از دیدگاه نظریه احتمال، بتوان با آگاهی بیشتری پروتکل توزیع کلید کوانتومی مناسب را برای تحقق یک هدف مشخص انتخاب کرد و از مزایای  آن بهره مند شد.

    کلیدواژگان: پروتکل BB84، فوتون، پایه قطبش، پروتکل - حالته نایکنواخت
  • محمدجواد فقیه نیا، رضا جلایی*، حامد شجاعی یاس صفحات 137-147

    گسترش روزافزون تهدید بات‏ نت و توسعه بسترهای جدید استقرار بات‏نت مانند اینترنت اشیا، لزوم مقابله را نشان می دهد. پژوهش‏هایی که در حوزه تشخیص بات‏نت مبتنی بر روش‏های یادگیری ماشین انجام شده است؛ نشان ‏می‏دهد این روش‏ها کارایی لازم را جهت تشخیص بات‏نت دارند. این درحالی است که عدم وجود یک مجموعه دادگان استاندارد در این حوزه، یکی از چالش ها در سامانه های تشخیص بات‏نت است که موجب افزایش نرخ خطا و کاهش نرخ تشخیص در محیط واقعی می شود. در این مقاله، ترافیک عادی و بات نت با ارایه روشی مبتنی بر بردار فاصله مینکوفسکی تحلیل شده است. نتایج مقاله نشان می دهد که جریان ترافیک عادی، مرحله انتخاب و استخراج ویژگی را با تغییر در اهمیت ویژگی‏ها موثر می کند. این روش به ویژگی‏ها بر اساس نزدیک نمودن بردارهای رفتاری بات-بات و دور نمودن بردارهای رفتاری بات عادی امتیاز می‏دهد. نتایج این آزمایش‏ها بر روی ده مجموعه دادگان عادی و سه مجموعه دادگان بات، نشان داد امتیاز یک ویژگی در محیط‏هایی با ترافیک عادی متفاوت بیش از 50% افزایش یا کاهش دارد.

    کلیدواژگان: بات‏نت، جریان شبکه، استخراج ویژگی، فاصله مینکوفسکی، فاصله رفتاری
  • محمدرضا عسگری راد، منصور نجاتی جهرمی* صفحات 149-156

    پیشرفت فناوری اطلاعات و ارتباطات باعث تحول در روش ارایه انواع خدمات شده است. با افزایش تراکم جمعیتی در نقاط شهری، تغییر و توسعه زیربناهای ارایه سرویس مورد نیاز می باشد. شبکه فیبر نوری، بستر پایدار ارتباطی در شهر هوشمند است و همه خدمات باند پهن و باریک را پشتیبانی می کند. در این مقاله، نقش فیبر نوری در ایجاد ساختمان هوشمند (با قابلیت باند پهن) و شبکه تلفن همراه (نسل پنجم) به عنوان دو بخش اصلی از یک شهر هوشمند ارزیابی شده و یک مدل فنی و اقتصادی ایجاد زیرساخت ارتباطات در شهر هوشمند با استفاده از یک شبکه فیبر نوری چندمنظوره با به کارگیری منابع مخابراتی موجود، به روش بهینه سازی خطی گسسته ترکیبی ارایه می گردد. تامین ارتباطات اساسی در شهر هوشمند با مدل پیشنهادشده، علاوه بر برآوردن نیازهای فنی، کاهش هزینه ایجاد شبکه، کم شدن میزان آسیب پذیری در مقابل انواع تهدید و افزایش درصد قابلیت اطمینان و امنیت را در پی خواهد داشت.

    کلیدواژگان: شهر هوشمند، شبکه FTTx، نسل پنجم تلفن همراه، فناوری WDM-PON، کاهش هزینه، برنامه ریزی خطی گسسته ترکیبی
  • مرجان کرامتی* صفحات 157-173

    با گسترش روزافزون آسیب پذیری ها در شبکه های کامپیوتری وابستگی ابعاد مختلف زندگی بشر به شبکه، امن سازی شبکه ها در برابر حملات ضروری است. در این راستا مقاوم سازی کم هزینه به دلیل محدودیت بودجه در زمره چالش های مورد توجه مدیران امنیتی است. برآورده سازی این هدف، با اولویت بندی آسیب پذیری ها از نظر میزان خطر و انتخاب آسیب پذیری های پر خطر برای حذف ممکن می شود. در این باره سامانه امتیازدهی به آسیب پذیری عام یا CVSS برای تعیین میزان خطر ناشی از بهره برداری شدن از آسیب پذیری ها معرفی شده است و استفاده فراوانی دارد. اما باید دقت داشت که در CVSS، شدت آسیب پذیری تنها بر اساس خصوصیات ذاتی تعیین می شود و عوامل زمانی مثل احتمال معرفی ابزارهای بهره برداری از آسیب پذیری نادیده گرفته می شوند. بنابراین، CVSS نمی تواند ارزیابی پویایی از خطر داشته باشد. همچنین،CVSS  متمایزسازی کارایی از آسیب پذیری ها از نقطه نظر خطر وارده به سامانه را انجام نمی دهد بدین دلیل که، تنها تعداد محدودی عدد برای امتیازدهی به انبوهی از آسیب پذیری ها موجود است. به علاوه CVSS، ارزیابی خطر را فقط برای تک آسیب پذیری ها انجام می دهد و ارزیابی عمده حملات که حملات چندمرحله ای هستند توسط CVSS ممکن نیست. در این مقاله، به منظور بهبود عملکرد CVSS و تعدادی از سامانه های ارزیابی خطر موجود، سامانه برای ارزیابی پویای خطر حملات چندمرحله ای با در نظر گرفتن عوامل زمانی ارایه شده است. توسعه سامانه معرفی شده بر اساس مدل امنیتی و تعریف معیارهای امنیتی مبتنی بر مدل امنیتی، ایده اصلی مقاله بوده که ارزیابی خطر حملات چندمرحله ای را توسط سامانه پیشنهادی ممکن ساخته است. همچنین، قابلیت ارزیابی خطر حملات چند مرحله ای روز صفر را می توان به عنوان یک ویژگی منحصربه فرد برای سامانه پیشنهادی معرفی کرد که سامانه های امتیازدهی فعلی قادر به انجام آن نیستند. در CVSS، تاثیر مخرب 5/35 درصد از آسیب پذیری ها روی سه پارامتر امنیتی محرمانگی، یکپارچکی و دسترسی پذیری یکسان گزارش می شود. در  صورتی که در سامانه امتیازدهی پیشنهادی، با در نظر گرفتن اولویت نسبی بین سه پارامتر امنیتی، مجزاسازی درصد مذکور از آسیب پذیری ها از نقطه نظر میزان آسیب به سامانه  ممکن می شود. همچنین ماهیت پیوسته واحد ارزیابی احتمال پویای سامانه پیشنهادی در مقابل ماهیت گسسته تابع محاسبه احتمال CVSS، گوناگونی امتیازات را گسترش می دهد.

    کلیدواژگان: ارزیابی خطر، آسیب پذیری، حملات چندمرحله ای، حملات روز صفر، گراف حمله، سامانه امتیازدهی به آسیب پذیری عام (CVSS)، معیار امنیتی
  • علی ناصری*، محمدرضا مهرپویا، سید مرتضی بنی هاشمی صفحات 175-183

    در سال های اخیر، نسل جدیدی از شبکه ها به نام شبکه های نرم افزارمحور (SDN) معرفی شده است که توجه اصلی آن بر جداسازی منطق کنترل از سخت افزار و تمرکز آن در یک نرم افزار مرکزی به نام "کنترل کننده" است. SDN با مدیریت یکپارچه شبکه انعطاف پذیری و کارایی شبکه را بهبود داده و هزینه ها را کاهش می دهد. علی رغم مزایای بسیار، فناوری SDN با چالش های بسیاری ازجمله مقیاس پذیری و قابلیت اطمینان سامانه متمرکز مواجه است که می توان با تمرکززدایی فیزیکی سطح کنترل و ارایه کنترل کننده های توزیع شده به رفع آن پرداخت. بااین حال، کنترل کننده های توزیع شده نیز با چالش هایی مانند مقیاس پذیری، پایداری و استراتژی هماهنگی مواجه است که در این تحقیق به بهبود مقیاس پذیری کنترل کننده های توزیع شده با استفاده از مفهوم توازن بار پرداخته شده است. برای این منظور، پیشنهاد شده یک تابع تشخیص بار کنترل کننده (CLDF) بر روی هر یک از کنترل کننده های مرتبط باهم، قرار داده شده و در صورت افزایش بار بیش از سطح آستانه، بار جدید به کنترل کننده دیگری با کمترین بار منتقل شود. روش پیشنهادی به صورت توزیع شده بر روی کنترل کننده Floodlight و با استفاده از بستر شبیه سازی mininet و روی سیستم عامل اوبونتو 04/14 اجرا شده و نتایج شبیه سازی نشان می دهد روش پیشنهادی به طور میانگین سبب رشد 6/31 درصدی نرخ انتقال می گردد.

    کلیدواژگان: شبکه نرم افزارمحور، کنترل‏کننده‏، توزیع شدگی، مقیاس پذیری، توازن بار
|
  • H. Saberi *, M. R. Kangaavari, M. R. Hasani Ahangar Pages 1-17

    Distributed association rules mining is one of the most important data mining methods that extracts the inter dependence of data items from decentralized data sources, regardless of their physical location and is based on the process of extracting repeated items. When exploration algorithms are implemented on   large-scale data, a large number of recurring items are produced, many of which are irrelevant,            ambiguous, and unusable for the business, thus causing a challenge called "combination explosion ". In this paper, a new coalition method based on distributed data mining and domain archeology, abbreviated to DARMASO, is proposed to address this challenge. This method uses three algorithms: the   DARMASOMAIN algorithm to guide and control the process of exploration and aggregation of universal rules, the DARMASOPRU algorithm to reduce and prune the data and the DARMASOINT algorithm to explore and aggregate the rules of all the generated data sources. DARMASO uses a map-reduce-based distributed computational model in a multi-agent distributed environment. It also provides a practical way for semantic mining of large-scale data sets. This method filters out the association rules of generality based on the purposes of data mining as well as the needs of the user and only produces and maintains useful rules. Reducing the scope of exploration and filtration of rules is achieved through the process of semantic pruning in the form of removing inappropriate candidates from the set of frequent items and    producing association rules of utility. The implementation is performed using a data set from the scope of natural disasters and the earthquake class. It also improves the speed and quality of rule extraction and generates practical, reliable, logical, quality and valuable rules to support decision-making amid the  masses of data.

    Keywords: Association Rules, Ontology, Multi Agent Systems, Mapping-Reduction
  • S. Ghazi Maghrebi *, H. Alemi Pages 19-27

    The scrambler block is one of the most commonly used blocks in digital communication protocol design. This block is used to randomize the bit string and usually is used after the source encoder or after the  channel encoder. In blind detection this block, is assumed to be located after the source encoder or after the channel encoder. LFSRs are often used to design linear scramblers. Therefore, scramblers are defined by usage of feedback polynomials and initial states. In previous works, the initial state of the scrambler  after channel encoder has been identified, but under some circumstances, these algorithms cannot provide proper response. In these conditions, to identify initial state of the scrambler, a full search method may be used which takes a long time. In this paper, a new algorithm for initial state of scrambler detection, after channel encoder, is presented. The proposed algorithm is able to identify the initial state of scrambler in the cases that other algorithms cannot do anything. The new algorithm also reduces the search space and as a result, it need much less time for the identification process.

    Keywords: Blind Recognition, Synchronous Scrambler, Initial State, Channel Encoder
  • F. Deldar, M. Abadi * Pages 29-42

    Over the last years, several differentially private mechanisms have been proposed to answer statistical   queries over trajectory databases. However, most of these mechanisms aim to answer statistical queries without releasing  trajectories. In this paper, we present DP-STDR; a new differentially private  mechanism that releases synthetic  trajectories for data analysis purposes while preserving spatial and temporal utilities. DP-STDR keeps some main spatial, temporal, and statistical properties of original trajectories and defines a new differentially private tree      structure to keep the most probable paths with different lengths and different starting points. This tree structure is used to generate synthetic trajectories. Our experiments show that DP-STDR enhances the utility of query answers and  better preserves the main spatial, temporal, and statistical properties of original trajectories in comparison to prior related work.

    Keywords: Differential privacy, Trajectory database release, Noisy path tree, Trajectory pattern
  • A. Banitalebi Dehkordi, M. R. Soltanaghaie *, F. Zamani Boroujeni Pages 43-59

    The software defined network (SDN) is a new computer architecture, where the central controller is applied. These networks rely on software and consequently, their security is exposed to different attacks through different components therein. One type of these attacks, which is the latest threat in computer network realm and the efficiency therein, is called the distributed denial of services (DDoS). An attempt is made to develop an attack- detector, through a combined statistical and machine learning method. In the statistical method, the entropy, based on destination IP and normal distribution in addition to dynamic threshold are applied to detect attacks. Normal distribution is one of the most important distributions in the theory of probability. In this distribution the entropy average and standard deviation are effective in attack detection. As for the learning algorithm, by applying the extracted features from the flows and supervised  classification algorithms, the accuracy of attack detection increases in such networks. The applied datasets in this study consist of: ISCX-SlowDDoS2016، ISCX-IDS2012, CTU-13 and ISOT. This method outperforms its counterparts with an accuracy of 99.65% and 0.12 false positive rate (FPR) for the UNB-ISCX dataset, and with an accuracy of 99.84% and 0.25 FPR for CTU-13 dataset.

    Keywords: Distributed Denial of Service, Software Defined Network, entropy, Normal Distribution, Classification Algorithm
  • M. Asadi, S. Parsa *, V. Vosoughi Pages 61-74

    Botnet is a group of hosts infected with the same malicious code and managed by an attacker or Botmaster through one or more command and control (C&C) servers. The new generation of Botnets generates C&C domain name  server’s list dynamically. This dynamic list created by a domain generation algorithm helps an attacker to periodically change its C&C servers and prevent their addresses from being blacklisted. Each infected host generates a large   number of domain names using a predefined algorithm and attempts to map them to their corresponding addresses by sending queries to the domain server. In this paper, the deep autoencoder neural network is used to identify domains without any knowledge of their generating algorithm, and the performance of the proposed method is compared with the performance of machine learning algorithms. Initially, a new dataset is created by combining a data set with normal domains and two datasets containing malicious and abnormal domains and both manual and automated   methods are used to extract the features of the new dataset. Deep autoencoder neural network is applied to new and pre-processed datasets and the results are compared with machine learning algorithms. Based on the obtained results, it is possible to identify the malicious domains generated by domain generating algorithms using the deep autoencoder neural network with a higher speed and an accuracy rate larger than 98.61%.

    Keywords: Botnet, Domain Generation Algorithms (DGAs), Feature Extraction, Deep Neural Network, Deep Autoencoder Neural Network
  • S. Yazdanpanah, M. Kheyrandish *, M. Mosleh Pages 75-90

    The popularity of audio formats usually attracts the attention of intruders and criminals to use this medium as a cover for establishing their secret communications. The extensive use of this formats, along with  various modern techniques, designed for audio steganography, can cause the cyber spaces to be insecure environments. In order to deal with threats, some audio steganalysis techniques have been presented that statistically analyze various audio formats, such as music, MP3, and VoIP, efficiently. Among the presented approaches, combining the techniques of signal processing and machine learning has made possible the creation of steganalyzers that are highly accurate. However, since the statistical properties of audio files differ from purely speech ones, the current steganalysis methods cannot detect speech stego files,            accurately. Another issue is the large number of analysis dimensions which increase the implementation cost, significantly. As response to these issues, this paper proposes the percentage of equal adjacent  samples (PEAS) feature, as a one-dimensional feature for speech steganalysis. Using a classifier, based on the Gaussian membership function, on stego instances with 50% embedding ratio, the evaluation results for the designed steganalyzer, show a sensitivity of 99.82%. Additionally, it can efficiently estimate the length of a hidden message with the desirable accuracy. Also, the PEAS steganalysis was evaluated on a database, containing classic music instances, and the results show an 81.2% efficient performance.

    Keywords: Speech steganalysis, audio steganalysis, digital signal processing, LSB, Steganography
  • J. Alizadeh *, M. Aboei Mehrizi Pages 91-100
    A cryptographic hash function maps an arbitrary length input to a fixed length output. These functions are used in many cryptographic applications such as digital signatures. They must be secure against collision, preimage and 2-preimage attacks. Rotational cryptanalysis is an approach to the analysis of ARX ciphers. The Hash functions Shabal and Cubehash, which are two candidates of the second round of the SHA-3   competition, have an ARX structure. They have been analyzed with respect to rotational cryptanalysis by Tabatabaei et al. In this paper we consider their analysis and present some observations. Our observations show that the results of Tabatabaei et al.’s cryptanalysis are not accurate. Then we present some new     results about rotational cryptanalysis of Shabal and Cubehash. Thereafter we present some new results and show that rotational cryptanalysis is effective on a smaller number of rounds on Shabal and Cubehash Hash functions.
    Keywords: Hash Function, Rotational Cryptanalysis, Modular Addition, Markov Chaining
  • M. Mosleh, S. Setayeshi *, B. Barekatain Pages 101-113
    Digital watermarking technology is presented as one of the best solutions for solving unauthorized copying, content identification and authentication of digital media. Digital watermarking can be applied in the fields of image, text, audio, and video contents. Audio watermarking has recently attracted the attention of researchers because the human auditory system is much more sensitive than his vision system. Therefore, insertion of the data into audio signals in a transparent way is much more difficult than other watermarking species. An efficient audio watermarking system should be able to improve reconciliation of the three measures of transparency, strength and capacitance. Improving the compromise between these three measures is a challenging problem, due to the fact that increasing the capacity of the input signal, causes distortions in the signal which in turn causes a reduction in transparency and robustness. In this paper, a new method is proposed for watermarking of audio signals that is able to improve the three criteria of transparency, robustness and capacity in an appropriate manner. In order to improve the resilience of the hidden  signal against signal processing attacks, the synergy of three efficient transforms in the field of signal processing namely, the graph-centric conversion (GBT), the discrete cosine transform (DCT) and the discrete wavelet transform (DWT), has been used. In addition, in order to maintain the transparency of the watermarked signal, the watermarked data in the high triangle matrix resulting from the LU decomposition of the approximation coefficients of the discrete wavelet are entered in an order which is based on the Fibonacci sequence. The procedure is based on the value of the watermarked bit, the non-zero values ​​of the upper triangular matrix are replaced by the nearest even or odd numbers in the Fibonacci sequence. The latent extraction operation is completely blind. The results of the evaluation of the   proposed method on audio files with Blue, Electronic, Classic and Jazz styles show that the proposed method, despite good resistance to various signal processing attacks, has an average signal rate of 45.13 dB and a placement rate of 625.75 bits per second.
    Keywords: Copyright protection, Audio watermarking, Graph-based Transform(GBT), Discrete Cosine Transform(DCT), Discrete wavelet transform (DWT) LU decomposition
  • S. Ghaderi Piraghum, M. Sakhaei-Nia *, M. Mansoorizadeh Pages 115-123

    Since the detection of anomalies in dynamic social networks takes place in a sequence of graphs over time, in addition to the storage management challenge, the detection process is difficult due to the slow evolution of graphs. A number of graphs are selected in the specified time frame, and by examining the changes of these graphs, the possible anomalies are detected. Therefore, choosing the number of time points (graphs) in the sequence of graphs is an important challenge in the detection of anomalies. In this paper, a novel method is proposed to detect anomalies based on structural data extracted from dynamic social network graphs. By extracting the centrality indicators from the network graph and their normalized mean, the activity criterion for each individual has been defined. Over time, changes in the activity criterion for each individual are measured and marked as the possibility of normal or abnormal behavior. If the individual's behavior measure exceeds a certain threshold, it is reported as an anomaly. The results show that the   proposed method detects more anomalies with the accuracy and recall of 64.29 and 81.82 respectively, for the VAST 2008 data set. It also, detects more anomalies by selecting different number of time points in the graph sequence.

    Keywords: social networks, Anomaly Detection, Dynamic Graph, Behavioral Measurement
  • A. Aghanis, N. Doustimotlagh * Pages 125-136

    Quantum key distribution (QKD) solves the problem of key generation and exchange between  cryptography parties with unconditional security guaranteed by the principles and phenomena of quantum mechanics. In the 40-year old history of quantum cryptography, several QKD protocols have been invented of which, the BB84 protocol is the most famous one, and some others such as the six-state and  Ardehali-Chau-Lo protocols have been created by making some variations of it. In this paper, a more general version of BB84 using 2n polarization states which create n orthogonal pairs of polarization states and n polarization bases is presented. In addition, it is assumed that distinct polarization bases are chosen with necessarily unequal probabilities. Then by studying and analyzing the new QKD protocol and its two special cases using the probability theory, they are compared with the BB84, six-state and Ardehali-Chau-Lo protocols and finally, the results are supported and confirmed by constructing four various numerical examples. The advantage of the new QKD protocol in comparison to the BB84, the six-state and  Ardehali-Chau-Lo protocols is its high flexibility in choosing the number of polarization states and the manner of probability allocation on choosing the polarization bases. By analyzing the new protocol and its two special cases using the probability theory, this advantage causes better application of knowledge for a suitable QKD protocol selection in order to realize a certain goal and exploit its technological advantages.

    Keywords: BB84 protocol, photon, polarization basis, non-uniform 2n-state protocol
  • M. J. Faghihniya, R. Jalaei *, H. Shojaee Yas Pages 137-147

    The growing spread of botnet threats and the development of new platforms for deploying botnets such as the Internet of Things urges the need for confrontation. Research in the field of botnet detection based on machine learning methods, shows that these methods have the necessary efficiency for botnet detection. In this paper, normal and botnet traffic are analyzed by the proposed method based on the Minkowski distance vector. The results of the article show that normal traffic flow affects the feature selection and extraction stage by changing the importance of features. This method scores the features based on near bot-bot behavioral vectors and far bot-normal behavioral vectors. The results of these experiments on ten sets of normal data and three sets of bot data showed that the score of a feature increases or decreases by more than 50% in environments with various normal traffic.

    Keywords: Botnet, Network Flow, Feature Extraction, Minkowski Distance, Behavioral Distance
  • M. R. Asgarirad, M. Nejati Jahromi * Pages 149-156

    ICT development has caused evolution in service delivery methods. With the increase in population density in urban areas, it is necessary to change and develop the infrastructures. Fiber optic network is a  sustainable communication platform in the smart city and supports all broadband and narrowband services. In this paper, the role of fiber optics in the smart home (with broadband capability) and mobile network (5G) are considered as the two main parts of a smart city. A techno-economic model of  communication infrastructure in the smart city (using multi-purpose fiber optic network with existing  resources consideration) is stated by mixed integer linear programming (MILP) method. In this literature, whilst providing fundamental communication in the smart city, decreasing the vulnerability to threats and increasing the percentage of security and reliability, technical requirements are met and the Capital Expenditure (CAPEX) of network is reduced, as well.

    Keywords: Smart City, FTTx, 5G Technology, MILP, Cost Optimization, WDM-PON
  • M. Keramati * Pages 157-173

    Multi-facet dependency of human life on computer networks and its widespread vulnerability has made network robustness a necessity. With cost as a limiting factor, network robustness is considered as a great challenge for network administrators. This goal would be achievable by prioritizing the vulnerabilities based on their risk and choosing the most hazardous ones for elimination. Nowadays, CVSS is being used as the most widely used vulnerability scoring system. In CVSS, vulnerability ranking is based on its intrinsic features while temporal features such as the probability of developing exploitation tools, are ignored.  So, dynamic risk evaluation is not possible with CVSS and it is incapable of performing effective vulnerability discretion. This is because, only limited number of vulnerabilities are available for prioritization of infinite number of vulnerabilities. In addition, CVSS only ranks single step attacks whilst a wide variety of attacks are multi-step attacks. In this paper, a security system is proposed that is an improvement over CVSS and some other existing vulnerability scoring systems. It performs dynamic risk evaluation of multi-step attacks by considering vulnerabilities' temporal features. As the introduced model is developed based on security metrics of the security model, security evaluation of multi-step attacks is now possible by CVSS. Also, the capability of risk evaluation of zero-day attacks is one unique feature of the proposed system which cannot be accomplished by the present vulnerability scoring systems. In CVSS, the impact of exploiting 35.5% of vulnerabilities on confidentiality, integrity and availability are scored the same. But, in the proposed  system, by considering the relative priority of the three mentioned security parameters, vulnerability  discrimination of risk score of the mentioned percentage of vulnerabilities may be possible. On the other hand, the continuity of the probability assessment function of the proposed method in comparison to the discrete one in CVSS, improves the score diversity.

    Keywords: risk assessment, Multi-Step Attacks, Zero-Day Attacks, Attack Graph, Common Vulnerability Scoring System(CVSS), Security Metric
  • A. Naseri *, M. R. Mehrpoya, S. M. Banihashemi Pages 175-183

    In recent years, a new generation of networks called software defined networks (SDN) has been  introduced whose main focus is on separating control logic from hardware and concentrating it on acentral software called the "controller". SDN improves the network efficiency and reduces the expenses. Despite numerous advantages, SDN faces a lot of challenges such as scalability and reliability that can be fixed through physical decentralization of the control level and introduction of distributed controllers. However, the distributed controllers also face challenges including scalability, stability, and coordination strategy. This research deals with the improvement of distributed controllers’ scalability using the concept of load balancing. For this purpose, we have suggested that a controller load detection function (CLDF) be placed on each of the related controllers, and if the load exceeds the threshold level, the new load be transferred to a controller with the least load. The suggested method is implemented on the Floodlight  controller in a distributed manner, and implemented on Ubuntu 14.04 operating system using the mininet simulation platform. The simulation results show that suggested method causes an average growth of 31.6 percent on the transition rate.

    Keywords: Software Defined Network, Controller, Distribution, Scalability, Load Balancing