فهرست مطالب

پدافند الکترونیکی و سایبری - سال هشتم شماره 2 (پیاپی 30، تابستان 1399)

فصلنامه پدافند الکترونیکی و سایبری
سال هشتم شماره 2 (پیاپی 30، تابستان 1399)

  • تاریخ انتشار: 1399/08/17
  • تعداد عناوین: 12
|
  • مهدی اسدی، سعید پارسا*، محمدعلی جبرئیل جمالی، وحید مجیدنژاد صفحات 1-14
    یک شبکه بات، شبکه ای از رایانه های آلوده و دستگاه های هوشمند بر روی اینترنت است که توسط مدیر بات بد افزار از راه دور کنترل می شود تا فعالیت های بدخواهانه مختلفی نظیر اجرای حملات منع خدمات، ارسال هرزنامه، سرقت کلیک و غیره را انجام دهند. زمانی که مدیربات با بات های خود ارتباط برقرار می کند، ترافیکی تولید می کند که تجزیه و تحلیل این ترافیک برای شناسایی ترافیک شبکه بات می تواند یکی از عوامل تاثیر گذار برای سامانه های تشخیص نفوذ باشد. در این مقاله، روش یادگیری عمیق با حافظه کوتاه مدت ماندگار (LSTM) جهت طبقه بندی فعالیت های شبکه بات نظیر به نظیر پیشنهاد می شود. رویکرد پیشنهادی بر اساس ویژگی های بسته های پروتکل کنترل انتقال بوده و کارایی روش با استفاده از دو مجموعه داده ISCX و ISOT ارزیابی می شود. نتایج آزمایش های انجام یافته، توانایی بالای رویکرد پیشنهادی برای شناسایی فعالیت های شبکه بات نظیر به نظیر را بر اساس معیارهای ارزیابی نشان می دهد. روش پیشنهادی نرخ دقت 65/99 درصد، نرخ صحت 32/96 درصد و نرخ بازخوانی 63/99 درصد را با نرخ مثبت کاذب برابر 67/0 ارایه می کند.
    کلیدواژگان: شبکه بات، تشخیص شبکه بات، یادگیری عمیق، شبکه عصبی بازگشتی، حافظه کوتاه مدت ماندگار
  • فرشته گلشاهی، ابوالفضل طرقی حقیقت* صفحات 15-24

    تجزیه و تحلیل شبکه های مقیاس بزرگ پویا، اطلاعات مفیدی دراختیارمدیر شبکه قرارمی دهد. پیش بینی ارتباطات مفقود شده یا پیوندهای احتمالی که در آینده ممکن است وجود داشته باشند یک مساله مهم و جالب در شبکه های اجتماعی می باشد. در بسیاری از شبکه های اجتماعی واقعی، ارتباطات را در چند لایه می توان مدل سازی کرد. دراین مقاله، مسئله پیش بینی پیوند در شبکه های چندلایه مورد بررسی قرار گرفته است. در این مقاله، روش جدید پیش بینی پیوند در شبکه های مالتی پلکس مبتنی بر الگوریتم های مبتنی بر ساختار گراف و بدون ناظر مبتنی بر الگوریتم جستجوی گرانشی ارایه گردیده و از لایه های مختلف در شبکه مالتی پلکس، جهت افزایش دقت، صحت و عملکرد الگوریتم پیش بینی استفاده شده است. با انتخاب موثر معیارهای درون لایه ای و بین لایه ای مثل امتیاز انجمن ها و انتساب عامل ها به آن ها از محورهای معماری پیشنهادی روشی ارایه شده، که بر کار آیی و سرعت پاسخ موردنیاز اثر دارد. برای مقایسه کار پیشنهادی از معیار AUC استفاده گردیده. واز مجموعه دادهtravian  به عنوان مجموعه محک استفاده شده است. AUC محاسبه شده پیشنهادی 72/0 است. نتایج نشان می دهد که استفاده از اطلاعات انجمنی با استفاده از الگوریتم گرانشی در شبکه های چندلایه به بهبود فرآیند پیش بینی پیوند کمک می کند.

    کلیدواژگان: پیش بینی پیوند، شبکه های مالتی پلکس، تحلیل شبکه های اجتماعی، تحلیل ایستا
  • طاهر آقازاده، احمد عفیفی*، سید ادیب ابریشمی فر صفحات 25-33

    فرستنده لورن در سامانه موقعیت یابی محلی (LPS) یکی از اصلی ترین بخش هاست که نقش آن تولید و ارسال پالس های توان بالا با شکل موج خاص و دقت بالا می باشد. در این مقاله، روش جدیدی برای طراحی و ساخت فرستنده LPS بر مبنای تقویت کننده های سوییچینگ کلاس I ارایه شده است. هر بلوک فرستنده از واحدهای تقویت کننده ترانزیستوری ماسفت که از طریق  مدولاسیون عرض پالس تحریک می شوند تشکیل شده است. عرض پالس در سیکل های مختلف به کمک الگوریتمی بر مبنای کمترین مجموع مربعات خطا تعیین می شود. نتایج شبیه سازی ها نشان دهنده پیاده سازی دقیق سیگنال لورن به خصوص در لبه های پسرو است. به طوری که حداکثر خطای عبور از صفر در نیم سیکل چهارم تا دوازدهم  ns18، پهنای باند پالس تولیدی  kHz9/4 و MMSE آن که ارتباط مستقیم با ECD سیگنال لورن دارد؛ برابر با 009/0 است که همگی شرایط موردنیاز پالس لورن در فرستنده LPS را دارند. با استفاده از این روش که ذاتا دارای راندمان بالایی است امکان ساخت سامانه های تاکتیکی موقعیت یابی با دقت و انعطاف پذیری بالا و حجم کوچک فراهم می شود.

    کلیدواژگان: سامانه موقعیت یابی محلی، ناوبری، تقویت کننده کلاس I، مدولاسیون عرض پالس، سیگنال لورن
  • نرگس کاظم پور، مهتاب میرمحسنی*، محمدرضا عارف صفحات 35-49

    اشتراک گذاری کلید امن یک پیش نیاز ضروری در رمزنگاری کلید متقارن است و یکی از راه های اشتراک آن، توافق بر کلیدی امن می باشد. در این مقاله، به بررسی توافق کلید بر پایه نظریه اطلاعات با مدل منبع، مبتنی بر فاصله بین گره های مجاز می پردازیم. توافق کلید امن بر پایه نظریه اطلاعات، بر خلاف مدل های مبتنی بر پیچیدگی محاسباتی، امنیت کامل را تضمین می کند، یعنی هیچ اطلاعات موثری به شنودگر نمی رسد. مدل مورد بررسی در این مقاله، سامانه پایه ای شامل دو کاربر مجاز و یک شنودگر است. گره های مجاز تلاش می کنند تا با استفاده از مشاهدات (همراه با خطای) خود از فاصله شان، بر کلیدی امن و قابل اطمینان توافق کنند. شنودگر نیز مشاهداتی از این فاصله دارد. از آن جا که فاصله بین گره ها تحت کنترل هیچ یک از آن ها نیست، مدل توافق کلید، مدل منبع است. ابتدا تخمین فاصله توسط گره ها را مدل سازی می کنیم تا بتوان عملکرد سامانه (کران های ظرفیت کلید امن) را بررسی کرد. خطای تخمین فاصله با یک فرآیند گوسی با میانگین صفر و واریانسی برابر کران کرامر-رایو مدل می شود. دو روش را برای بهبود عملکرد سامانه پیشنهاد می دهیم: 1) گسیل نویز مصنوعی، 2) ارسال سیگنال در جهت های مختلف (ارسال چند آنتنی). در روش اول نویز مصنوعی برای خراب کردن تخمین شنودگر از فاصله استفاده می شود و در روش دوم سیگنال های راهنما در جهت های تصادفی مختلف ارسال می گردند و فاصله های مجازی، که معادل فاصله ای است که سیگنال راهنما طی کرده، به عنوان منابع تصادفی برای تولید کلید استفاده می شوند. ما نشان می دهیم که اگر شنودگر مجهز به آرایه آنتن نباشد، آن گاه استفاده از گسیل نویز مصنوعی روش مفیدی است و اگر شنودگر مجهز به آرایه آنتن باشد، روش گسیل نویز مصنوعی اطلاعات بیشتری به شنودگر نشت می دهد، در نتیجه روش موثری در این شرایط نیست. هنگامی که گره ها مجهز به آرایه آنتن هستند، ارسال در جهت های تصادفی مختلف روش مناسبی برای افزایش نرخ کلید امن می باشد، چراکه شنودگر اطلاعات کمی در مورد فاصله های مجازی به دست می آورد و اغلب مشاهدات گره های مجاز و شنودگر مستقل از یکدیگر هستند.

    کلیدواژگان: توافق کلید امن، مکان یابی، امنیت نظریه اطلاعاتی، گسیل نویز مصنوعی، ظرفیت کلید امن
  • سید رضا پاکیزه*، سید مجید عارفی نژاد صفحات 51-59

    امروزه پروژه متن باز هادوپ به همراه چهارچوب نگاشت-کاهش در بین موسسات، سازمان ها و محققین محبوبیت زیادی دارد که برای پردازش حجم انبوهی از داده ها به صورت موازی بر روی خوشه ای از کامپیوتر ها بسیار مناسب است. نگاشت-کاهش برای حل مشکلات محاسبات داده های حجیم معرفی شده است که از قاعده تقسیم-غلبه پیروی می کند. مانند هر جای دیگر، مبحث زمان و زمان بندی در نگاشت-کاهش از اهمیت بسیار بالایی برخوردار است. به همین دلیل در دهه اخیر الگوریتم های زمانبندی متعددی در این زمینه تدارک یافته است. ایده اصلی این الگوریتم ها افزایش نرخ محلی سازی داده، هم زمان سازی، کاهش زمان پاسخ و زمان اتمام وظایف می باشد. اکثر این الگوریتم ها تک هدفه می باشند و فقط یکی از موارد ذکر شده را مورد هدف قرار می دهند. الگوریتم های چند هدفه موجود فقط بر روی یکی از فازهای اول یا دوم نگاشت-کاهش تمرکز دارند. در این مقاله، یک الگوریتم زمان بندی ترکیبی مبتنی بر اولویت بندی پویا کار ها و محلی سازی داده در محیط نگاشت -کاهش به نام "HSMRPL" ارایه می شود که هدف اصلی آن افزایش نرخ محلی سازی داده و کاهش زمان محاسبات می باشد. در این الگوریتم از دو روش اولویت بندی پویا و شناسه محلی سازی استفاده می شود. برای ارزیابی الگوریتم پیشنهادی، آن را با الگوریتم های پیش فرض هادوپ و به کمک محک های استاندارد مقایسه کردیم. نتایج حاصله نشان می دهد که الگوریتم پیشنهادی ما نرخ محلی سازی را نسبت به الگوریتم FIFO، 5/18 درصد و نسبت به الگوریتم Fair، 4/10 درصد افزایش داده است. همچنین، الگوریتم پیشنهادی ما نسبت به الگوریتم FIFO، 8/3 درصد و نسبت به Fair، 4/13 درصد سریعتر است.

    کلیدواژگان: زمانبندی نگاشت-کاهش، الگوریتم ترکیبی، محلی سازی داده، اولویت بندی پویا، زمانبندی هادوپ
  • کیانوش شوشیان، عبدالرسول میرقدری* صفحات 61-73

    در سال های اخیر حملات سایبری چندمرحله ای مبهم تهدیدی اساسی در حوزه سامانه های رایانه ای و فضای سایبر است. حملات سایبری چند مرحله ای از دو یا چند حمله تک مرحله ای، تشکیل شده است. مبهم سازی حمله به معنای تغییر حمله، بدون تغییر رفتار و تغییر در نوع اثرگذاری حمله بر قربانی است. پس مساله اصلی پیچیده و مبهم بودن حمله و دشوار بودن تشخیص و هشداردهی رخداد حملات  چند مرحله ای مبهم است. در این مقاله حملات سایبری چند مرحله ای مبهم مدل سازی می گردد، با فراگیری و به کارگیری این دانش، مدافعین امنیت شبکه می توانند علاوه بر تشخیص به موقع حملات سایبری با انجام دفاع پیش کنش گرانه، برای دشمنان بازدارندگی ایجاد کنند. مهاجم با بهره گیری از مدل پیشنهادی می تواند به وسیله مرحله ای کردن حمله و مبهم سازی حملات در دنباله حملات مشاهده شده، طبقه بندی غلط ایجاد کرده و باعث کاهش وابستگی میان هشدارها، اقدام، مراحل و راهبردهای حمله شود. بنابراین، با ایجاد این تغییرات در حملات سایبری، مدیران امنیت شبکه فریب خورده و به سادگی نمی توانند هدف نهایی مهاجم را تشخیص دهند. برای ارزیابی مدل پیشنهادی از الگوریتم بیزین بهره گرفته ایم. نتایج به دست آمده از تحقیق و شبیه سازی مدل، حاکی از آن است که در روش پیشنهادی، نرخ دقت درست طبقه بندی، در بهترین حالت، برای حملات تک مرحله ای پاک0/04-(بر حسب لگاریتم) است؛ در صورتی که برای حملات چند مرحله ای مبهم نرخ دقت درست طبقه بندی به 35- (بر حسب لگاریتم) تقلیل می یابد. لذا مدل پیشنهادی برای حملات چند مرحله ای مبهم به دلیل توانایی در فریب سامانه های تشخیص نفوذ و ایجاد عدم قطعیت در هشدارهای نفوذ، کارایی بیشتری نسبت به منطق  حملات تک مرحله ای پاک دارد.

    کلیدواژگان: مدل سازی احتمالاتی، حملات سایبری چند مرحله ای، حملات مبهم، دنباله حمله
  • عاطفه خزاعی، محمد قاسم زاده* صفحات 75-81

    این مقاله به بررسی ارتباط انواع آسیب پذیری نرم افزارها و راه حل های جنبی آن ها می پردازد. یک راه حل جنبی روشی است که توسط آن کاربر بدون حذف آسیب پذیری، خطر بهره کشی ناشی از آن را از بین می برد یا کاهش می دهد. تاکنون توجه اندکی به این امکان بالقوه صورت گرفته است. راه حل های جنبی می توانند در خودکارسازی مقابله با آسیب پذیری ها بسیار موثر باشند. در این پژوهش ابتدا با ترکیب داده های حاصل از چهار پایگاه داده ی مرجع آسیب پذیری (OSVDB، Security Tracker، Cert CC Vulnerability Notes و NVD)، یک پایگاه داده ی جدید برای راه حل های جنبی تدوین گردید. در این پایگاه داده که آن را VuWaDB نامیده ایم، راه حل های جنبی در شش دسته ی اصلی پیکربندی، اصلاح کد، تغییر مسیر، حذف، دسترسی محدود و ابزارهای کاربردی سازمان دهی شده اند. تعیین نوع آسیب پذیری ها مبتنی بر CWEهایی که در NVD به آن ها اختصاص داده شده، صورت گرفت. به منظور کشف رابطه ی آسیب پذیری ها و راه حل های جنبی مربوطه، پس از انجام یک بررسی آماری، یک گراف دوبخشی استخراج گردید. نتایج حاصل از این بررسی ها در جداول مرتبط ارایه و تحلیل شده اند. نتایج حاصله، رابطه آسیب پذیری نرم افزار و راه حل های جنبی را در اختیار می گذارند.

    کلیدواژگان: آسیب پذیری نرم افزار، راه حل جنبی، پایگاه داده VuWaDB، CWE، گراف دوبخشی
  • اباذر خرمی، احمد عفیفی*، محمدحسین قزل ایاغ، احمدرضا امین صفحات 83-93

    برای طراحی فرستنده سوییچینگ لورن مبتنی بر مدولاسیون عرض پالس (PWM) چند سطحی، سناریو های مختلفی برای چیدمان تقویت کننده ها و تعداد سطوح مدولاسیون وجود دارد که باید در ابعاد مختلف مورد بررسی قرار گیرند. قابلیت پیاده سازی، تحقق استانداردهای پالس لورن و تحلیل قابلیت اطمینان سه مشخصه مهم در این زمینه هستند. در این مقاله با استفاده از نتایج شبیه سازی، قابلیت اطمینان انواع مولدهای لورن حلقه باز مبتنی بر سوییچینگ عرض پالس با تعداد سطوح مختلف به کمک شاخص کلی اثربخشی (OMOE) بررسی شده است. برای این کار با انتخاب مشخصه های اساسی و تعیین وزن هرکدام از آن ها، مقدار هدف و کمینه قابل قبول هر مشخصه بر مبنای استانداردهای لورن تعیین و OMOE بر مبنای سناریوهای مورد نظر به دست آمده است. نتایج شبیه سازی ها نشان می دهد آرایش مدولاسیون عرض پالس نه سطحی با OMOE به میزان 573/0، 506/0 و 451/0 به ترتیب برای حالت های بدون بلوک آسیب دیده، یک و دو بلوک آسیب دیده با میانگین 510/0 بهینه ترین ساختار از نظر قابلیت اطمینان است. در مدولاسیون دامنه و مدولاسیون عرض پالس با هفت و یازده سطح، میانگین این شاخص برای سه حالت مذکور به ترتیب برابر 455/0 ، 463/0 و 485/0 می باشد که مقدار کمتری نسبت به ساختار بهینه دارند.

    کلیدواژگان: فرستنده لورن، مدولاسیون عرض پالس چندسطحی، قابلیت اطمینان، تقویت کننده سوئیچینگ، شاخص کلی اثربخشی
  • محمدجواد احراری، محمدرضا حسنی آهنگر*، آرش غفوری صفحات 95-103

    در سال های اخیر رایانش ابری در حال تبدیل شدن به یک فناوری مهم در حوزه ی فناوری اطلاعات است. در محیط رایانش ابری احتمال بروز خطا وجود دارد. روش های متفاوتی برای مقابله با خطاها وجود دارد ولی با توجه به ویژگی ها و خصوصیت های محیط رایانش ابری، استفاده از روش های تحمل پذیری خطا بهترین انتخاب برای مقابله با خطا در این محیط است. یکی از بزرگ ترین مسئله ها در روش های تحمل پذیری خطا، استفاده بهینه از منابع است. استفاده بهینه از منابع هم برای فرآهم آورندگان سرویس های ابری و هم برای مشتریان سرویس های ابری دارای اهمیت زیادی است. متاسفانه استفاده بهینه از منابع در روش های تحمل پذیری خطا در رایانش ابری، خیلی مورد توجه پژوهشگران و فرآهم آورندگان سرویس های ابری قرار نگرفته است. در این مقاله سعی شده است با در نظرگرفتن وابستگی بین وظایف، یک روش تحمل پذیری خطا بر روی ماشین های مجازی ارایه شود که علاوه بر تحمل پذیر بودن در برابر خطا، به بهینگی در استفاده از منابع نیز دست یابد. در این روش با استفاده از یک زمانبند اولویت دار، به هر یک از وظایف یک اولویت اختصاص داده می شود. سپس وظایف به ترتیب اولویت شان جهت پردازش به ماشین های مجازی فرستاده می شوند. نتایج حاصل از شبیه سازی روش پیشنهادی توسط شبیه ساز کلاودسیم نشان می دهد که روش پیشنهادی نسبت به روش تکرار توانسته است بهینگی بیشتری در استفاده از منابع را به ارمغان بیاورد و با ضریب اطمینان 95 درصد، به 15/29% و 74/22% بهبود در استفاده از تعداد پردازنده و 76/30% و 22.34% بهبود در استفاده از حافظه و 71/29% و 88/22% بهبود در استفاده از پهنای باند دست یافته است.

    کلیدواژگان: رایانش ابری، تحمل پذیری خطا، ماشین مجازی، بهینگی منابع، زمانبندی وظایف
  • امید حاجی پور، سعیده سادات سدیدپور* صفحات 105-114

    با رشد روز افزون اسناد و متون الکترونیکی به زبان فارسی، به کارگیری روش هایی سریع و ارزان برای دسترسی به متون مورد نظر از میان مجموعه وسیع این مستندات، اهمیت بیشتری می یابد. برای رسیدن به این هدف، استخراج کلمات کلیدی که بیانگر مضمون اصلی متن باشند، روشی بسیار موثر است. تعداد تکرار یک کلمه در متن نمی تواند نشان دهنده اهمیت یک کلمه و کلیدی بودن آن باشد. همچنین در اکثر روش های استخراج کلمات کلیدی مفهوم و معنای متن نادیده گرفته می شوند. از طرفی دیگر بدون ساختار بودن متون جدید در اخبار و اسناد الکترونیکی، استخراج این کلمات را مشکل می سازد. در این مقاله روشی بدون نظارت و خودکار برای استخراج این کلمات در زبان فارسی که دارای ساختار مناسبی نمی باشد، پیشنهاد شده است که نه تنها احتمال رخ دادن کلمه در متن و تعداد تکرار آن را در نظر می گیرد، بلکه با آموزش مدل word2vec روی متن، مفهوم و معنای متن را نیز درک می کند. در روش پیشنهادی که روشی ترکیبی از دو مدل آماری و یادگیری ماشین می باشد، پس از آموزش word2vec روی متن، کلماتی که با سایر کلمات دارای فاصله کمی بوده استخراج شده و سپس با استفاده از هم رخدادی و فرکانس رابطه ای آماری برای محاسبه امتیاز پیشنهاد شده است. درنهایت با استفاده از حدآستانه کلمات با امتیاز بالاتر به عنوان کلمه کلیدی در نظر گرفته می شوند. ارزیابی ها بیانگر کارایی روش با معیار F برابر 53.92% و با 11% افزایش نسبت به دیگر روش های استخراج کلمات کلیدی می باشد.

    کلیدواژگان: استخراج کلمات کلیدی، زبان فارسی، متن کاوی، شباهت کلمات، word2vec
  • حامد احمدیان یزدی، علی ناصری* صفحات 115-124

    یکی از بسترهای ارتباطی که معمولا در لایه های پشتیبان شبکه فرماندهی و کنترل از آن استفاده می شود، بستر ارتباط نوری فضای آزاد است. در این مقاله، مدولاسیون قطبش به منظور مقاوم سازی بستر ارتباطی نوری فضای آزاد در برابر اغتشاشات اتمسفری ارایه می شود. در این روش، به جای استفاده از روش های مرسوم مدولاسیون همچون دامنه، فاز و یا فرکانس، حالت های قطبش بر روی پرتو نوری مدوله می شوند. از آنجا که روش های مدولاسیون مرسوم به نوسانات آشفتگی بسیار حساس هستند، مدولاسیون قطبش نسبت به نویز فاز بیم لیزر مقاومت بالایی دارد و حالات قطبش را بر روی مسیر طولانی در فضای آزاد حفظ می کند. به طور کلی مدولاسیون قطبش باینری، حدود dB 2 یا حتی بیش تر، از مدولاسیون های متداول بهتر عمل می کند. به طور خاص تر در این مقاله منظومه های مختلف مدولاسیون قطبش در کره پوانکاره ترسیم و عملکرد احتمال خطای آن ها در حالت های متفاوت قرارگیری، ارزیابی می شود. در نهایت حالات بهینه منظومه با توجه به شبیه سازی ها استخراج می گردد.

    کلیدواژگان: آشفتگی اتمسفر، توزیع گاما-گاما، مدولاسیون کلیدزنی قطبش، مخابرات نوری فضای آزاد
  • جعفر خلیل پور*، جواد رنجبر، مهدی کاظمی نیا صفحات 125-133

    در این مقاله، یک روش موقعیت یابی مبتنی بر دستگاه بر اساس روش خطای کمترین مربعات وزن دهی شده ارایه می شود. مهم ترین چالش در تخمین موقعیت، اثر سیگنال های مسیر غیر مستقیم در گره های مرجع است که منجر به داده های خارج از محدوده و در نهایت کاهش دقت تخمین می شود. برای این منظور، یک روش جدید از طریق ترکیب روش شناسایی و حذف سیگنال های مسیر غیر مستقیم و روش وزن دهی گره های مرجع ارایه خواهد شد. چالش دیگر موقعیت یابی، وابستگی شدید سیگنال های مسیر غیر مستقیم به محیط انتشار سیگنال است. به همین دلیل به دست آوردن یک تابع توزیع برای تحلیل رفتار این پدیده بسیار پیچیده و زمان بر است به خصوص در روش های تخمین مبتنی بر دستگاه که فرآیند تخمین موقعیت در دستگاه های هدف متحرک با طول عمر باتری محدود صورت می پذیرد. بنابراین در این مقاله، یک روش شناسایی سیگنال های مسیر غیر مستقیم و وزن دهی گره های مرجع با پیچیدگی محاسباتی کم که بی نیاز از داشتن دانش اولیه درباره توابع توزیع بایاس سیگنال های مسیر غیر مستقیم است، معرفی خواهد شد. در این روش، از تعداد تکرار های گره های مرجع در گروه های تخمین مختلف به عنوان معیاری برای شناسایی سیگنال های مسیر غیر مستقیم و وزن دهی گره های مرجع استفاده خواهد شد. در نهایت با داشتن وزن های گره های مرجع، موقعیت دستگاه هدف توسط یک مسئله بهینه سازی غیرخطی مقید پیاده سازی و به کمک روش لاگرانژ حل می شود. نتایج شبیه سازی نشان می دهد که روش پیشنهادی عملکرد تخمین موقعیت را نسبت به روش های خطی و غیرخطی غیر وزنی بهبود می دهد. در روش پیشنهادی 35 درصد از خطاها مقداری کمتر از 25/0 متر دارند که نسبت به روش های دیگر بهبود حدود 30 درصدی را نشان می دهد. هم چنین 95 درصد از خطاها کمتر از 2 متر هستند و در مقایسه با روش هایی که وزن دهی در آن ها انجام نمی شود، دقت تخمین حداقل 20 درصد افزایش می یابد. هم چنین در مواردی که تعداد گره های مرجع یا تعداد گروه های تخمین کمتری در دسترس است، روش پیشنهادی قابلیت اطمینان بالاتری در تخمین موقعیت دارد. زمانی که حداقل 35 درصد از گره های مرجع دارای سیگنال های مسیر مستقیم هستند، دقت موقعیت یابی در روش ارایه شده بهبود قابل ملاحظه ای دارد.

    کلیدواژگان: موقعیت یابی، خطای کمترین مربعات وزن دهی شده، سیگنال های مسیر غیر مستقیم، بهینه سازی غیرخطی مقید
|
  • M. Asadi, S. Parsa *, M. A. Jabreil Jamali, V. Majidnezhad Pages 1-14
    A Botnet is a set of infected computers and smart devices on the Internet that are controlled remotely by a Botmaster to perform various malicious activities like distributed denial of service attacks(DDoS), sending spam, click-fraud and etc. When a Botmaster communicates with its own Bots, it generates traffic that  analyzing this traffic to detect the traffic of the Botnet can be one of the influential factors for intrusion  detection systems (IDS). In this paper, the long short term memory (LSTM) method is proposed to classify P2P Botnet activities. The proposed approach is based on the characteristics of the transfer control protocol (TCP) packets and the performance of the method is evaluated using both ISCX and ISOT datasets. The experimental results show that our proposed approach has a high capability in identifying P2P network activities based on evaluation criteria. The proposed method offers a 99.65% precision rate, a 96.32% accuracy rate and a recall rate of 99.63% with a false positive rate (FPR) of 0.67%.
    Keywords: Botnet, Botnet Detection, deep learning, Recurrent Neural Network (RNN), Long Short Term Memory (LSTM)
  • F. Golshahi, A. Toroghi Haghighat * Pages 15-24

    The analysis of large scale dynamic networks provides useful information for the network administrator. This plays an important role in modern societies. The prediction of missing links or possible links in the future is an important and interesting issue on social networks that can support important applications with features such as new recommendations for users, friendship suggestions, and discovery of forged connections. Many real-world social networks display communications in multi-layers (for example, several social networking platforms). In this research, the problem of link prediction in multiple networks has been  studied and a new link prediction method in multiplex networks, based on unsupervized graph structure and the gravitational search algorithms is presented. Different layers of the multiplex network have been used to increase the accuracy of the proposed method and we have presented a methodology that uses information from other layers and community information where people are associated. We have provided this information in the form of a rating. These privileges, in a way, determine the prediction of the edges between individuals in these types of networks. One of the criteria for comparing predictive algorithms is to calculate the AUC for these algorithms and using this criterion for comparison accompanied by a travian data set used as a benchmark, it is seen that the AUC of our method has improved 7% compared to Adamic which is a similar method. The results demonstrate that using community information and the gravitational algorithm in layered networks improves link prediction.

    Keywords: Link prediction, Multiplex networks, Social network analysis, Static Analysis
  • T. Aghazadeh, A. Afifi *, A. Abrishamifar Pages 25-33

    Long-Range-Navigation (LORAN) transmitter is an essential part of a local positioning system (LPS) that provides high power and high precision pulses with a specific waveform. In this paper, a new method for design and implementation of the LPS transmitter, based on class I amplifiers, has been proposed. Each block of the transmitter includes MOSFET amplifier modules driven by pulse width modulation (PWM). The pulse width at each cycle has been calculated by an algorithm based on the least square method (LSM). Simulation results show that the obtained maximum zero crossing error in the 4th to 12th half-cycles is 18 ns, the generated pulse width is 4.9 kHz and the MMSE of the pulse, which is directly proportional to the ECD, is equal to 0.009, demonstrating  that with the proposed method it is possible to produce an accurate LORAN pulse with all the required parameters. High efficiency of class I amplifiers, makes this method a good candidate for light-weighted, highly accurate and flexible tactical LPS transmitters.

    Keywords: Local Positioning System, LPS, PWM, LORAN signal, Navigation, Class I amplifier
  • N. Kazempour, M. Mirmohseni *, M. R. Aref Pages 35-49

    Sharing secret key is an essential prerequisite of symmetric key cryptography and one way to share the key, is to agree on a secret key. In this research, we consider a source model for information theoretic secret key agreement based on the distance among the nodes. Secret key agreement based on information theory, unlike computational models, guarantees full information secrecy so that eavesdroppers receive no efficient information. The model is a basic system consisting of two legitimate users and an eavesdropper. The legitimate nodes try to agree on a reliable and secure key based on their (noisy) observation of the distance between them. The eavesdropper observes the distance, too. Since the distance between the nodes is under control of none of them, the model for secret key agreement is a source model. First, we model the distance estimation by the nodes to study the performance of the system (secret key capacity bounds). Error of distance estimation is modeled by a gaussian process with zero mean and a variance equal to the Cramer-Rao bound. Then we propose two methods to enhance system utility: artificial noise forwarding (ANF) and  multi-antenna transmission (transmission in different beam directions). In the first method artificial noise is used to worsen eavesdropper's distance estimation and in the second method beacon signals are sent in different directions and the virtual  distances, that is equal to total distances the beacon signal has traveled, in different beam directions are used as the randomness sources. We show that if the eavesdropper is not equipped with a multi-directional antenna, then artificial noise forwarding is a useful method while in the case of users equipped with multi-directional antenna, artificial noise forwarding leaks more information to the eavesdropper and transmitting in different directions is a suitable way to increase the secret key rate, since the eavesdropper gains little information about virtual distances and most of the observations of the legitimate nodes and the eavesdropper are  independent.

    Keywords: Secret key agreement, Localization, Information theoretic secrecy, Artificial Noise forwarding, Secret key capacity
  • S. R. Pakize *, S. M. Arefi Nejad Pages 51-59

    Nowadays, the Hadoop open-source project with the MapReduce framework has become very popular as it processes vast amounts of data in parallel on large clusters of commodity hardware in a reliable and     fault-tolerant manner. MapReduce was introduced to solve large-data computational problems, and is    dependent on the divide and conquer principle. Time and scheduling are always the most important aspects, hence in the past decades in the MapReduce environment, many scheduling algorithms have been proposed. The main ideas of these algorithms are increasing data locality rate, and decreasing response time and completion time. In this research we have proposed a new hybrid scheduling algorithm (HSMRPL) which uses dynamic job priority and identity localization techniques, and focuses on increasing data locality rate and decreasing completion time. We have evaluated and compared our algorithm with hadoop default schedulers by running concurrent workloads consisting of the WordCount and Terasort benchmarks. The results show that our proposed algorithm has increased the localization rate by 10.4% and 18.5% and the speed by 3.14% and 3.3% compared to the FIFO algorithm and the Fair algorithm respectively.

    Keywords: MapReduce scheduling, Hybrid algorithm, Data locality, Dynamic priority, Hadoop scheduling
  • K. Shoshian, A. Mirghadri * Pages 61-73

    One of the most important threats for computer systems and cyber space in recent years are cyber attacks, particularly the emerging  obfuscated cyber attacks. Obfuscation at the attack level means change of attack, without change in the behavior and type of impact of attack on the victim. So the highlighted problems are the complexity and ambiguity of these attacks and the difficulty in detecting and issueing alarms on time. This paper suggests the acquisition and deployment of a new model of multi - stage cyber - attacks that  enables network security defenders to create a deterrent to enemies in addition to timely diagnosis of cyber attacks. Using this model of attack to multi stage and obfuscate attacks, the attacker can imply false  classification in the attack sequence and break the dependence between the attack warnings, actions,steps and strategies, thus making changes in the sequence of attacks. As a result, network security managers   cannot easily recognize the ultimate goal of the attacker. To assess the presented model, we have used the Bayesian  algorithm.The results of the research and implementation of the model indicate that the accuracy of classification (in terms of log) for the best case of clean attacks is -0.04 whilst for multi-stage obfuscate attacks it reduces to -35. This indicates that the proposed model for multi - stage obfuscate cyber attacks is more efficient than the obfuscate logic of single - stage attacks, because of the ability to deceive intrusion detection systems and make uncertainties in penetration warnings.

    Keywords: Probabilistic modeling, Cyber Attacks, Multi – Stage, attacks obfuscation, Attack Sequence
  • A. Khazaei, M. Ghasemzadeh * Pages 75-81

    This paper investigates the relationship between vulnerability types and their workarounds. Via a  workaround solution, users prevent or mitigate the risk of a vulnerability without the need of eliminating it. So far, little attention has been paid to this fruitful approach, whereas workaround solutions can perform so efficiently when dealing with vulnerabilities. In this research, a proper dataset from four mostly referred vulnerability databases (OSVDB, Security Tracker, Cert CC Vulnerability Notes and NVD) is compiled. In this dataset which we have called VuWaDB, the workarounds are organized in six main categories configuration, code modification, route alteration, elimination, access restriction and utility tools. The CWEs that the NVD was assigned to, are used to determine vulnerability types. In order to discover the   relationship between vulnerabilities and their related workaround solutions, after a statistical survey, a  relevant bipartite graph is constructed. The obtained results are analyzed and presented in related tables, which provide the relation between software vulnerabilities and their workarounds.

    Keywords: Software vulnerability, Workaround, VuWaDB database, CWE, Bipartite graph
  • A. Khorrami, A. Afifi *, M. H. Ghezel Ayagh, A. R. Amin Pages 83-93

    There are various parameters for conceptual design of a LORAN transmitter based on multi-level pulse width modulation (PWM), such as structural arrangement of amplifiers and number of modulation levels. The parameters should be considered in different aspects, such as implementation possibility, realization of LORAN signal standards and reliability analysis. In this paper, the overall measure of efectiveness (OMOE) indicator is used to simulate the reliability results of various open-loop LORAN transmitters based on multi-level PWM. So, by selecting the basic parameters and determining the weight of each parameter, the target value and the minimum acceptable value of each parameter, based on LORAN standards, are determined and OMOE is derived for several scenarios. The results of simulations show that the nine-level PWM arrangement is the most reliable structure. The OMOE of this structure is equal to 0.573, 0.506 and 0.451 (with average of 0.510) for the three states of all-safe amplifier blocks, and one- and two- damaged blocks, respectively. The average of this indicator for the same states are equal to 0.455, 0.463 and 0.485 for pulse amplitude modulation, and seven- and eleven-levels PWM structures, respectively, which have smaller values relative to the optimum structure.

    Keywords: LORAN Transmitter, Multi-level PWM, Reliability, Switching amplifier, OMOE indicator
  • M. J. Ahrari, M. R. Hassani Ahangar *, A. Ghafori Pages 95-103

    In recent years, cloud computing is becoming eminent in the field of information technology. In a cloud computing environment, there is a potential for faults. There are different methods for dealing with faults, but with regard to the features and characteristics of the cloud computing environment, the use of fault tolerance methods is the best choice for this environment.One of the biggest issues in fault tolerance methods is the efficient use of resources. The optimal use of resources is important for cloud providers and customers. Unfortunately, the optimal use of resources in fault tolerance methods has not been much considered by researchers and cloud service providers. In this paper taking into account the dependence between tasks, an attempt has been made to provide a fault tolerance method on virtual machines, which in addition to being tolerant of fault, achieves optimum use of resources. In this method, by using a priority scheduler, each task is assigned a priority, then tasks are sent by the order of priority to their virtual  machines for processing. The results of simulation by the cloudsim simulator show that the proposed method has been able to improve the use of resources more than other methods and with 95% confidence intervals it has achieved (29.15% and 22.74%) improvement in the number of processors, (30.76% and 22.34%) improvement in memory usage and (29.71% and 22.88%) improvement in the use of bandwidth.

    Keywords: cloud computing, Fault Tolerance, virtual machines, optimization of resources, Task scheduling
  • O. Hajipoor, S. S. Sadidpour * Pages 105-114

    With the growing number of Persian electronic documents and texts, the use of quick and inexpensive   methods to access desired texts from the extensive collection of these documents becomes more important. One of the effective techniques to achieve this goal is the extraction of the keywords which represent the main concept of the text. For this purpose, the frequency of a word in the text can not be a proper indication of its significance and its crucial role. Also, most of the keyword extraction methods ignore the concept and semantic of the text. On the other hand, the unstructured nature of new texts in news and electronic  documents makes it difficult to extract these words. In this paper, an automated, unsupervised method for keywords extraction in the Persian language that does not have a proper structure is proposed. This method not only takes into account the probability of occurrence of a word and its frequency in the text, but it also understands the concept and semantic of the text by learning word2vec model on the text. In the proposed method, which is a combination of statistical and machine learning methods, after learning word2vec on the text, the words that have the smallest distance with other words are extracted. Then, a statistical equation is proposed to calculate the score of each extracted word using co-occurence and frequency. Finally, words which have the highest scores are selected as the keywords. The evaluations indicate that the efficiency of the method by the F-measure is 53.92% which is 11% superior to other methods.

    Keywords: Keyword Extraction, Persian Language, Text Mining, Word Similarity, word2vec
  • H. Ahmadian Yazdi, A. Naseri * Pages 115-124

    One of the communication platforms commonly used in C4I backing layers is the free space optical  communication platform. In this paper, the modulation of polarization is proposed to strengthen the free space optical communication platform against atmospheric perturbations. In this method, instead of using conventional modulation methods such as amplitude, phase or frequency modulations, the polarization states are modulated on the optical beam. Conventional modulation methods are highly sensitive to turbulence fluctuations. Polarization modulation is highly resistant to the phase noise of laser beams and it maintains the polarization states on a long path in free space. Generally, binary polarization modulation, works better than conventional modulations by about 2 dB or more. More specifically, in this paper, different polarization modulation constellations in Poincaré are plotted and their probability of error is evaluated in different positions. Finally, the optimal states of the constellation are extracted by simulations.

    Keywords: Atmospheric Turbulence, Gamma-Gamma Distribution, Polarization Shift Keying, Free-Space Optical Communication
  • J. Khalilpoor *, J. Ranjbar, M. Kazeminia Pages 125-133

    In this paper, a device-based localization method is proposed based on the weighted least square error. The most important challenge in localization is the effect of non-line of sight signals (NLoS) at reference nodes which cause outliers and degrade the estimation accuracy of localization. To meet this challenge and avoid such consequences, a new method is introduced based on the combination of weighted reference nodes method and identification and elimination of the NLoS signals method. Another challenge is the dependency of NLoS signals on the transmission environment. Based on this reason, obtaining a probability density function (PDF) to analyze the behavior of NLoS signals is complex and time-consuming, specifically in device-based localization methods that run on mobile wireless targets with limited battery. Therefore, in this paper, a low-complexity method of identification and weighting of NLoS signals is proposed without requiring priority knowledge regarding NLoS bias PDFs. In this method, the frequency of reference nodes in different estimation groups is used to identify and weight the NLoS signals. Finally, the target location is modeled via a constraint non-linear optimization problem and is solved through the Lagrange method.Simulation results illustrate that the proposed method improves the performance of localization in  comparison to linear and nonlinear unweighted-localization methods. In the proposed method, 35% of   localization errors are lower than 0.25 m showing approximately 30% improvement in the localization   performance.  Moreover, 95% of localization errors are lower than 2 m, and the performance increase by 20% in comparison to the unweighted-localization methods. In the case that the number of reference nodes is small, the proposed method provides higher reliability in the location estimation and specifically, when 35% of reference nodes are the line of sight, the estimation accuracy is increased significantly.

    Keywords: Localization, Weighted Least Square Eerror, Non-line of sight signals, Constraint non-linear optimization