فهرست مطالب

فصلنامه پدافند الکترونیکی و سایبری
سال دهم شماره 4 (پیاپی 40، زمستان 1401)

  • تاریخ انتشار: 1402/01/26
  • تعداد عناوین: 11
|
  • سیده زهره مجیدیان صفحات 1-9

    وجود کاربران بدرفتار در شبکه های رادیوشناختی می تواند موجب اخلال در فرآیند حسگری طیف و تشخیص وضعیت کاربر اولیه گردد. به منظور کاهش اثر مخرب این دسته از کاربران در شبکه های رادیوشناختی، در این مقاله یک سازوکار نوین مبتنی بر راهبرد یادگیری تقویتی به منظور حسگری همکارانه طیف ارایه شده است. روش پیشنهادی، یک سازوکار حسگری همکارانه مبتنی بر وزن دهی کاربران بوده که براساس آن کاربران وزنی متناسب با نحوه رفتار خود در حسگری طیف را دریافت می کنند. مدل یادگیری تقویتی بکار رفته در روش پیشنهادی یک آتوماتای یادگیر بوده که با استفاده از فرآیندهای پاداش و جریمه، به کاربران دارای رفتار نرمال در حسگری طیف وزن بیشتر و به کاربران بدرفتار مقادیر وزن کمتری اختصاص می دهد. بدین صورت که آتاماتای یادگیر پس از انجام عمل حسگری در هر بار تکرار، بردار وزن کاربران را براساس پاسخ دریافتی از محیط بروزرسانی می کند. پس از چندبار تکرار حسگری، آتاماتای یادگیر قادر خواهد بود بردار وزن کاربران را بصورتی بهینه تنظیم کند. به منظور ارزیابی روش پیشنهادی، عملکرد آن در محیط شبیه سازی مورد آزمایش قرار گرفته و نتایج حاصل با روش موجود برای حسگری همکارانه طیف مقایسه شده است. نتایج حاصل نشان می دهد که استفاده از روش پیشنهادی در شرایط حضور کاربران بدرفتار موجب بهبود چشمگیر عملکرد شبکه خواهد شد.

    کلیدواژگان: رادیوشناختی، حسگری همکارانه طیف، آتوماتای یادگیر، شناسایی کاربران بدرفتار
  • حمیدرضا خدادادی، سپهدار فلسفی صفحات 11-18

    مدولاسیون جهتی یک فناوری در حال ظهور برای امنیت مخابرات بی سیم در لایه فیزیکی است و بیشتر در کانال های انتشار دید مستقیم مانند ارتباطات موج میلی متری، شبکه های سلولار نسل آینده، ماهواره و رادار کاربرد دارد. این تکنولوژی اطمینان بخش برخلاف روش های رمزنگاری مبتنی بر کلید، سیگنال های اطلاعاتی را بدون نیاز به کلید قفل می نماید. اطلاعات قفل شده تنها توسط گیرنده یا گیرنده های مجاز و شناخته شده برای فرستنده، قابل بازیابی است. این فناوری به روش های مختلفی قابل پیاده سازی است. در روش آرایه فازی، پیاده سازی مدولاسیون در آنتن انجام می شود. در این روش با تغییر فاز هر آنتن آرایه، مدولاسیون وابسته به زاویه انتشار می شود و به همین دلیل صورت فلکی سیگنال در جهت غیر مجاز دچار اعوجاج و از حالت استاندارد خارج می گردد. در این مقاله با استفاده از روش بردار متعامد و جداسازی الگوی تشعشعی اطلاعات و الگوی تداخل (نویز مصنوعی تصادفی)، ضمن اجرای مدولاسیون جهتی در باند پایه، روش جدیدی برای ارسال هم زمان چندین سیگنال با مدولاسیون جهتی همراه با نویز مصنوعی تصادفی ارایه شده است به طوری که احتمال خطای بیت در جهت گیرنده های مجاز از 3-^10 به 5-^10 بهبود یافته است و نرخ محرمانگی سیگنال نیز حداقل یک بیت بر ثانیه بر هرتز (واحد پهنای باند) افزایش یافته است. نتایج شبیه سازی ها نشان می دهد که افزایش تعداد آنتن های فرستنده باعث افزایش نرخ محرمانگی و کاهش میزان اختصاص توان به نویز مصنوعی و در نتیجه باعث افزایش کارایی توان فرستنده می گردد.

    کلیدواژگان: مدولاسیون جهتی، آنتن آرایه ای، امنیت لایه فیزیکی و نویز مصنوعی
  • رضا سلیمانی مجد، سمیرا توحیدی، سید محمدرضا موسوی صفحات 19-31

    فریب یکی از خطرناک ترین اختلالات در سامانه موقعیت یابی جهانی (GPS) است. فریبنده ها با ارسال سیگنالی که از نظر ساختاری کاملا مشابه با سیگنال اصلی GPS است، تلاش می کنند عملکرد بخش های مختلف گیرنده را تحت تاثیر قرار دهند و آن را مجبور به موقعیت یابی اشتباه نمایند. این تحقیق بر مرحله اکتساب تمرکز دارد. در طی فرآیند اکتساب، گیرنده های GPS مقادیر فرکانس داپلر و فاز کد شبه تصادفی (PRN) سیگنال دریافتی را که برای ردیابی سیگنال های ماهواره ای GPS ضروری هستند، تخمین می زنند. یکی از تاثیرات سیگنال فریب در بخش اکتساب گیرنده، افزایش فعل و انفعالات در شاخه های همبستگی متعامد (Q) است. در سال 2018، اضافه نمودن واحد نویززدایی بر روی شاخه همبستگی Q در مرحله اکتساب جهت کاهش فعل و انفعالات مذکور به عنوان یک روش مقابل با فریب ارایه گردید. در این مقاله، روش مذکور به عنوان پایه اصلی کار قرار گرفته است. در اینجا تلاش می شود با بهره گیری از روش های قدرتمند پردازش تکاملی، واحد نویززدایی اضافه شده در شاخه همبستگی Q با هدف مقابله با حمله فریب، به صورت بهینه تنظیم شود. به طور خاص، به منظور دستیابی به الگوریتم نویززدایی مناسب تر برای مقابله با اثرات فریب، به کارگیری الگوریتم تکاملی ازدحام ذرات (PSO) جهت تعیین پارامترهای کلیدی تبدیل موجک گسسته (DWT) بر پایه موجک مادر هار پیشنهاد شده است. به منظور ارزیابی روش پیشنهادی، ابتدا عملکرد الگوریتم را در کاهش نویز در چهار پایگاه داده الگو بلوک ها، برجستگی ، سینوسی سنگین و داپلر سنجیده و با چهار روش نویززدایی معمول Rigrsure، Heursure، Sqtwolog و Minimaxi مقایسه شده است که به ترتیب 3/47، 4/38، 3/47 و 30 درصد کاهش نویزی بیشتر حاصل شد. در نهایت، الگوریتم پیشنهادی در شاخه ی Q واحد اکتساب گیرنده GPS قرار داده شد و عملکرد آن در کاهش اثرات فریب بررسی گردید. نتایج حاصله، نشان دهنده برتری 74/37 درصدی الگوریتم پیشنهادی در مقایسه با روش پایه است.

    کلیدواژگان: گیرنده GPS، حمله فریب، تبدیل موجک، الگوریتم بهینه سازی ازدحام ذرات، نویززدایی
  • محسن حسابی، محمود دی پیر صفحات 33-39

    امروزه تشخیص اتفاقات غیرعادی در شبکه، موضوع بسیاری از پژوهش ها قرارگرفته است. ترافیک شبکه گسترده و بسیار حجیم است و این مسیله منجر به ابعاد بالای داده و افزایش نویز شده و سبب می شود که استخراج اطلاعات معنادار برای تشخیص اتفاقات غیرعادی بسیار مشکل گردد. تشخیص به موقع حملات، پایداری یک سیستم را بهبود می بخشد. هرکدام از حملات گونه ای از یک رفتار خاص است؛ اما برخی از حملات ممکن است رفتاری مشابه داشته و فقط در پاره ای از ویژگی ها متفاوت باشند. در این مقاله روشی نوین به منظور تشخیص بدافزارها و حملات در محیط رایانش ابری ارایه شده است. در این روش، خوشه بندی داده ها، داده ها را از یکدیگر تفکیک می نماید تا با متوازن سازی داده ها در کلاس های مختلف، شرایط بهتری برای ساخت مدل فراهم گردد. این پژوهش از ترکیب الگوریتم های آدابوست، جنگل تصادفی و درخت گرادینت بوستد به صورت یادگیری جمعی به منظور بهبود تشخیص بدافزارها در رایانش ابری استفاده می کند. به منظور ترکیب یادگیرنده های جمعی و ساخت یک مدل سطح بالاتر، از مکانیزم رای گیری استفاده می گردد. در مدل پیشنهادی، یادگیری جمعی با استفاده از نقاط قوت الگوریتم های مختلف، یک سیستم مفید با عملکرد بالا را برای شناسایی بدافزار در رایانش ابری ایجاد می نماید. با شبیه سازی روش پیشنهادی روی داده های واقعی مشاهده گردید که میزان دقت روش پیشنهادی برابر با 96/99%، میزان صحت آن برابر با 97/99% و میزان فراخوانی آن برابر با 95/99% هستند، که نسبت به روش های گذشته برتری محسوسی دارد، در حالی که پیچیدگی محاسباتی آن تغییری چندانی نداشته است.

    کلیدواژگان: حملات بدافزار، رایانش ابری، دسته بندی، خوشه بندی، یادگیری جمعی
  • جلیل مظلوم، حمید بیگدلی صفحات 41-51

    امروزه در عصر دیجیتال، از آنجا که مسایل امنیتی و حملات سایبری، حریم اطلاعات ایمن و حیاتی سازمان ها یا افراد را مختل می کنند، بسیار جدی و لازم توجه به شمار می روند. بنابراین، تشخیص به موقع این آسیب ها از طرف نفوذگران ضروری است، به طوری که سنگ بنای امنیت تحت عنوان سیستم تشخیص نفوذ (IDS)، حریم خصوصی داده های کاربر را حفظ نماید. از طرف دیگر، همراه با پیشرفت سریع روش های یادگیری ماشین (ML) و یادگیری عمیق (DL) در دنیای داده، یکی از کاربردهای مهم آن ها در زمینه IDS با استفاده از الگوریتم های طبقه بندی پیشرفته است که در سال های اخیر موضوع تحقیقات متعددی جهت افزایش دقت و قابلیت اطمینان بوده است. در نتیجه، این مقاله یک مدل ترکیبی IDS را ارایه می کند که به ادغام انتخاب ویژگی، طبقه بندی و بهینه سازی هایپرپارامترها پرداخته است. ابتدا، ویژگی های انبوه اولیه به طور جداگانه به روش های اطلاعات متقابل اصلاح شده (MMI)، الگوریتم ژنتیک (GA)، و آزمون F تحلیل واریانس وارد می شوند و پس از آن، اشتراک گیری از خروجی آن ها به عنوان ویژگی های نهایی موثر و کاهش یافته صورت می پذیرد. در ادامه، یک طبقه بند ترکیبی CNN و LSTM (CNN-LSTM) به کار گرفته می شود که هایپرپارامترهای آن به جای روش سعی و خطای زمان بر دستی، توسط یک الگوریتم بهینه سازی به نام گرگ خاکستری - نهنگ با جابه جایی تصادفی (RS-GWO-WOA) تعیین خواهد شد. نهایتا، به منظور تجزیه وتحلیل طرح پیشنهادی، مقایسه ای با سایر روش ها از نظر صحت، دقت، یادآوری، امتیاز F1 و مدت زمان در مجموعه داده NSL-KDD انجام شده است که برتری رویکرد توسعه یافته را تایید می نماید.

    کلیدواژگان: سیستم تشخیص، نفوذ انتخاب ویژگی، بهینه سازی هایپرپارامترها، اطلاعات متقابل، الگوریتم ژنتیک، آزمون F تحلیل واریانس، الگوریتم بهینه سازی گرگ خاکستری، الگوریتم بهینه سازی نهنگ
  • میهن حسین نژاد، محمد عبداللهی ازگمی، محمدرضا ابراهیمی دیشابی صفحات 53-61

    در سال های اخیر، رایانش ابری به عنوان یک الگوی رایانشی جدید برای ارایه زیرساخت، سکو و نرم افزار به عنوان سرویس توجه زیادی را به خود جلب کرده است. با توجه به تطبیق سریع رایانش ابری در صنعت، چالش مهمی در مدیریت اعتماد میان ارایه دهندگان ابر، ارایه دهندگان سرویس و درخواست کنندگان سرویس به وجود آمده است. در حقیقت با در نظر گرفتن نیاز مبرم درخواست کنندگان سرویس در محیط ابر برای انتخاب سرویس های موثر، قابل اعتماد و کمتر مخاطره آمیز، مدیریت اعتماد در رایانش ابری بسیار چالش برانگیز شده است. یکی از مهم ترین عواملی که می‏تواند در اعتماد یا عدم اعتماد به یک سرویس از طرف درخواست کننده مد نظر قرار گیرد، پارامترهای مختلف کیفیت سرویس مربوط به سرویس موردنظر است؛ بنابراین، رویکردهایی موردنیاز است که اعتماد مربوط به سرویس های ابری را با توجه به مقادیر پارامترهای کیفیت سرویس آن ها و با در نظر گرفتن نیازمندی های کار آیی مشخص شده آن ها ارزیابی کند. در این مقاله، مدلی برای ارزیابی اعتماد به کمک شبکه های بیزی برای سرویس های ابری ارایه شده است. با توجه به اینکه اعتماد در واقع با احتمالات سروکار دارد، شبکه بیزی نیز برای حل مسایل از احتمالات استفاده می کند، پس شبکه بیزی می تواند به کمک ارزیابی اعتماد بیاید. در ادامه برای مقایسه، از فن های مختلف داده کاوی جهت ارزیابی اعتماد در سرویس های ابری استفاده شده است. نتایج حاصل از ارزیابی نشان می دهد که پارامترهای دقت، خطای مطلق، خطای ریشه میانگین مربع و خطای مربع، در شبکه بیزی به ترتیب برابر 53/94، 037/0، 137/0 و 038/0 هست و نسبت به فنون مختلف داده کاوی برای ارزیابی اعتماد در سرویس های ابری کارایی بهتری دارد.

    کلیدواژگان: اعتماد، رایانش ابری، داده کاوی، سرویس ابری، شبکه بیزی، کیفیت سرویس
  • سجاد بسطامی، محمدباقر دولتشاهی صفحات 63-73

    در این مقاله یک الگوریتم جدید به نام الگوریتم جستجوی گرانشی با کدگذاری حرکت برای یافتن هدف متحرک با استفاده از هواپیمای بدون سرنشین (پهپاد) ارایه می شود. با استفاده از قوانین فیزیک و ویژگی های زمین، هر بعد بر اساس نوع متغیر، معادله حرکت خود را دارد. بسیاری از روش های اکتشافی سنتی نمی توانند در فضاهای با ابعاد بالا برای جستجوی هدف متحرک به راه حل مطلوب برسند. فرایند بهینه سازی الگوریتم جستجوی گرانشی که بر اساس فعل وانفعال گرانشی بین ذره ها است، وابستگی به فاصله و ارتباط بین مقادیر جرم و محاسبه برازندگی، این الگوریتم را منحصربه فرد می کند. در این مقاله، الگوریتم پیشنهادی برای حل مشکل چالش پیچیدگی مسیر به منظور یافتن هدف متحرک از طریق کدگذاری حرکت با استفاده از پهپاد ارایه شده است. مجموعه ای از ذره ها در مسیر حرکت برای جستجوی هدف، از طریق ثابت گرانش، عامل وزن، نیرو و فاصله که با بسیاری از سناریوهای جستجو در یک الگوریتم جستجوی گرانشی تکامل یافته، به یک راه حل نزدیک به بهینه خواهد رسید. این روش کدگذاری شده برای حرکت، امکان حفظ ویژگی های مهم ذرات ازجمله حرکت به سمت بهینه سراسری را فراهم می-سازد. نتایج حاصل از شبیه سازی با روش موجود نشان می دهد که الگوریتم پیشنهادی، عملکرد تشخیص را 12% و عملکرد زمان را 71/1 برابر در مقایسه با APSO بهبود می بخشد. علاوه بر این، از دیگر الگوریتم های بهینه سازی فرا ابتکاری پیشرفته از جمله الگوریتم ژنتیک بهتر عمل می کند.

    کلیدواژگان: بهینه سازی، جستجوی هدف، الگوریتم جستجوی گرانشی، کدگذاری حرکت، پهپادها
  • داود بخشش، محمد فرشی صفحات 75-80

    در این مقاله، مسیله ساخت پوشاننده هندسی تحمل پذیر ناحیه-خطا مقید به زیر کلاسی از نواحی محدب، مورد بحث قرار می گیرد. فرض کنید که S مجموعه ای از n نقطه در صفحه باشد. به طور دقیق تر، در این مقاله، یک الگوریتم حریصانه برای ساخت پوشاننده هندسی تحمل-پذیر ناحیه-خطا در حالتی که ناحیه های خطا، مجموعه ای از نیم صفحه ها با مرز موازی با حداکثر k خط است، بررسی می شود. نشان داده می شود که پیچیدگی زمانی الگوریتم پیشنهادی O (kn^3 log⁡n) و گراف تولید شده توسط آن دارای O (kn) یال است. طبق آخرین اطلاعاتی که داریم بهترین الگوریتمی که برای ساخت یک پوشاننده هندسی تحمل پذیر ناحیه-خطا برای مجموعه نقطه S ارایه شده است، دارای زمان اجرای O (n log^2⁡n) است و گراف تولید شده توسط آن دارای O(n log⁡n) یال است.

    کلیدواژگان: پوشاننده هندسی، شبکه های ارتباطی، الگوریتم حریصانه
  • کوروش داداش تبار احمدی، علی اکبر کیایی صفحات 81-89

    تشخیص اشیاء خطرناک موجود در تصاویر کسب شده توسط اسکنرهای X-ray در بازرسی امنیتی، نقش مهمی در محافظت از فضای عمومی در برابر تهدیدهای امنیتی مانند تروریسم و وقوع جرایم خطرناک ایفا کرده است. انجام عملیات تشخیص، توسط فرد خبره علی رغم ویژگی های قابل توجهی که سیستم های حسی و بینایی انسان داراست؛ به دلیل طاقت فرسا بودن، بدون توقف بودن، وابستگی بیش از حد به خطای انسانی و... از ارزش عملیاتی پایینی برخوردار است. یک راه حل مناسب برای موقعیت های مشابه استفاده از سیستم های بینایی ماشین می باشد. ما در این مطالعه قصد داریم که ابتدا در یک فاز آموزشی با قطعه بندی سخت شی خطرناک مورد نظر در تصاویر x-ray موجود در پایگاه داده SIX-ray را بررسی کنیم و با استخراج ویژگی های این اشیاء توسط الگوریتم SURF که قابلیت استخراج ویژگی حتی در شرایط پیچیده و بهم ریخته را دارد، یک پایگاه داده از ویژگی های اشیاء در ابعاد و زوایای مختلف تهیه کنیم. سپس در فاز تشخیص، تصویر آزمایشی ابتدا از یک مرحله قطعه بندی نرم عبور می کند و سپس ویژگی های تصویر توسط الگوریتم SURF استخراج می شود. ویژگی های استخراج شده با ویژگی های شیء موجود در پایگاه داده آموزش مطابقت داده می شوند و سپس احتمال حضور شی که از نسبت تعداد ویژگی های منطبق شی بر تعداد کل ویژگی های موجود در شی به دست می آید، برای هریک از موارد محاسبه می گردد و تطابق ها با بیشترین احتمال وارد مرحله بعد می شوند. پس از یافتن تطابق های معتبر با بیشترین احتمال، با استفاده از الگوریتم اجماع نمونه برآوردگر -M (MSAC) ویژگی های منطبق اشتباه که از پس زمینه تصویر نشات گرفته اند حذف می شوند. در نهایت، انتقال دوبعدی (Affine transformation) بین جفت نقطه های تطبیق هریک از حالت های معتبر با تصویر ورودی به دست می آید و به کمک این انتقال و ابعاد شی، یک مربع پیرامون شیء رسم می شود و مکان شیء تشخیص داده می شود. در ادامه به تشریح کامل فاز آموزش و تشخیص و نتایج حاصل از داده های SIX-ray پرداخته می شود.

    کلیدواژگان: تصاویر X-ray، پردازش تصویر، الگوریتم SURF، تشخیص شی خطرناک
  • طوبی ترابی پور، سیده صفیه سیادت صفحات 91-100

    در سال های اخیر با توجه به سوددهی بازار بورس اوراق بهادار در ایران سرمایه های خرد و کلان جذب این بازار شدند ، اما متاسفانه به دلیل دانش کم این افراد از بورس و پیش بینی قیمت ها تعداد فراوانی از مردم ایران ضرر و زیان زیادی را متحمل شدند . در این تحقیق بر آن شدیم تا با استناد به تحقیق قبلی خود که از شبکه عصبی با دولایه LSTM استفاده می کرد .کار خود را قوت بخشیده و شبکه عصبی ترکیبی کانولوشن وlstm را جهت پیش بینی قیمت سهام بر روی مجموعه دیتاست وب ملت از بازار بورس اوراق بهادار تهران و سه دیتاست موجود در آن شامل آث پ ،خودرو و وساخت به کار ببریم. در انتها جهت ارزیابی روش پیشنهادی و دو روش دیگر ازنظر سه تابع خطا ،تابع میانگین مربع خطا (MSE)، تابع میانگین خطای مطلق (MAE) و تابع میانگین مربع ریشه (RMSE) بررسی شد . نتایج حاصله نشان داد در دیتاست های بزرگ با تعداد داده های سهام بالا بسیار بهتر عمل کرده و خطای کمتری به دنبال دارد.

    کلیدواژگان: شبکه عصبی کانولوشن، قیمت سهام، شبکه عصبی LSTM، یادگیری عمیق
  • محمد غفاری، حاتم عبدلی، مهدی عباسی صفحات 101-110

    کامپیوترهای کوانتومی توان محاسباتی خیلی بیشتری نسبت به کامپیوترهای کلاسیک دارند و این مسیله باعث ایجاد چالش در حوزه رمزنگاری کلید عمومی شده است، به طوری که پیش بینی می شود در آینده کامپیوترهای کوانتومی به اندازه ای قدرتمند شوند که بتوانند الگوریتم های رمزنگاری کلید عمومی را بشکنند. به منظور حل این مشکل NIST یک فراخوانی را برای رمزنگاری پساکوانتوم منتشر کرد. یکی از الگوریتم های راه یافته به دور سوم، الگوریتم CRYSTALS-KYBER است. در این الگوریتم با بهینه سازی واحد NTT می توان زمان اجرا را کاهش داد. در حالت عادی پیاده سازی NTT، با پایه دو صورت گرفته ولی در روش پیشنهادی از پایه چهار استفاده شده است و این امر باعث کاهش زمان اجرا شده است. برای پیاده سازی NTT با پایه چهار و متناسب با الگوریتم Kyber، لازم است تغییراتی در NTT رخ دهد. در ادامه واحد پروانه پایه دو با واحد پروانه پایه چهار مقایسه شده است. در واحد حافظه به منظور افزایش سرعت خواندن و نوشتن از هشت RAM استفاده شده که چهار عدد از آنها برای نوشتن و چهار عدد باقیمانده برای خواندن همزمان است. در بخش تولید آدرس، پیشتر آدرس ها به صورت دوتایی تولید می شد ولی در روش پیشنهادی به صورت چهارتایی تولید می شود و همچنین لازم است در پارامترهای NTT اصلاحاتی انجام شود که برای پیاده سازی روی Kyber مناسب باشد. در ادامه، روش پیشنهادی روی دو تراشه FPGA، Artix-7 و Virtex-7 با استفاده از نرم افزار Vivado پیاده سازی شده است که در ازای افزایش جزیی منابع موردنیاز، زمان اجرا در Artix-7 در مقایسه با پیاده سازی های مشابه 28.74 درصد و 12.34 درصد کاهش یافته است.

    کلیدواژگان: رمزنگاری پساکوانتوم، Crystals-Kyber، NTT، پایه چهار، ضرب چند جمله ای، پیاده سازی سخت افزاری
|
  • seyede zohre majidian Pages 1-9

    The presence of misbehaving users in Cognitive Radio Networks (CRN) can disrupt the process of spectrum sensing and detecting the status of the Primary User (PU). In order to reduce the destructive effect of this group of users in CRNs, in this paper, a new mechanism based on reinforcement learning for cooperative spectrum sensing is presented. The proposed method is a cooperative spectrum sensing mechanism based on user weighting, according to which users receive a weight commensurate with how they behave in spectrum sensing. The reinforcement learning model used in the proposed method is a learning automata which, using reward and penalty processes, allocates more weight to users with normal behavior in sensing the spectrum and less to misbehaving users. In this way, the learning automata updates the users' weight vector based on the response received from the environment, after performing a sensing operation in each repetition. After repeating the sensing operation several times, the learner will be able to optimize the user's weight vector. In order to evaluate the proposed method, its performance in the simulation environment has been tested and the results have been compared with the existing method for cooperative spectrum sensing. The results show that using the proposed method in the presence of misbehaving users will significantly improve network performance.

    Keywords: Cognitive Radio, Cooperative Spectrum Sensing, Learning Automata, Identifying Misbehaving Users
  • HamidReza Khodadadi, SEPAHDAR FALSAFI Pages 11-18

    Directional modulation(DM) is an emerging technology for securing wireless communication at the physical layer and is mostly used in the line of sight propagation channels such as millimeter wave communications, next-generation cellular, satellite, and radar networks. This promising technology, unlike key-based cryptographic methods and the key-based physical layer security approaches, locks information signals without any requirement of keys. The locked information can only be fully recovered by the legitimate receiver(s) priory known by DM transmitters. This technology can be implemented in different ways. In the phased array method, modulation is implemented in the antenna. In this method by changing the phase of each element, the angle-dependent modulation is constructed. for this reason, the modulation constellation points in the undesired directions are distorted and deviate from the standard mode.In this article, DM is implemented in the baseband by using the orthogonal vector method and separating the information radiation pattern from the interference radiation pattern (random artificial noise). This is a new method for simultaneously sending several signals with DM and random artificial noise. In this method, the bit error rate (BER) probability in the direction of the legitimate receiver(s) is improved from 10^(-3) to 10^(-5) and at least the signal secrecy rate is also increased one bit per second per hertz (bandwidth unit). Also, the results of the simulations show that as the number of antennas increases, the secrecy rate increases, the amount of power allocated to artificial noise decreases, and the power efficiency of the transmitter increases.

    Keywords: Directional Modulation, Antenna Array, Phisical Layer Security, Artificial Noise
  • Reza Soleimani Majd, S. Tohidi, MohammadReza Mosavi Pages 19-31

    The spoofing attack is one of the most serious interferences in the Global Positioning System (GPS). By propagating a signal structurally similar to the original GPS signal, the spoofers try to influence the function of different parts of the receiver and force it to make a wrong positioning. This study focus on the acquisition stage. During the acquisition process, GPS receivers estimate the values of Doppler frequency and Pseudo Random Noise (PRN) code phase of the received signal, which are necessary for tracking the GPS satellite signals. One of the effects of the spoofing signal in the acquisition unit of the receiver is to increase the interactions in the Quadrate correlation taps (Q-correlation tap). In 2018, adding a denoising unit on the Q-correlation tap in the acquisition stage to reduce the interactions mentioned above was presented as a spoofing mitigation method. In this paper, the mentioned method is placed as the primary basis of the work. Here, by using powerful methods of evolutionary computing, the denoising unit added in the Q-correlation tap is tried to be optimally adjusted to mitigate the spoofing attack. Specifically, to achieve a more efficient denoising method for spoofing mitigation, the Particle Swarm Optimization (PSO) algorithm is proposed to determine the critical parameters of the Discrete Wavelet Transform (DWT) based on the Haar wavelet. In order to evaluate the proposed method, first, the noise reduction performance of the algorithm is measured on four benchmark signals, namely Blocks, Bumps, Heavy Sine, and Doppler. Then, compared to four traditional methods, namely, Rigrsure, Heursure, Sqtwolog, and Minimaxi, the developed de-nosing method outperformed the former methods by 47.3%, 38.4%, 47,3%, and 30%, respectively. Finally, the proposed algorithm was placed in the Q-correlation tap of the GPS receiver acquisition stage, and its performance in reducing the spoof effects was investigated. The results show that the proposed algorithm is 37.74% more efficient compared to the method that was considered the primary method.

    Keywords: Spoofing Attack, Wavelet Transform, Particle Swarm Optimization, Noise Reduction
  • Mohsen Hesabi, Mahmood Deypir Pages 33-39

    Nowadays, detecting unusual events in the network has been the subject of many researches. Network traffic is huge and very large, and this leads to high data size and increased noise, which makes it very difficult to extract meaningful information to detect abnormal events. Early detection of attacks improves the stability of a system. Each attack is a type of specific behavior; But some attacks may behave similarly and differ only in some features. This article presents a new way to detect malware and attacks in the cloud computing environment. In this method, data clustering separates the data from each other to provide better conditions for model construction by balancing the data in different classes. This research uses a combination of Adabost, Random Forest and Bosted Gradient Tree algorithms as ensemble learning to improve malware detection in cloud computing. In order to combine boosted learners and build a higher level model, the voting mechanism is used. In the proposed model, ensemble learning, using the strengths of various algorithms, creates a useful, high-performance system for detecting malware in cloud computing. By applying the proposed method on real data, it was observed that the accuracy of the proposed method is equal to 99.96%, its accuracy is equal to 99.97% and its recall is equal to 99.95% which compared to previous methods, it has a noticeable advantage, but its computational complexity has not changed much.

    Keywords: Malware attacks, Cloud computing, Classification, Clustering, Ensemble learning
  • Jalil Mazloum, Hamid Bigdeli Pages 41-51

    In today's digital era, security issues and cyber attacks have become a serious and attention-needed concern as they hamper secured and vital information relating to organizations or individuals. Accordingly, timely detection of these vulnerabilities made by intruders is essential, wherein the cornerstone of security ensures the user's data privacy as an intrusion detection system (IDS). On the other hand, with the rapid development of machine learning (ML) and deep learning (DL) methods in the data world, one of their significant applications is dedicated to IDS using state-of-the-art classification algorithms, which has been the subject of numerous research to enhance accuracy and reliability in recent years. As a consequence, this paper presents a hybrid model integrating feature selection, classification, and hyper-parameters optimization. First, the initial massive features are subjected separately to the modified mutual information (MMI), genetic algorithm (GA), and Anova F-value approaches, followed by extracting the common outputs as optimal and reduced final features. Subsequently, a compound CNN and LSTM classifier (CNN-LSTM) is employed, where its hyper-parameters will be determined through a random switch grey wolf-whale optimization algorithm (RS-GWO-WOA) instead of a time-consuming trial and error manual process. Ultimately, to analyze the suggested scheme, a comparison with other strategies in terms of accuracy, precision, recall, F1 score, and periods of time on the NSL-KDD dataset has been accomplished, confirming the superiority of the developed approach.

    Keywords: Intrusion Detection System, Feature Selection, Hyper-parameter Optimization, Mutual Information, Genetic Algorithm, Anova F-value, Grey Wolf Optimization Algorithm, Whale Optimization Algorithm
  • Mihan Hosseinnezhad, Mohammad Abdollahi Azgomi, MohammadReza Ebrahimi Dishabi Pages 53-61

    In recent years, cloud computing has attracted much attention as a new computing model for providing infrastructure, platform, and software as a service. There is an important challenge in trust management between cloud providers, service providers, and service applicants due to the industry's rapid adaptation of cloud computing. Trust management has become very challenging in cloud computing since cloud service applicants need to choose effective, reliable, and low-risk services. One of the most important factors, which can be considered in the applicant's trust or distrust of service, is the various parameters of service. Therefore, it is necessary to use approaches to evaluate the trust of the cloud services considering their service quality parameters and their identified performance requirements. In this paper, a model is introduced to evaluate the trust for the cloud services using Bayesian network. Since the trust actually deals with probabilities, and the Bayesian network also uses probabilities to solve the problems, the Bayesian network can be used to assess the trust. The proposed method is compared with various data mining techniques to assess trust in cloud services. The results show that the accuracy, absolute error, root mean square error, and square error in the Bayesian network are 94/53, 0/037, 0/137, and 0/038, respectively. The proposed method is more efficient than different data mining techniques for trust assessment in cloud services.

    Keywords: Trust, Cloud computing, Cloud service, Data mining, Bayesian network, Service quality
  • Sajad Bastami, MohammadBagher dowlatshahi Pages 63-73

    In this paper, a new algorithm called Motion Coding Gravitational Search Algorithm (MGSA) is proposed to find a moving target using a unmanned aerial vehicles (UAVs). Using the laws of physics and the properties of the earth, each dimension has its own equation of motion based on the type of variable. Many traditional exploratory methods can not achieve the desired solution in high-dimensional spaces to search for a moving target. The optimization process of the gravitational search algorithm, which is based on the gravitational interaction between particles, the dependence on the distance and the relationship between mass values, and the fit calculation, make this algorithm unique. In this paper, the proposed MGSA algorithm is proposed to solve the path complexity challenge problem in order to find the moving target through motion coding using UAVs. A set of particles in the path of search for the target will reach a near-optimal solution through the gravity constant, weight factor, force and distance, which evolved with many search scenarios in a GSA algorithm. This coded method of motion makes it possible to preserve important particle properties, including the optimum global motion. The results of the existing simulation show that the proposed MGSA improves the detection performance by 12% and the time performance by 1.71 times compared to APSO. It works better.

    Keywords: Optimization, target search, gravitational search algorithm, motion coding, drones
  • Davood Bakhshesh, Mohammad Farshi Pages 75-80

    In this paper, we consider the problem of constructing the region-fault tolerant geometric spanners when the problem is restricted to a subclass of convex regions. Let S be a set of n points in the plane. In particular, in this paper, a greedy algorithm for constructing the region-fault tolerant geometric spanner of S where the region faults are a set of at most k half-planes with parallel boundaries is presented. We show that the proposed algorithm has the time complexity O(kn^3 log⁡n ), and the generated graph contains O(kn) edges. To the best of our knowledge, the best-known algorithm to construct the region-fault tolerant geometric spanner of S takes O(n log^2⁡n) time and the generated graph has O(n log⁡n) edges.

    Keywords: Geometric spanners, Communication networks, Greedy algorithm
  • Kourosh Dadashtabar Ahmadi, aliakbar kiaei Pages 81-89

    Detection of dangerous objects in images obtained by X-ray scanners in security inspections has played an important role in protecting the public space from security threats such as terrorism and the occurrence of dangerous crimes. Perform diagnostic operations by an expert despite the remarkable features of the human sensory and visual systems; Due to being exhausting, non-stop, excessive dependence on human error, etc., it has low operational value. One suitable solution for similar situations is to use car vision systems. In this study, we intend to first examine the hazardous object in the x-ray images in the SIX-ray database in a training phase with hard segmentation, and by extracting the properties of these objects by the SURF algorithm, which is capable of extracting properties even in complex conditions. It is confusing to create a database of properties of objects in different dimensions and angles. Then, in the detection phase, the experimental image first goes through a soft segmentation step, and then the image properties are extracted by the SURF algorithm. The extracted properties are matched with the properties of the object in the training database, and then the probability of the object being present, which is the ratio of the number of matching properties of the object to the total number of properties in the object, is calculated for each case. be. After finding the most likely valid matches, the M-estimator sample consensus algorithm (MSAC) removes the incorrect matching properties that originated from the image background. Finally, a two-dimensional transfer (Affine transformation) is obtained between the pairs of matching points of each valid state with the input image, and with the help of this transfer and dimensionality, a square is drawn around the object and the location of the object is identified. The following is a complete description of the training and diagnosis phase and the results of SIX-ray data.

    Keywords: X-ray images, image processing, SURF algorithm, dangerous object detection
  • tuba toraby pour, safieh siadat Pages 91-100

    In recent years, due to the profitability of the stock market in Iran, small and large investments were attracted to this market, but unfortunately, due to their lack of knowledge of the stock market and price forecasting, a large number of Iranians suffered great losses. In this study, we decided to use our previous research, which used a two-layer LSTM neural network, to strengthen its work and use a combination of convolution and lstm neural networks to predict stock prices on the Web Nation data set from the stock market. Use Tehran and its three databases, including ASP, car and construction. Finally, in order to evaluate the proposed method and the other two methods, three error functions, mean square error function (MSE), mean absolute error function (MAE) and root mean square function (RMSE) were evaluated. The results showed that it works much better in large datasets with high stock data and leads to fewer errors.

    Keywords: Convolution neural network, stock price, LSTM neural network, deep learning
  • Mohammad Ghafari, Hatam Abdoli, Mahdi Abbasi Pages 101-110

    Quantum computers have much more computing power than classical computers and this has created a challenge in the field of public-key cryptography algorithms, which is predicted quantum computers will reach the computational power to break existing public-key cryptography algorithms by 2030. To solve this problem, NIST published a call for post-quantum cryptography algorithms. Implementing these algorithms faces challenges such as execution time and resources. One of the algorithms that made it to the third round is the CRYSTALS-KYBER algorithm. In this algorithm, by optimizing the NTT module, the execution time is reduced. Usually, the implementation of NTT is created with radix-2, but in the proposed method, radix-4 is used, and this reduces the execution time. Changes to NTT are required to implement radix-4 NTT. DIT is used to implement NTT and DIF is used to implement INTT. In NTT and INTT formulas changes are made to the twiddle factors and the values of the twiddle factors stored to the ROM. In the following, we compared radix-4 butterfly unit with radix-2 butterfly unit. By reusing results in CT and GS butterfly units, we need four multiplications, additions, and subtractions, and the structure of radix-4 butterfly unit is mentioned. The memory unit uses eight RAMs to increase read and write speeds, four of which are for writing and the remaining four are for reading. It is also necessary to make corrections to the NTT parameters which are suitable for implementation on Kyber. Next, we implemented the proposed method on two FPGA Artix-7 and Virtex-7 using Vivado software. In the implementation on Artix-7 and Virtex-7 in exchange for a slight increase in the resources, the execution time in Artix-7 is reduced by 28.74% and 12.34% compared to similar implementations.

    Keywords: Post-quantum cryptography, Crystals-Kyber, NTT, radix-4, polynomial multiplication, hardware implementation