فهرست مطالب

پردازش علائم و داده ها - سال نوزدهم شماره 2 (پیاپی 52، تابستان 1401)

فصلنامه پردازش علائم و داده ها
سال نوزدهم شماره 2 (پیاپی 52، تابستان 1401)

  • تاریخ انتشار: 1401/07/20
  • تعداد عناوین: 12
|
  • شکوه شیخ زاده، حامد وحدت نژاد*، رمضان هاونگی صفحات 1-12

    وجود دست انداز در سطح جاده ها معضل بزرگی در حمل و نقل جاده ای است و نادیده گرفتن آن منجر به افزایش تصادفات، افزایش مصرف سوخت خودرو و هدر رفت وقت و انرژی خواهد شد؛ از این رو حل مساله کشف دست انداز، مورد توجه پژوهش گران قرار گرفته و الگوریتم های مختلفی برای حل آن ارایه شده است. در این مقاله، برای افزایش دقت، یک روش پردازش داده مبتنی بر محاسبات نرم برای کشف دست انداز پیشنهاد شده است. در روش پیشنهادی، از ترکیب سیستم فازی و الگوریتم های تکاملی استفاده شده است. این روش، از الگوریتم های ژنتیک و جستجوی هارمونی برای تنظیم توابع عضویت سیستم فازی استفاده می کند. به منظور بررسی الگوریتم پیشنهادی،  عملکرد این روش برای کشف دست انداز های واقع در خیابان غفاری شهر بیرجند، مورد ارزیابی قرارگرفته است. نتایج حاصل حاکی از عملکرد  موفقیت آمیز روش پیشنهادی، در مقایسه با سایر روش ها، از نظر دقت است؛ به گونه ای که دقت  الگوریتم فازی ژنتیک 98 درصد و الگوریتم فازی هارمونی 99 درصد به دست می آید.

    کلیدواژگان: محاسبات نرم، کشف دست انداز، سیستم فازی، الگوریتم ژنتیک، جستجوی هارمونی
  • عباسعلی شریفی*، حجت امامی صفحات 13-26

    مدولاسیون چندحاملی تسهیم با تقسیم فرکانسی متعامد (OFDM) یک فناوری سودمند در ارتباطات بی سیم است که امکان ارسال اطلاعات با نرخ بالا را در کانال های محو شونده چندمسیری فراهم می سازد. در سیستم های OFDM، برای مدولاسیون سمبل ها از تعداد زیادی زیرحامل استفاده که موجب می شود، سیگنال ارسالی در حوزه زمان تغییرات دینامیکی زیادی داشته باشد که موجب بروز PAPR می شود. در این پژوهش، از روش ارسال دنباله جزیی (PTS) برای کاهش PAPR در سیستم های OFDM استفاده شده است. یکی از مشکلات اساسی روش PTS، پیچیدگی محاسباتی بسیار بالای آن است؛ زیرا این روش نیازمند یک جستجوی جامع بین تمام ترکیبات ممکن فاکتورهای فاز است. پیچیدگی محاسباتی نیز با افزایش تعداد فاکتورهای فاز و زیربلوک ها افزایش می یابد. در این پژوهش، برای غلبه بر مساله پیچیدگی محاسباتی روش PTS، روش بهینه سازی مبتنی بر الگوریتم انتخابات (EA) بهبود یافته پیشنهاد می شود که به اختصار EA-PTS نامیده می شود. الگوریتم پیشنهادی EA-PTS با جستجوی فاکتورهای فاز بهینه، پیچیدگی محاسباتی کمتری را به سیستم تحمیل کرده و مقدار PAPR را به میزان قابل قبولی کاهش می دهد. روش پیشنهادیEA-PTS با روش های PTS بهینه (O-PTS)، روش GA-PTS و ICA-PTS مقایسه شده است. نتایج آزمایش ها نشان می دهند که روش EA-PTS کارایی بهتری در کاهش همزمان PAPR و پیچیدگی محاسباتی دارد.

    کلیدواژگان: مدولاسیون چندحاملی OFDM، کاهش PAPR، ارسال دنباله جزئی (PTS)، الگوریتم انتخابات (EA)، الگوریتم EA-PTS
  • احسان یثربی نائینی*، مهلا حاتمی صفحات 27-38

    یکی از قسمت های مهم در داده کاوی و کشف دانش از پایگاه داده، رده بندی است. در اغلب موارد داده هایی که برای آموزش رده بندها به کار می روند از توزیع مناسبی برخوردار نیستند. این توزیع نامناسب هنگامی رخ می دهد که یک رده تعداد نمونه های زیادی دارد؛ درحالی که به طور ذاتی نمونه های رده دیگر کم است. به طورکلی روش های حل این نوع مسایل به دو دسته نمونه گیری کاهشی و نمونه گیری افزایشی تقسیم می شود. در این مقاله یک روش نمونه گیری کاهشی با استفاده از ترکیب خوشه بندی و معیارهای شباهت فازی ارایه شده است و عملکرد آن ها ازنظر کارآمدی در رده بندی داده های نامتوازن مورد تحلیل و بررسی قرارگرفته اند. بدین منظور در ابتدا خوشه بندی کاهشی انجام شده و داده های رده اکثریت خوشه بندی، سپس با استفاده از معیارهای شباهت فازی نمونه های هر خوشه رتبه بندی و بر اساس این رتبه ها نمونه های مناسب انتخاب می شود؛ نمونه های انتخاب شده به همراه رده اقلیت مجموعه داده نهایی را تشکیل می دهند. در این پژوهش پیاده سازی در نرم افزار MATLAB، ارزیابی نتایج از طریق محاسبه معیار AUC و تحلیل نتایج با استفاده از آزمون های آماری استاندارد انجام شده است. نتایج مطالعه نشان دهنده عملکرد بهتر روش پیشنهادی، نسبت به سایر روش های شناخته شده است.

    کلیدواژگان: رده بندی داده های نامتوازن، معیارهای شباهت فازی، نمونه گیری، خوشه بندی کاهشی
  • نگین دانشپور*، سیده فاطمه میرابوالقاسمی صفحات 39-60

    داده های سری زمانی چندمتغیره در زمینه های مختلف مانند بیوانفورماتیک، زیست شناسی، ژنتیک، نجوم، علوم جغرافیایی و امور مالی یافت می شوند. بسیاری از این مجموعه داده ها دارای داده گمشده هستند. جایگذاری داده های گمشده سری زمانی چندمتغیره، یکی از مباحث چالش برانگیز است و قبل از فرایند یادگیری یا پیش بینی سری های زمانی باید با دقت مورد توجه و بررسی قرار گیرد. تحقیقات فراوانی در استفاده از روش های مختلف برای جایگذاری داده های گمشده سری زمانی انجام شده است که به طورمعمول شامل روش های تجزیه و تحلیل و مدل سازی های ساده در کاربردهای خاص و یا سری های زمانی تک متغیره هستند. در این مقاله یک نسخه بهبود یافته از درون یابی معکوس فاصله وزن دار برای جایگذاری داده های گمشده پیشنهاد شده است. روش درون یابی معکوس فاصله وزن دار دو محدودیت اساسی دارد: 1) یافتن بهترین نقاط نزدیک تر به داده های گمشده 2) انتخاب توان تاثیر بهینه برای همسایگان داده گمشده. برای بهبود روش درون یابی، از خوشه بندی k-means استفاده شده است، تا همسایه های با بیشترین شباهت به الگوی داده ای انتخاب شوند. از آنجا که میزان تاثیر هر یک از همسایه ها بر روی داده گمشده متفاوت است، از الگوریتم جستجوی فاخته برای تعیین توان تاثیر همسایگی استفاده می شود. برای ارزیابی عملکرد روش پیشنهادی، از پنج معیار ارزیابی شناخته شده استفاده می شود. نتایج تجربی بر روی چهار مجموعه داده UCI با درصدهای مختلف گمشدگی مورد بررسی قرار گرفته و در مجموع الگوریتم پیشنهادی نسبت به سه روش مقایسه ای دیگر عملکرد بهتر و به طور میانگین حدود 05/0 خطای RMSE، 04/0 خطای MAE، 003/0 خطای MSE و  5 درصد خطای MAPE داشته است. میزان همبستگی داده های واقعی و مقدار برآورد شده در روش پیشنهادی بسیار مطلوب و در حدود 99 درصد است.

    کلیدواژگان: جایگذاری داده های گمشده، درون یابی IDW، الگوریتم جستجوی فاخته، خوشه بندی k-means، سری های زمانی چندمتغیره
  • نیره سعیدی، شهرام بابائی* صفحات 61-72

    در سال های اخیر شبکه های موردی بین خودرویی به عنوان یک فناوری نوظهور سعی کرده است با کنترل هوشمند ترافیک، تعداد تصادفات خودروها را کاهش دهد. در این شبکه ها حرکت سریع خودروها، پویایی توپولوژی و محدودیت های منابع شبکه، مسیریابی را به یک چالش اساسی تبدیل کرده، لذا ارایه یک الگوریتم مسیریابی پایدار و مطمین یک راه کار مناسب برای حفظ پارامترهای کیفیت سرویس خدمات این شبکه ها است. در این مقاله یک الگوریتم مسیریابی جدید مبتنی بر خوشه بندی به نام GCAR بر اساس الگوریتم ژنتیک ارایه می شود که ابتدا خودروها در یک زیرساخت مبتنی بر خوشه های پویا قرار می گیرند و سپس با انتخاب دو خودرو در هر خوشه به عنوان خودروهای دروازه بین خوشه های همسایه، یک زنجیره خودرویی تشکیل می شود. همچنین برای خوشه بندی از ترکیب الگوریتم ژنتیک و الگوریتم تبرید شبیه سازی شده استفاده می شود که سعی می کنند سرخوشه های مناسب را شناسایی کنند. نتایج شبیه سازی های انجام شده در نرم افزار متلب نشان می دهد که به طور متوسط نرخ کشف مسیر الگوریتم پیشنهادی 4/18%، تعداد خوشه ایجاد شده 55/2%، توان عملیاتی 45/3% و نرخ دریافت صحیح بسته ها 18/14% نسبت به رویکرد PassCAR عملکرد بهتری دارد. همچنین ارزیابی هم گرایی، انحراف معیار و خطای استاندارد الگوریتم پیشنهادی اثبات کننده سرعت هم گرایی و پایداری بالای آن است.

    کلیدواژگان: شبکه های موردی بین خودرویی، مسیریابی، خوشه بندی، الگوریتم ژنتیک، الگوریتم تبرید شبیه سازی شده
  • پیام محمودی نصر*، حسین کیمیا صفحات 73-86

    امروزه شاهد گسترش خدمات مختلف اینترنت اشیا در حوزه های مختلف از قبیل نظارت و سلامت هستیم. این خدمات از طریق دستگاه های هوشمند در هر مکان و زمانی می تواند در دسترس کاربران قرار گیرند. این در حالی است که این دسترسی ها می تواند مساله امنیت و حریم خصوصی را به امری حساس و حیاتی تبدیل کند. گزارش های دریافتی نشان می دهد که تعداد دستگاه های اینترنت اشیا تا سال 2030 به عدد 44/25 بیلیون خواهد رسید و این در حالی است که 26% حملات اینترنت اشیا در سال 2019 مربوط به عدم احراز هویت بوده است. به همین دلیل احراز هویت کاربران در اینترنت اشیا به یکی از حساس ترین مفاهیم امنیتی تبدیل شده است. در این مقاله یک پروتکل احراز هویت دوطرفه دستگاه به دستگاه برای شبکه های خانگی هوشمند، ارایه شده است. این پروتکل بر اساس رمزنگاری نامتقارن برای احراز هویت دستگاه های موجود در شبکه طراحی شده و در آن تمامی دستگاه ها یک کلید جلسه خصوصی مشترک دارند. برای حصول اطمینان از امنیت ارتباط ها در هر جلسه، کلیدهای جلسه پس از هر جلسه ارتباطی، تغییر می کنند. برنامه نویسی طرح پیشنهادی به وسیله HLPSL، شبیه سازی و ارزیابی بهینگی با ابزار SPAN و AVISPA انجام شده است. تحلیل های امنیتی نشان می دهد که پروتکل پیشنهادی در مقابل حملات امنیتی، پایداری خود را حفظ می کند.

    کلیدواژگان: اینترنت اشیا، پروتکل احراز هویت، رمزنگاری، امنیت، AVISPA
  • محمدنبی امیدوار، صمد نجاتیان*، حمید پروین، کرم الله باقری فرد، وحیده رضایی صفحات 87-106

    بهینه سازی یک فعالیت مهم و تعیین کننده در طراحی ساختاری است. طراحان زمانی قادر خواهند بود طرح های بهتری تولید کنند که بتوانند با روش های بهینه سازی در صرف زمان و هزینه طراحی صرفه جویی نمایند. بسیاری از مسایل بهینه سازی در مهندسی، طبیعتا پیچیده تر و مشکل تر از آن هستند که با روش های مرسوم بهینه سازی نظیر روش برنامه ریزی ریاضی و نظایر آن قابل حل باشند. جهان اطراف ما می تواند پایه بسیاری از رفتارهای هدفمند باشد که دقت در اشیاء پیرامون، ما را در شناخت این رفتارها و  نظم رو به سمت هدف یاری می رساند. در این مقاله یک الگوریتم بهینه سازی جدید بر پایه الگوی بازی دومینو ارایه گردیده است. بازی دومینو متشکل از مجموعه ای از تکه هایی است که با یک وحدت گروهی، یک نظم روبه هدف را شکل داده اند. تلاش برای ایجاد یک الگوریتم بهینه سازی جدید بر پایه تیوری این بازی، ما را به انجام این تحقیق رهنمون ساخت. الگوی حرکت دومینویی در یک محیط شبیه ساز پیاده سازی گردید و نتایج نشان داد که الگوریتم حاصل، الگوی مناسبی برای یافتن پاسخ های بهینه جهت مسایل پیچیده می باشد.

    کلیدواژگان: الگوریتم، بهینه سازی، دومینو، تابع هزینه، رفتار
  • زینب رجبی*، محمدرضا ولوی، مریم حورعلی صفحات 107-132

    با رشد چشم گیر رسانه های اجتماعی مانند توییتر و افزایش  نظرات کاربران در تارنماهای تجارت الکترونیکی و تارنماهای خبری، افراد و سازمان ها به طور فزاینده ای از نظرات در این رسانه ها برای تصمیم گیری خود استفاده می کنند. تحلیل احساس یکی از روش های تحلیل نظرات کاربران است که در سال های اخیر مورد توجه قرار گرفته است. تحلیل احساس روی هر زبانی نیازمندی های مختص به خود را دارد و به کارگیری روش ها، ابزارها و منابع زبان انگلیسی به طور مستقیم در زبان فارسی با محدودیت هایی روبه رو است. متون نوشته شده به زبان فارسی ویژگی های خاصی دارند که نیازمند روش های خاص تحلیل احساس هستند که متفاوت از زبان انگلیسی است. در این مقاله، پژوهش های تحلیل احساس که روی متون به زبان فارسی انجام شده است، مورد بررسی و مقایسه قرار می گیرد. ابتدا رویکردهای تحلیل احساس، وظایف و سطوح تحلیل احساس تشریح می شود. در ادامه تلاش می شود که مروری روی روش های به کارگرفته شده برای وظایف تحلیل احساس متون فارسی انجام شود و جایگاه کارهای انجام شده در زبان فارسی روشن شود. همچنین منابع داده ای ایجاد و منتشر شده برای تحلیل احساس متون فارسی معرفی شده است. در نهایت با توجه به مطالعات انجام گرفته روی آخرین پیشرفت های تحلیل احساس، مسایل و چالش هایی که در زبان فارسی به آن پرداخته نشده را برشمرده و نقشه راهی برای پژوهش های آینده پردازش متون فارسی ارایه می شود.

    کلیدواژگان: تحلیل احساس، نظرکاوی، طبقه بندی قطبیت، مجموعه داده های تحلیل احساس، زبان فارسی
  • حجت امامی* صفحات 133-146

    استخراج اطلاعات ساختاریافته از متون وب یکی از وظایف اصلی در حوزه وب کاوی، پردازش زبان طبیعی و استخراج اطلاعات است. در سال های اخیر، روش های مختلفی برای استخراج اطلاعات ساختاریافته از متون انگلیسی وب ارایه شده است. اغلب روش های موجود برای استخراج اطلاعات در مورد انواع موجودیت ها، به یک آنتولوژی از پیش تعریف شده نیاز دارند که شامل دانش کامل در مورد موجودیت ها و خصلت های آن ها است. مشکل اصلی این روش ها عدم توانایی آن ها در استخراج اطلاعات موجودیت هایی است که مشخصات آن ها از قبل در آنتولوژی تعریف نشده اند. در این پژوهش، روش جدیدی برای استخراج خودکار اطلاعات ساختاریافته محدود به دامنه از متون فارسی صفحات وب ارایه شده است که نیازی به دانش پیش زمینه در مورد موجودیت ها و خصلت های آن ها ندارد. روش پیشنهادی شامل سه مولفه پیش پردازش، تحلیل معنایی و نگاشت قاب است. تمرکز اصلی روش پیشنهادی به افزودن اطلاعات معنایی به گزاره های مسند آرگومان و استخراج اطلاعات معنادار و محدود به دامنه از گزاره ها معطوف شده است. اطلاعات استخراج شده در این روش، هم ساختاریافته بوده و هم به مدخل های آنتولوژی عمومی DBPedia نگاشت شده اند، به نحوی که پردازش آن ها به وسیله ماشین به سهولت انجام می شود. برای ارزیابی روش پیشنهادی، یک مجموعه داده کوچک در زبان فارسی ایجاد شده است و روش پیشنهادی و سایر روش ها بر روی این مجموعه داده مورد ارزیابی قرار گرفته اند. نتایج آزمایش ها برتری روش پیشنهادی را در مقایسه با سایر روش ها برحسب برخی از معیارهای کارایی نشان می دهد.

    کلیدواژگان: وب کاوی، استخراج اطلاعات، پردازش زبان طبیعی، آنتولوژی، اطلاعات ساختاریافته محدود به دامنه
  • میلاد جوادزاده، محمدحسین کهایی*، علی اصغر بهشتی شیرازی صفحات 147-160

    عدم دقت در مدل تصویربرداری رادار روزنه مصنوعی باعث ایجاد خطای فاز در سامانه و مات شدن تصاویر بازسازی شده می شود. روش های بازسازی تصویر این رادار در حضور خطای فاز و مبتنی بر تنک بودن مشخصه ی بازتاب، به طورمعمول نیاز به محاسبات بالا و حافظه زیادی دارند. در این مقاله، جهت کاهش محاسبات بازسازی تصویر براساس ارایه تنک سیگنال در حضور خطای فاز، یک روش سریع مبتنی بر جایگزینی مشاهدات دقیق حاصل از روش های تنک با مشاهدات تقریبی حاصل از روش های فیلتر منطبق ارایه می شود. در این روش، علاوه بر حفظ توانایی بازسازی سیگنال های زیرنمونه برداری شده، پیچیدگی محاسباتی و حافظه مورد نیاز نیز به میزان زیادی کاهش می یابد. شبیه سازی های رایانه ای این نتیجه را هم برای ابعاد متفاوت تصاویر و هم برای نرخ های زیرنمونه برداری مختلف نشان می دهند. کیفیت تصاویر بازسازی شده نیز به دلیل کاهش اثرات لوب های فرعی حاصل از تقریب، قابل مقایسه با تصاویر بدون تقریب است.

    کلیدواژگان: رادار روزنه مصنوعی، حس گری فشرده، ارائه تنک، الگوریتم برد داپلر
  • نسیم توحیدی، سید محمدحسین هاشمی نژاد* صفحات 161-174

    سامانه های پرسش و پاسخ، موتورهای جستجویی هستند که توانایی ارایه پاسخی کوتاه و دقیق را به یک پرسش دارند. به عبارت دیگر، پرسشی که یک موتور جستجو، با مجموعه ای از اسناد پاسخ می دهد، یک ساماه پرسش و پاسخ، با یک پاراگراف، جمله یا کلمه پاسخ می دهد. در این مقاله، یک راه کار برای بهینه سازی عملکرد سامانه های پرسش و پاسخ تک زبانه به زبان انگلیسی و مبتنی بر وب، ارایه شده است. با توجه به اینکه الگوریتم های تکاملی برای مسایل با فضای جستجوی بزرگ مناسب هستند، در این مقاله برای بهینه سازی عملکرد این سامانه ها، APSO مورد استفاده قرار گرفته است. در این پژوهش هدف، ارایه روشی است که دقت و سرعت بالاتری نسبت به سامانه های موجود در انتخاب پاسخ از میان اسناد بازیابی شده داشته باشد. روش پیشنهادی بر روی مجموعه داده استاندارد به میزان دقتی (Top1 Accuracy) برابر با 527/0 دست یافته است و همچنین شاخص MRR نتایج حاصل از آن برابر 711/0 محاسبه شده است، که این نتایج نسبت به بیش تر پژوهش های مرتبط  پیشرفت داشته اند. در عین حال، سرعت آن نسبت به همه کارهای مشابه بهبود یافته است.

    کلیدواژگان: سامانه پرسش و پاسخ، پردازش زبان طبیعی، الگوریتم بهینه سازی ازدحام ذرات تسریع شده
  • محمدعلی زارع چاهوکی*، زهرا خلیفه زاده صفحات 175-196

    تلگرام سرویس پیام رسان متن بازی مبتنی بر رایانش ابری است. تلگرام به دلایلی همچون پشتیبانی از زبان ها، امکان ایجاد گروه و کانال با تعداد کاربران متعدد، به پیام رسانی محبوب و پرکاربرد تبدیل شد. داده های متنی زیادی که در گروه های تلگرامی وجود دارد حاوی دانش پنهانی هستند. استخراج این دانش ها، نظیر درخواست های موجود در پیام های کاربران می تواند سودمند باشد. لذا با شناسایی درخواست ها می توان به نیازهای کاربران پاسخ داد و به دسترسی سریع آن ها به خواسته هایشان کمک کرد که این امر موجب توسعه کسب وکار کاربران می شود. با توجه به ابعاد بالای فضای ویژگی ها در داده های متنی، کاهش ویژگی ها از طریق انتخاب ویژگی ضرورت می یابد. از روش های انتخاب ویژگی، دو روش مبتنی برفیلتر محلی و سراسری انتخاب شد. با بررسی و ترکیب پرکاربردترین آن ها به زیرمجموعه بهینه ای از ویژگی های بااهمیت دست یافتیم. این روش ترکیبی، با کاهش بهینه ویژگی ها سبب افزایش دقت در شناسایی درخواست، افزایش کارایی دسته بندی متن، کاهش زمان آموزش و محاسبات شد.

    کلیدواژگان: انتخاب ویژگی، متن کاوی، دقت دسته بندی، یادگیری ماشین
|
  • Shokooh Sheikhzade, Hamed Vahdat-Nejad*, Ramazan Havangi Pages 1-12

    Potholes on roads are regarded as serious problems in the transportation domain, and ignoring them lead to an increase in accidents, traffic, vehicle fuel consumption, and waste of time and energy. As a result, pothole detection has attracted researchers’ attention, and different methods have been presented for it up to now. Data analysis methods such as machine learning and soft computing have been widely used for detection purposes. They rely on a dataset and propose a system that can detect a special event in similar datasets. Their effectiveness can be measured by evaluating their accuracy in detecting the event. Image processing involves a wide range of analytics that are used to extract specific information from images. The majority of image processing programs require massive computational power. The major part of previous research is based on image processing. They utilize dedicated cameras which are embedded in vehicles to take images and analyze them through massive image processing programs. This scheme requires dedicated hardware that is not typically available on vehicles. In this paper, a new scheme is proposed, which uses accelerometer and GPS sensors. These types of sensors are available in today’s smartphones as well as modern vehicles. The data generated by these sensors is processed via soft computing to increase the accuracy of pothole detection. The proposed algorithm uses a combination of a fuzzy system and evolutionary algorithms. Fuzzy systems have been widely used to model the real-world problems that are described by uncertainty and ambiguity. Evolutionary algorithms (e.g., genetic algorithms) try to imitate evolutionary science in solving hard problems. Genetic algorithm and harmony search are used to adjust membership functions of the proposed fuzzy system. For evaluation, a case study has been conducted with regard to detect potholes on Ghaffari Street in Birjand. To this end, a real dataset has been collected and used for implementing the proposed method. Experimental results show the high accuracy of the proposed algorithm in comparison to other solutions. They reveal that the accuracy of the proposed genetic fuzzy algorithm is 98 percent and for the proposed harmony fuzzy algorithm is 99 percent.

    Keywords: Soft computing, Pothole detection, Fuzzy system, Genetic algorithm, Harmony search
  • Abbas Ali Sharifi*, Hojjat Emami Pages 13-26

    Orthogonal Frequency Division Multiplexing (OFDM) is a useful technology in wireless communications that provides high-rate data transmission in multipath fading channels. The advantages of OFDM systems are the high spectral efficiency and strong resistance to frequency selective fading. In OFDM systems, a large number of sub-carriers are used to modulate the symbols causing the time-domain OFDM signal to have a large dynamic range, or a high peak-to-average power ratio (PAPR). When the signals are applied to a nonlinear power amplifier, the OFDM systems’ performance is degraded by the high PAPR. In recent years, several works have been done to reduce the PAPR of OFDM systems. One of the most well-known methods is a partial transmit sequence (PTS). Regardless of the PTS advantages, it suffers from a high computational complexity. Because it requires an exhaustive search over all possible combinations of phase factors. The computational complexity of the PTS increases with increasing the number of phase factors and sub-blocks. There are several approaches to overcome the computation complexity issue of the PTS technique. The majority of these methods mainly employed swarm intelligence and evolutionary optimization algorithms to resolve the PTS shortcoming. These methods report encouraging results, however, their performance is far from the ideal state. This highlights that improving the performance of PTS is an open problem and there is room for more improvement. As an element of research, we propose an optimization approach based on the election algorithm (EA) to overcome the computational complexity of the PTS technique. To realize this goal, we improve the EA algorithm by introducing a new version of positive advertisements operator. The new operator efficiently improves the search capability of the EA through balancing between the exploration and exploitation power of the algorithm. The proposed EA based PTS (EA-PTS) approach, by searching the optimal phase factors, imposes less computational complexity on the system and reduces the PAPR to an acceptable level. The proposed method is compared with the optimal PTS (O-PTS), genetic algorithm-based PTS (GA-PTS) and imperialism competition algorithm based PTS (ICA-PTS) techniques. Simulation results show that the proposed EA-PTS has better performance in simultaneously reducing the PAPR and computational complexity.

    Keywords: OFDM, PAPR, Partial Transmit Sequence (PTS), Election Algorithm (EA), EA-PTS
  • Ehsan Yasrebi Naeini*, Mahla Hatami Pages 27-38

    One of the biggest challenges in this field is classification problems which refers to the number of different samples in each class. If a data set includes two classes, imbalance distribution occurs when one class has a large number of samples while the other is represented by a small number of samples. In general, the methods of solving these problems are divided into two categories: under-sampling and over-sampling. In this research, it is focused on under-sampling and the advantages of this method will be analyzed by considering the efficiency of classifying imbalanced data and it’s supposed to provide a method for sampling a majority data class by using subtractive clustering and fuzzy similarity measure. For this purpose, at first the subtractive clustering is conducted and the majority data class is clustered. Then, using fuzzy similarity measure, samples of each cluster will be ranked and appropriate samples are selected based on these rankings. The selected samples with the minority class create the final dataset. In this research, MATLAB software is used for implementation, the results are evaluated by using AUC criterion and analyzing the results has been performed by standard statistical tools. The experimental results show that the proposed method is superior to other methods of under-sampling.

    Keywords: Imbalanced data, Fuzzy similarity measure, Under-sampling, Subtractive clustering
  • Negin Daneshpour*, Seyedeh Fatemeh Mirabolghasemi Pages 39-60

    Multivariate time series data are found in a variety of fields such as bioinformatics, biology, genetics, astronomy, geography and finance. Many time series datasets contain missing data. Multivariate time series missing data imputation is a challenging topic and needs to be carefully considered before learning or predicting time series. Frequent researches have been done on the use of different techniques for time series missing data imputation, which usually include simple analytic methods and modeling in specific applications or univariate time series. In this paper, a hybrid approach to obtain missing data is proposed. An improved version of inverse distance weighting (IDW) interpolation is used to missing data imputation. The IDW interpolation method has two major limitations: 1) finding closest points to missing data 2) Choosing the optimal effect power for missing data neighbors. Clustering has been used to remove the first constraint and find closest points to the missing data. With the help of clustering, the search radius and the number of input points that are supposed to be used in interpolation calculations are limited and controlled, and it is possible to determine which points are used to determine the value of a missing data.Therefore, most similar data to the missing data are found. In this paper, the k-maens clustering method is used to find similar data. This method has been more accurate than other clustering methods in multivariate time series. Evolutionary algorithms are used to find the optimal effect power of each data point to remove the second constraint. Considering that each sample within each cluster has a different effect on the estimation of missing data, cuckoo search is used to find the effect on missing data. The cuckoo search algorithm is applied to the data of each cluster, and each data sample that has more similarity with the missing data has more influence, and each data sample that has less similarity has less influence and has less influence in determining the amount of missing data. Among evolutionary algorithms, evolutionary cuckoo search algorithm is used due to high convergence speed, much less probability of being trapped in local optimal points, and ability to quickly solve high dimensional optimization problems in multivariate time series problems. To evaluate the performance of the proposed method, RMS, MAE, , MSE and MAPE criteria are used. Experimental results are investigated on four UCI datasets with different percentages of missingness and in general, the proposed algorithm performs better than the other three comparative methods with an average RMSE error of 0.05, MAE error of 0.04, MSE error of 0.003, and MAPE error of 5. The correlation between the actual data and the estimated value in the proposed method is about 99%.

    Keywords: Missing Data imputation, IDW Interpolation, Cuckoo Search Algorithm, k-means Clustering, Multivariate Time Series
  • Nayyerh Saeedi, Shahram Babaie* Pages 61-72

    In recent years, Vehicular Ad-hoc Networks (VANET) as an emerging technology have tried to reduce road damage and car accidents through intelligent traffic controlling. In these networks, the rapid movement of vehicles, topology dynamics, and the limitations of network resources engender critical challenges in the routing process. Therefore, providing a stable and reliable routing algorithm is a necessary requirement to maintain the Quality of Service (QoS) parameters of VANETs. In this paper, a new routing algorithm based on the clustering technique is proposed, which is called GCAR. In the proposed algorithm, the appropriate cluster heads are selected based on the genetic algorithm then two vehicles are selected between the neighboring clusters as the gateways and a vehicle chain is formed by these vehicles. Moreover, a combination of genetic algorithm and simulated annealing is applied to identify the suitable clusters. The conducted simulations in MATLAB tool indicate that, respectively, path discovery ratio, the number of clusters, throughput, and packet delivery ratio of the proposed algorithm have been improved by 18.4%, 2.55%, 3.45%, and 14.18% in comparison to the PassCAR approach. Furthermore, evaluation of the convergence, standard deviation, and standard error of the proposed algorithm prove its high convergence speed and stability.

    Keywords: Vehicular Ad-hoc Networks (VANET), Routing, Clustering, Genetic Algorithm, Simulated annealing
  • Payam Mahmoudi-Nasr*, Hossein Kimia Pages 73-86

    Today, we are witnessing the expansion of various Internet of Things (IoT) applications and services such as monitoring and health. These services are delivered to users via smart devices anywhere and anytime. Forecasts show that the IoT, which is controlled online in the user environment, will reach 25 billion devices worldwide by 2020. Data security is one of the main concerns in the IoT. The IoT is supposed to deal with a population of about billions of objects, so the number of malicious attacks can be very high and alarming given the global connection (anyone access) and the wide availability (access to any place at any time). However, these accesses can make security and privacy critical. Reports show that 26% of IoT attacks in 2019 were related to non-authentication, which is why IoT authentication has become one of the most sensitive security concepts. IoT devices are usually left unattended and this makes it easy for an attacker to target such equipment. For example, security breaches and unwanted changes in patient's health parameters in smart health care systems can cause wrong treatments or even lead to his death. The fact that each device in the IoT knows who it is communicating with and at what level of access is one of the important aspects of security, especially in cases where various devices with different capabilities have to perform common tasks and cooperate with each other. IoT authentication is a trust model to protect control access and data when information travels between devices. So far, different methods have been proposed for authentication in the IoT network. These methods are usually based on the public key, private key, random key distribution, and hash function. A point that should be taken into account in IoT authentication is that IoT networks and devices have limited bandwidth, low memory, low processing power, and energy limitations. Therefore, the proposed method should pay special attention to such limitations. In addition, IoT authentication needs to ensure enhanced security features such as confidentiality, data integrity, reliability, maintainability, scalability, and privacy to their consumers. This paper proposes a two-way or mutual authentication protocol in which both devices authenticate each other without human intervention in a smart home network. The proposed protocol is based on asymmetric encryption for authentication of devices, which have a shared private session key, along with hashing operations in the network. Also, to ensure the security of communications at each session, each device has a one-time private session key. The session keys are changed regularly to ensure the security of sessions between devices. The proposed protocol is programmed by HLPSL and simulated and verified by the SPAN and AVISPA tools. The security analysis results show the proposed protocol is extremely practical, and secure against potential attacks.

    Keywords: Internet of Things, Authentication protocol, Cryptography, Security, AVISPA
  • Mohammadnabi Omidvar, Samad Nejatian*, Hamid Parvin, Karamolla Bagherifard, Vahideh Rezaie Pages 87-106

    Optimization is a very important process in engineering. Engineers can create better production only if they make use of optimization tools in reduction of its costs including consumption time. Many of the engineering real-word problems are of course non-solvable mathematically (by mathematical programming solvers). Therefore, meta-heuristic optimization algorithms are needed to solve these problems. Based on this assumption, many new meta-heuristic optimization algorithms have been proposed inspired by natural phenomena, such as IWO [58], BBO [59], WWO [61], and so on. Inspired by domino toppling theory, we proposed an optimization algorithm. Using domino pieces, we can create countless complex structures. To simulate the domino movement in the search space of a problem, we consider the particles in the search space as the domino pieces and, by creating an optimal path, we will try to direct the dominoes to the optimal path. The optimal paths will be updated in each iteration. After initializing the dominoes randomly at the beginning of each evaluation, the picking piece or the first moving piece will be identified and then the particles will be selected by the optimal path. Applying a motion equation to each domino will move the dominoes forward in that direction. At first, a predefined dominoes will be randomly distributed in the problem space. Choosing the optimal path will accelerate the convergence of the domino particles towards the target. After choosing the path in current iteration, we now have to do the domino movement. The particles will move to a new location by applying the new location equation. By applying this equation, each domino piece will sit on the track ahead of itself. The front piece will also move to a new location by applying an equation separate from the rest. After moving the dominoes to the new location, the worst iteration of the previous iteration will be removed from the problem space. In the new iteration, the optimal domino path, the new locations of domino pieces and the global optimum will be updated. At the end of the algorithm, the global optimum will be determined as the optimal solution. This method is implemented in a simulator environment. To evaluate the performance of the Domino Optimization algorithm, we use a complete benchmark including 30 objective functions called CEC 2014 [67] that are single-objective numerical functions. In all cases, we set the population size to 50, the dimension size to 30, and the number of fitness function evaluation to 150,000. We compare the proposed Domino Optimization algorithm (DO) with the algorithms LOA [57], ICS [62], NPSO [63], MOHS [64], BCSO [65] and FFFA [66]. The results obtained from the 3 unimodal functions show that the proposed method is able to achieve a better solution than any of the state of the art algorithms at the equal resources. Results in the multimodal functions show that the proposed method has the best performance in finding the optimal solution in all of the available 13 functions in this section. In all of 6 functions in the hybrid section, the quality of the proposed method is better than all of the state of the art algorithms at the equal resources. The standard deviation values ​​of the proposed method, which are often small numbers, indicate algorithm convergence around the optimal solution. Also among the available methods, two algorithms, named NPSO and LOA, have good results after the proposed method. In the convergence analysis of dominoes, the diversity of objective functions in 100 distinct iterations shows a big value at the beginning of the algorithm, and a low value at the end of the algorithm.

    Keywords: Algorithm, Optimization, Dominoes, Cost Function, Behavior
  • Zeinab Rajabi*, Mohamadreza Valavi, Maryam Hourali Pages 107-132

    With the explosive growth of social media such as Twitter and Instagram, reviews on e-commerce websites, and comments on news websites, individuals and organizations are increasingly using analyzing opinions in these media for their decision-making and designing strategies. Sentiment analysis is one of the techniques used to analyze users' opinions in recent years. The Persian language has specific features and thereby requires unique methods and models to be adopted for sentiment analysis, which are different from those in English and other languages. This paper identifies the characteristics and limitations of the Persian language. Sentiment analysis in each language has specified prerequisites; hence, the direct use of methods, tools, and resources developed for the English language in Persian has its limitations. The present study aims to investigate and compare previous sentiment analysis studies on Persian texts and describe views presented in articles published in the last decade. First, the sentiment analysis levels, approaches, and tasks are described. Then, a detailed survey of the applied sentiment analysis methods used for Persian texts is presented, and previous works in this field are discussed. The advantages and disadvantages of each proposed method are demonstrated. Moreover, the publicly available sentiment analysis resources of Persian texts are studied, and the characteristics and differences of each are highlighted. As a result, according to the recent development of the sentiment analysis field, some issues and challenges not being addressed in Persian texts are listed, and some guidelines are provided for future research on Persian texts. Future requirements of Persian text for improving the sentiment analysis system are detailed.

    Keywords: Sentiment Analysis, Opinion Mining, Sentiment Classification, Sentiment Data Resource, Persian Language
  • Hojjat Emami* Pages 133-146

    Extracting structured information about entities from web texts is an important task in web mining, natural language processing, and information extraction. Information extraction is useful in many applications including search engines, question-answering systems, recommender systems, machine translation, and etc. An information extraction system aims to identify the entities from the text and extract their related information to form a profile of the target entity. In recent years, several methods have been proposed for extracting structured information from web text. The majority of existing methods for extracting entity-centric information require a predefined ontology. The ontology includes the complete knowledge of the entities and their attributes. The main challenge of these methods is their inability to extract information about entities that are not already defined in the ontology. Besides, the existing methods have ignored semantic information extraction and have not linked the extracted information to the general ontology entries. This highlights that introducing new methods for semantic information extraction is an open problem and there is room for more efforts in this field. As an element of research, we proposed a new method for the automatic extraction of semantically structured information from Farsi web text. The proposed method does not require background knowledge about the entities and their properties. The proposed method consists of three main phases including pre-processing, semantic analysis and frame extraction. To fulfill these phases, we use a combination of language resources, text processing tools, and distant ontologies. The main focuses of the proposed method are to enrich the predicate-argument frames with the semantic information extracted from distant ontologies, extract the entity-related information from predicate-argument frames, and link the extracted information with their corresponding sense in DBPedia ontology. The issue facilitates the processing of Farsi texts by computers. To evaluate the proposed method, we created a small Farsi dataset containing 100 complete sentences. Then, the proposed method is compared with three information extraction methods on this dataset. The results of experiments show the superiority of the proposed method compared to counterpart methods in terms of precision and F1 measures.

    Keywords: Web mining, information extraction, natural language processing, ontology, structured-semantic information
  • Milad Javadzade, Mohammad Hosein Kahaei*, Aliasghar Beheshti Shirazi Pages 147-160

    In the past years, a number of algorithms have been introduced for synthesis aperture radar (SAR) imaging. However, they all suffer from the same problem: The data size to process is considerably large. In recent years, compressive sensing and sparse representation of the signal in SAR have gained a significant research interest. This method offers the advantage of reducing the sampling rate but also suffers from speed processing limitation and it needs a huge amount of memory to reconstruct the image. On the other hand, inaccuracy in SAR model induces phase error to the results and makes the reconstructed image blurry. Existing sparse methods in the presence of phase error, have high computational costs and need a lot of processing time. In addition, these methods take up considerable space in the memory for saving the measurement matrix. In this paper, a fast method is proposed to reduce the computational cost of image reconstruction, based on the signal sparsity in the presence of phase error. The proposed method consists of substituting accurate observations of sparsity methods with approximated observations of matched filter methods. In this method, the output of Range-Doppler matched filter is reconstructed with sparse representation, and error phase is estimated simultaneously. This method leads to a nonconvex optimization problem and to solve that, we use the majorization minimization method. The phase error and reconstructed image are estimated in an iterative procedure. The use of approximated observation, eliminates the need for carrying out big matrix multiplications, and Fast Fourier Transformation, as a low computational cost operation, can be employed instead. In addition to computation speed, this method does not need any memory space for saving measurement matrices. In our numerical simulations, we compared the speed of processing and the mean square error (MSE) of reconstructed images for the proposed method with the state-of-the-art sparse method for different sizes of image and under-sampling rates. It is shown in simulations that the reconstructed image from our method has a slightly lower quality and higher MSE, because of the sidelobes effect of the matched filter output. However, in certain conditions, the speed of the proposed method is more than a hundred times faster than the compared method. The achieved processing speed with no need for the memory to store the measurement matrix at the expense of slightly lower image quality would be acceptable for most applications.

    Keywords: Synthetic aperture radar, Compressed sensing, Sparsity, Range-Doppler algorithm
  • Nasim Tohidi, Seyed Mohammad Hossein Hasheminejad* Pages 161-174

    One of the most important research areas in natural language processing is Question Answering Systems (QASs). Existing search engines, with Google at the top, have many remarkable capabilities. However, there is a basic limitation; search engines do not have deduction capability which a QAS is expected to have. In this perspective, a search engine may be viewed as a semi-mechanized QAS. Upgrading a search engine such to a QAS is a task whose complexity is hard to exaggerate. To achieve success, new concepts and ideas are needed to address difficult problems which arise when knowledge has to be dealt with in an environment of imprecision, uncertainty and partial truth.  QASs are search engines that have the ability to provide a brief and accurate answer to each question in natural language for instance, the question that a search engine answers with a set of documents, a QAS answers with a paragraph, sentence or etc. In this paper, a solution is proposed to optimize the performance and speed of web-based QASs for answering English questions.  As evolutionary algorithms are suitable for issues with large search space, in this approach we have used an evolutionary algorithm to optimize QASs. In this regard, we have chosen APSO which is a simplified version of PSO. The proposed method consists of five main stages: question analysis, pre-process, retrieval, extraction and ranking. We have tried to provide a method that would be more accurate in choosing the most probable answer from the documents that have been retrieved by the standard search engine and at the same time, be faster than similar methods. In ranking process, various attributes can be extracted from the text that are used in APSO. For this purpose, in addition to selecting a sentence from the text and examining its attributes, different cut parts of the sentence are selected each time by changing the beginning and end points of the cut part. The attributes which have been used in this study are: 1. Number of unigrams similar to the question words, 2. Number of bigrams similar to the question words, 3. Number of unigrams similar to the question words in the cut part, 4. Number of bigrams similar to the question words in the cut part, 5. Number of synonyms with the question words and 6. Number of synonyms with the question words in the cut part. The fitness function is the weighted sum of these attributes. Top-1 accuracy and MRR are the most valid metrics for measuring the performance of QASs. The proposed method has achieved the accuracy (top-1 accuracy) of 0.527 with respect to the standard dataset and the MRR of it, is 0.711. Both of these results are improved compared to most similar systems. In addition, the time taken to answer the input question in the proposed method, has been significantly reduced compared to similar methods. In general, the accuracy and MRR in this paper have progressed and the system needs less time to find the answer, in comparison with existing QASs.

    Keywords: question answering system, natural language processing, accelerated particle swarm optimization (APSO)
  • Mohammad Ali Zare Chahooki*, Zahra Khalifeh Zadeh Pages 175-196

    Nowadays, the use of various messaging services is expanding worldwide with the rapid development of Internet technologies. Telegram is a cloud-based open-source text messaging service. According to the US Securities and Exchange Commission and based on the statistics given for October 2019 to present, 300 million people worldwide used telegram per month. Telegram users are more concentrated in countries such as Iran, Venezuela, Nigeria, Kenya, Russia, and Ukraine. This messenger has become a popular and extensively used messenger because it supports various languages and provides diverse services such as creating groups and channels with a large number of users and members. There is a large amount of contextual data on telegram groups containing hidden knowledge; the extraction of this knowledge can be beneficial. The requests on telegram users' messages are examples of this sort of data with hidden knowledge. Hence, identifying requests can respond to users' needs and help them fulfill their desires immediately; this drives users' business development. The authors identified these requests in a telegram search engine named the Idekav system of Yazd University. Then, the authors created opportunities to earn money by sending these requests to the business owners who were able to respond to them. Given the high dimensions of feature space in contextual data, it is necessary to reduce attributes using feature selection.        In the present study, the appropriate features were selected for Persian text classification and request identification. Among the feature selection methods, two local and global filter-based methods were chosen. By general investigation and combining the most extensively used filter-based FS methods, an optimal subset of important features was obtained. This hybrid feature selection method resulted in increased request identification accuracy, improved Persian text classification efficiency, and reduced training time and computation by optimizing the feature reduction. Of course, it is noteworthy that the classification accuracy is reduced in some methods; however, this value is negligible compared to the feature reduction value. Incorporating the concept of opinion mining into the analysis of emotions and questions can be a method to identify positive or negative demand in social networks. Therefore, the requests in the Persian telegram messages can be identified using opinion mining researches. For experiments in the present article, a dataset called Persian is used, which is extracted from the Idekav system. The selection of suitable features to increase model accuracy in request identification is an important part of this research. The support vector machine was employed to calculate accuracy. Given the acceptable results of the SVM, its various kernels were also calculated. Micro-averaging and macro-averaging criteria were also used for evaluation. Model inputs include many optimal feature subsets. Furthermore, feature selection methods have been proposed to produce suitable features for each model for increasing the accuracy of the model. Afterward, among all the features investigated, appropriate features have been selected for each of the applied feature selection models. For a more precise explanation, the main innovations of the present study are as follows: Use of the most common filters based on local and global feature selection methods to find the optimal feature set. Use of hybrid methods to create suitable features for predictive models of accuracy in Persian text classification and their application in identifying requests in Persian messages on telegram. Selecting suitable features to increase accuracy and reduce computational time for each of the models under consideration. In this regard, in addition to picking an efficient algorithm, it is attempted to provide a method for making more appropriate choices. Evaluation and testing of the proposed models for a large set of Persian data and many different features.

    Keywords: Feature Selection, Text mining, Classification Accuracy, Machine Learning