فهرست مطالب

محاسبات نرم - سال هشتم شماره 1 (پیاپی 15، بهار و تابستان 1398)

نشریه محاسبات نرم
سال هشتم شماره 1 (پیاپی 15، بهار و تابستان 1398)

  • تاریخ انتشار: 1398/05/08
  • تعداد عناوین: 6
|
  • معصومه باباخانی، داود محمدپورزنجانی*، لیلا صفری صفحات 2-13

    حفاظت از الگوی دسترسی اطلاعات، به معنی جلوگیری از افشای جزییات داده ای و ساختاری بانک های اطلاعاتی، در کار با داده ها به ویژه در حالت بانک های اطلاعاتی برون سپاری شده و بانک های اطلاعاتی با دسترسی اینترنتی، از اهمیت بسیاری برخوردار است. حفاظت از الگوی دسترسی اطلاعات به این نکته اشاره دارد که محرمانگی داده، به تنهایی کافی نیست و باید محرمانگی پرس وجوها و دسترسی ها نیز تامین شوند؛ زیرا مهاجمان می توانند با مشاهده پرس وجوهای کاربران، روابط بین آن ها را استخراج و با دانشی که به دست می آورند، اقدام به رمزگشایی و استنتاج جزییات داده ای و ساختاری بانک های اطلاعاتی کنند. در این مقاله، در مدل برون سپاری داده ها، روش های ذخیره سازی مناسب برای تامین محرمانگی و حفاظت از الگوی دسترسی تشریح می شوند و در نهایت، روشی مبتنی بر قطعه بندی برای حفاظت از الگوی دسترسی در داده های برون سپاری شده، پیشنهاد و مورد ارزیابی قرار می گیرد. ارزیابی های انجام شده نشان از دستیابی به سطح قابل قبولی از جلوگیری از افشای اطلاعات نسبت به روش های پیشین این حوزه در کنار عدم تحمیل سربارهای زیاد ذخیره سازی، محاسباتی و ارتباطی دارد.

    کلیدواژگان: برون سپاری داده ها، محرمانگی داده، حفاظت از الگوی دسترسی، جلوگیری از افشای اطلاعات
  • جواد سلیمی*، سلمان گلی بیدگلی صفحات 14-28

    در این مقاله، یک الگوریتم ترکیبی چندهدفه ارایه شده است که ویژگی های دو الگوریتم ژنتیک و کرم شب تاب را ترکیب می کند. این الگوریتم با مجموعه ای از کرم های شب تاب که در فضای مسئله به صورت تصادفی پخش می شوند، شروع به کار می کند و این ذرات طی مراحل تکامل، به جواب بهینه مسئله همگرا می شوند. سپس یک طرح جست وجوی محلی به عنوان روشی برای جست وجوی همسایگی به منظور بهبود کیفیت جواب ها ارایه و پیاده سازی شده است. این بخش از الگوریتم برای جست وجوی نواحی کم جمعیت، برای یافتن جواب های غالب استفاده می شود. برای بهبود الگوریتم تغییراتی در معیار تعیین بهترین بهینه سراسری به ازای هر کرم شب تاب و همچنین بهترین بهینه محلی اعمال شده است. استفاده از این روش موجب شده یکنواختی منحنی پرتو بیشتر شود. نتایج آزمایشگاهی روش ارایه شده بر روی برخی از توابع محک نشان می دهد که به کارگیری این روش موجب کاهش خطا شده است. الگوریتم پیشنهادی بر اساس یک الگوریتم پایه توسعه داده شده است.

    کلیدواژگان: الگوریتم تکاملی کرم شب تاب چندهدفه، الگوریتم ژنتیک، جست وجوی محلی، بهینه سازی پیوسته
  • سید عباس طاهر*، سعید فاطمی، امید هنرفر صفحات 29-42

    بازآرایی یکی از ساده ترین و کم هزینه ترین روش هایی است که به وسیله آن می توان بدون افزودن تجهیزات اضافی در شبکه، اهدافی مانند خودترمیمی، افزایش قابلیت اطمینان، کاهش تلفات و... را اجرایی کرد. با توجه به گسترش شبکه های توزیع، پیچیده تر شدن ارتباطات و افزایش پارامترها، و نیز با توجه به اینکه مدلسازی مسئله بازآرایی به وسیله معادلات ریاضی امری ناممکن است، استفاده از تکنیک های هوشمند در انجام بازآرایی اجتناب ناپذیر است. از سوی دیگر، تحلیل قطع یا وصل بودن هر سوییچ می بایست بدون خطا بوده و متناسب با محدودیت های شبکه، همچون جریان قابل تحمل هر شاخه، ولتاژ مجاز شین ها و توان عبوری از خطوط انجام شود. با توجه به این نیاز است در بین الگوریتم های هوشمند، از الگوریتمی استفاده شود که از نظر فاکتورهای مختلف از قبیل دقت، سرعت همگرایی بتواند عملکردی بهینه داشته باشد. در این مطالعه، عملکرد الگوریتم های باینری خفاش، سنجاقک، ژنتیک، بهینه سازی ازدحام ذرات و فاخته در شبکه های توزیع شعاعی استاندارد 16 و 33 شینه و با هدف بازآرایی شبکه برای رسیدن به توپولوژی ای با کمترین تلفات و بیشترین قابلیت اطمینان با یکدیگر مقایسه شده است. نتایج حاصل برای این مسئله نشان می دهد که عملکرد الگوریتم باینری خفاش از نظر سرعت همگرایی نسبت به سایر الگوریتم ها مندرج در این مقاله بهتر است.

    کلیدواژگان: الگوریتم های هوشمند، بازآرایی شبکه توزیع، قابلیت اطمینان
  • محسن نیک رای*، انتصار حسینی صفحات 43-57

    با رشد چشمگیر برنامه های دستگاه های هوشمند و اینترنت اشیاء حجم تبادلات و داده ها در شبکه افزایش پیدا کرده است. معماری متمرکز و سنتی پردازش ابر با توجه به تاخیر و  انبوه درخواست ها، پاسخگوی تقاضای زیاد کاربران و اجرای مناسب برنامه های حساس به تاخیر و بی درنگ نیست. در این مقاله یک معماری مبتنی بر پردازش مه سیار مجازی برای حل این چالش ها ارایه شد که لایه ای میان برنامه های تلفن همراه و لایه ابر ایجاد می کند. ذخیره سازی، پردازش و ارتباطات امن در این لایه در گره های مجزای مستقل از ابر انجام می شود. هرکدام از این گره ها به صورت مجازی بر روی یک سرور واحد پیاده سازی می شوند. ما یک برنامه واقعیت افزوده مبتنی بر نشانگر با نمایش اشیاء سه بعدی پویا در سیستم هوشمند اندروید ارایه دادیم و کارکرد آن را در معماری مبتنی بر ابر و معماری پیشنهادی در دو شبکه اینترنت همراه 4جی و مخابرات ارزیابی کردیم. نتایج ارزیابی کارکرد بهینه تر معماری پیشنهادی را در هر دو شبکه ارتباطی نشان می دهد. اجرای مدل های سه بعدی با حجم بالا با استفاده از اینترنت مخابرات در معماری مبتنی بر مه سیار ارایه شده، سریع بوده و انتظار یک برنامه بی درنگ را برآورده می کند.

    کلیدواژگان: دستگاه های هوشمند، اینترنت اشیاء، ابر، پردازش مه سیار، واقعیت افزوده، بی درنگ
  • سعید دوست علی، محمد خلیلی درمنی* صفحات 58-69

    یک شبکه حسگر از تعداد زیادی گره حسگر تشکیل شده که اطلاعات محیط جغرافیایی بزرگی را که در آن پخش شده ‏اند جمع آوری می کنند. به دلیل اهمیت تعیین محل وقوع یک رخداد، موقعیت یابی یکی از موضوعات کلیدی و مهم در حوزه شبکه های حسگر بی سیم محسوب می شود. از سوی دیگر، استفاده از موقعیت یاب جهانی GPS برای پیدا کردن موقعیت حسگرها به دلیل برخی محدودیت های موجود در گره‏ های حسگر مانند قیمت و اندازه فیزیکی مناسب نیست. در برخی کاربردها، تعدادی گره راهنما که از موقعیت خود اطلاع دارند به گره‏ های حسگر اطلاعاتی می‏ دهند تا بتوانند موقعیت خویش را تعیین کنند. به دلیل وجود خطا، دقت پایین روش‏ های فاصله‏ یابی و از همه مهم تر فاصله چندگامه گره ‏های حسگر از گره‏ های راهنما، ممکن است موقعیت به دست آمده دقت مناسبی نداشته باشد. در این مقاله، یک الگوریتم ازدحام ذرات توزیع شده برای تعیین موقعیت گره ‏های حسگر ارایه شده است. در الگوریتم پیشنهادی، از میانگین طول گام و تعداد گام فاصله بین گره حسگر تا گره‏ های راهنما برای تعیین موقعیت کمک گرفته شده است. نتایج شبیه سازی و همچنین مقایسه خطای موقعیت یابی در الگوریتم پیشنهادی و الگوریتم های رایج، حاکی از کارایی مناسب الگوریتم ارایه شده در فراهم کردن موقعیت دقیق مکانی است.

    کلیدواژگان: موقعیت یابی چندگامی، شبکه های حسگر بی سیم، مثلث سازی، الگوریتم بهینه سازی ازدحام ذرات، متوسط خطای موقعیت یابی
  • هادی ویسی*، حمیدرضا قایدشرف، مرتضی ابراهیمی صفحات 70-85

    قلب یکی از مهم ترین اعضای بدن بوده و بیشترین علت مرگ ومیر در دنیا و ایران، بیماری های قلبی است. ازاین رو تشخیص زودهنگام و بموقع، یکی از ارکان مهم برای جلوگیری و کاهش مرگ ومیر ناشی از این بیماری است. هدف از این پژوهش، ایجاد مدل های تشخیص بیماری های قلبی با استفاده از روش های یادگیری ماشینی است. مدل ها بر روی مجموعه داده های قلب کلیولند دانشگاه کالیفرنیا، ایروین ایجاد شده است. با توجه به روش پیشنهادی پژوهش، پس از پردازش کامل داده ها که شامل شناسایی داده های پرت، نرمال سازی، گسسته سازی و انتخاب ویژگی می باشد، با توجه به ماهیت الگوریتم ها، داده ها به دو شکل داده های عددی نرمال شده و گسسته شده به بازه های بهینه، تغییر یافته است. همچنین ورودی الگوریتم های مورد استفاده، یک بار ویژگی های پردازش شده و بار دیگر ویژگی های ایجادشده توسط الگوریتم تحلیل مولفه های اصلی می باشد. از طرفی با استفاده از روش های جست وجوی تصادفی با اعتبارسنجی متقابل و جست وجوی شبکه ای از طریق Talos Scan پارامتر های مناسب هر الگوریتم انتخاب و مدل ها ایجاد و ارزیابی شده است. در بین الگوریتم های درخت تصمیم، جنگل تصادفی، ماشین بردار پشتیبان و XGBoost، بیشترین صحت مربوط به ماشین بردار پشتیبان به میزان 92/9% و در بین شبکه های عصبی بیشترین صحت به میزان 94/6%، مربوط به شبکه عصبی پرسپترون چندلایه است.

    کلیدواژگان: پیش بینی بیماری های قلبی، دسته بندی، الگوریتم های یادگیری ماشینی، شبکه های عصبی
|
  • Masumeh Babakhani, Davud Mohammadpur*, Leila Safari Pages 2-13

    Protecting the information access pattern, which means preventing the disclosure of data and structural details of databases, is very important in working with data, especially in the cases of outsourced databases and databases with Internet access. The protection of the information access pattern indicates that mere data confidentiality is not sufficient and the privacy of queries and accesses must also be ensured. This is because by observing userschr('39') queries, attackers can extract the relationships between the queries and obtain a knowledge of the database to decrypt details of the database structure. In this paper, for the outsourcing model, the storing methods that are appropriate for providing confidentiality and protecting the access pattern are described. Finally, a segmentation-based approach is presented to protect the access pattern for outsourced data. Compared to previous methods, experiment results indicate our proposed method provides an acceptable level of preventing the information disclosure as well as not imposing large overhead of storing, computation, and communication.

    Keywords: Data outsourcing, Data confidentiality, Access pattern protection, Information disclosure prevention, Database security
  • Javad Salimisartaghti* _ Pages 14-28

    In this paper, a hybrid multi-objective algorithm consisting of features of genetic and firefly algorithms is presented. The algorithm starts with a set of fireflies (particles) that are randomly distributed in the solution space; these particles converge to the optimal solution of the problem during the evolutionary stages. Then, a local search plan is presented and implemented for searching solution neighbors to improve the quality of global solutions. This part of the algorithm is used to search sparsely populated areas for finding the dominant solutions. To improve the algorithm, for each firefly some changes have been made on the criteria of determining the global optimal solution and doing local optimal solution; this leads to more uniformity of the Pareto curve and error reduction, as the experimental results show. The proposed algorithm is an extension of a basic algorithm.

    Keywords: Firefly algorithm, Genetics algorithm, Local search, multi-objective algorithm, Hybrid algorithm
  • Seyed Abbas Taher*, Saeid Fatemi, Omid Honarfar Pages 29-42

    In power systems, reconfiguration is one of the simplest and most low-cost methods to reach many goals such as self-healing, reliability improvement, and power loss reduction, without including any additional components. Regarding the expansion of distribution networks, communications become more complicate and the number of parameters increases, which makes the reconfiguration problem infeasible using mathematical models. Therefore, using intelligent algorithms become candidate solutions. On the other hand, analysis of opened and closed switches should be without error and should be done in line with the network constraints like, tolerable current flow of each branch, permissible voltage of the busbars, and the line power flow. Therefore, among evolutionary algorithms, an algorithm with enough accuracy and convergence speed is used. In this study, the performance of binary bat, dragonfly, genetic, and PSO (Particle Swarm Optimization) algorithms is compared in the network reconfiguration IEEE 16-bus and 33-bus test systems with the aim of reaching a topology with the minimum loss in power and the maximum reliability. The results show that binary bat algorithm has the best performance among other algorithms.

    Keywords: Evolutionary algorithm, Reconfiguration of distribution network, Uncertainty, Power loss, Reliability
  • Mohsen Nickray*, Entesar Hosseini Pages 43-57

    With the rapid growth of smart device and Internet of things applications, the volume of communication and data in networks have increased. Due to the network lag and massive demands, centralized and traditional cloud computing architecture are not accountable to the high userschr('39') demands and not proper for execution of delay-sensitive and real time applications. To resolve these challenges, we propose a Virtual Mobile Fog Computing-based architecture through creating a layer between the smart phone applications and the cloud. Data storing and processing and secured communication are performed in this layer in the separate nodes that are independent of the cloud. Each of these nodes is implemented virtually on a single server. We presented a marker-based add-on reality with dynamic 3D display in Android smart systems and evaluated its functionality in a cloud-based and proposed architectures through 4G and Wi-Fi Internet networks. The evaluation results show the optimal performance of the proposed architecture in both communication networks. Moreover, they show the execution of high-volume 3D models using Wi-Fi in a Mobile Fog architecture is fast and convenient for real time applications.

    Keywords: Smart devices, Internet of things, Cloud, Virtual Mobile Fog Computing, Add-on reality, Real-time
  • Saeed Doostali, Mohammad Khalily Dermany* Pages 58-69

    A sensor network consists of a large number of sensor nodes that are distributed in a large geographic environment to collect data. Localization is one of the key issues in wireless sensor network researches because it is important to determine the location of an event. On the other side, finding the location of a wireless sensor node by the Global Positioning System (GPS) is not appropriate due to some limitations on sensor nodes such as price and physical size. In some localization approaches, sensor nodes specify their position with the help of anchor nodes, which have pre-configured positions. Due to error, low accuracy of distance detection method, and, most importantly, and the multi-hop distance of the sensor nodes from the anchors, the obtained position may not be accurate. In this paper, a distributed Particle Swarm Optimization (PSO) algorithm is proposed to estimate the position of the sensor nodes using anchors. In the proposed approach, the average hop length and the number of hops between a sensor node and the anchors are used to determine the estimated positions. The simulation results, as well as the comparison of the proposed algorithm to others, in terms of the average localization error, indicate that our approach leads to more accurate localization.

    Keywords: Multi-hop localization, Wireless sensor networks, Lateration, Particle Swarm Optimization, Average localization error
  • Hadi Veisi*, HamidReza Ghaedsharaf, Morteza Ebrahimi Pages 70-85

    Heart is one of the most important members of the body, and heart disease is the major cause of death in the world and Iran. This is why the early/on time diagnosis is one of the significant basics for preventing and reducing deaths of this disease. So far, many studies have been done on heart disease with the aim of prediction, diagnosis, and treatment. However, most of them have been mostly focused on the prediction of heart disease. The purpose of this study is to develop models for heart disease diagnosis using machine learning, neural network, and deep learning algorithms. The models have been developed using the Cleveland heart disease dataset from University of California Irvine (UCI) repository. After complete data processing, including outlier detection, normalization, discretization, feature selection and feature extraction, the dataset is transformed into two normalized data and discretized data, according to the nature of the algorithms. Moreover, in constructing models of machine learning and neural networks, two randomized searches with cross-validation and grid search with Talos scan approaches are used for model tuning. Among evaluated models, including decision tree algorithms, random forest, support vector machine (SVM) and XGBoost, the highest accuracy is 92.9% using SVM, and among neural network models, multilayer perceptron (MLP) has resulted in the highest accuracy of 94.6%.

    Keywords: Heart disease prediction, Classification, Machine Learning Algorithms, Neural Networks