فهرست مطالب

مهندسی برق و مهندسی کامپیوتر ایران - سال پانزدهم شماره 3 (پیاپی 44، پاییز 1396)

نشریه مهندسی برق و مهندسی کامپیوتر ایران
سال پانزدهم شماره 3 (پیاپی 44، پاییز 1396)

  • ب - مهندسی کامپیوتر
  • 92 صفحه،
  • تاریخ انتشار: 1396/12/10
  • تعداد عناوین: 9
|
  • علی زاده ده بالایی، علیرضا باقری، حامد افشار صفحه 171
    خوشه بندی یکی از تکنیک های مهم کشف دانش در پایگاه داده های مکانی است. الگوریتم های خوشه بندی مبتنی بر چگالی یکی از روش های اصلی برای خوشه بندی در داده کاوی هستند. الگوریتم DBSCAN پایه روش های خوشه بندی مبتنی بر چگالی است که علی رغم مزایایی که دارد دارای مشکلاتی نظیر سخت بودن تعیین پارامترهای ورودی و عدم توانایی کشف خوشه های با چگالی متفاوت نیز است.
    در این مقاله الگوریتمی ارائه شده که برخلاف الگوریتم DBSCAN، قابلیت تشخیص خوشه های با چگالی متفاوت را دارد. این الگوریتم همچنین خوشه های تودرتو و چسبیده به هم را نیز به خوبی تشخیص می دهد. ایده الگوریتم پیشنهادی به این صورت است که ابتدا با استفاده از تکنیکی چگالی های مختلف مجموعه داده را تشخیص داده و برای هر چگالی یک شعاع Eps تعیین می کند. سپس الگوریتم DBSCAN جهت اعمال بر روی مجموعه داده، با پارامترهای به دست آمده تطبیق داده می شود. الگوریتم پیشنهادی بر روی مجموعه داده های استاندارد و مصنوعی تست شده است و نتایج به دست آمده با نتایج حاصل از الگوریتم DBSCAN و پنج بهبود الگوریتم DBSCAN شامل: VDBSCAN، VMDBSCAN، LDBSCAN، DVBSCAN و MDDBSCAN که همگی برای رفع مشکل تغییرات چگالی الگوریتم DBSCAN ارائه شده اند، بر اساس معیارهای ارزیابی روش های خوشه بندی مقایسه شده اند. نتایج ارزیابی ها نشان می دهد که الگوریتم پیشنهادی از دقت بالا و درصد خطای پایینی برخوردار بوده و نتایج بهتری نسبت به سایر الگوریتم ها داشته است.
  • مجید فلاح خوشبخت، صالح یوسفی، بابک قالبساز جدی صفحه 187
    به دلیل گسترش روزافزون استفاده از گوشی های هوشمند، ترافیک داده شبکه سلولی به صورت انفجاری افزایش یافته و باعث ازدحام در شبکه های سلولی شده است. برون سپاری داده به یک شبکه مکمل مانند WiFi به عنوان یک راه حل منطقی و مقرون به صرفه برای مقابله با ازدحام شبکه سلولی، مطرح شده است. در این مقاله، یک مکانیزم برون سپاری داده با نام MCO ارائه شده که با استفاده از روش تصمیم گیری چندمعیاره TOPSIS و با بهره گیری از یک مدل پیش بینی الگوی اتصال به شبکه WiFi، مناسب ترین روش را از میان سه روش 1) تبادل داده از طریق خود شبکه سلولی، 2) برون سپاری با تحمل تاخیر (DTO) به شبکه مکمل و 3) برون سپاری با کمک گره های واسط (PAO) انتخاب می کند. معیارهای استفاده شده در تصمیم گیری شامل درصد ترافیک قابل برون سپاری (از کل درخواست کاربر)، هزینه تبادل داده اپراتور سلولی و کاربر، پهنای باند تبادل داده کاربر (در دو شبکه سلولی و مکمل) و مصرف انرژی کاربر می باشند. به منظور ارزیابی روش MCO سناریوهای متعددی از نقطه نظر ویژگی های کاربران و ترافیک آنها، نرخ پوشش شبکه مکمل و نسبت هزینه تبادل داده شبکه سلولی به شبکه مکمل، شبیه سازی شده اند. نتایج حاصل از این شبیه سازی ها نشان می دهد مکانیزم MCO قادر به در نظر گرفتن ترجیحات اپراتور سلولی و کاربرانش بوده و در نتیجه از لحاظ ایجاد تعادل بار در شبکه، کاهش هزینه های اپراتور سلولی و کاهش مصرف انرژی کاربران، نسبت به روش های پیشنهادی پیشین عملکرد بهتری دارد.
  • محسن بیگلری، سیدعلی سلیمانی، حمید حسن پور صفحه 200
    در دهه اخیر، مطالعات بسیاری بر روی طبقه بندی دانه ریز اشیا صورت گرفته است. در این نوع طبقه بندی گروه کلی شیء مشخص بوده و هدف تعیین زیرگروه دقیق آن است و شناسایی نوع و مدل وسیله نقلیه (VMMR) نیز در این حوزه قرار می گیرد. این مسئله به دلیل وجود تعداد کلاس های زیاد، تفاوت درون کلاسی بسیار و تفاوت بین کلاسی کم از مسایل طبقه بندی دشوار به شمار می رود. علاوه بر این معمولا سرعت سیستم های شناسایی اشیا با افزایش دقت، کاهش می یابد و چنان که می بینیم یکی از چالش های مهم در شبکه های عصبی عمیق به عنوان یک ابزار قدرتمند بینایی ماشین، سرعت پردازش است. در این مقاله ابتدا روشی مبتنی بر بخش برای شناسایی نوع و مدل خودرو مختصرا معرفی می گردد و سپس یک الگوریتم آبشاری برای بهبود توامان سرعت و دقت این سیستم ارائه می شود. الگوریتم آبشاری پیشنهادی، طبقه بندهای موجود در سیستم را به صورت ترتیبی به تصویر ورودی اعمال کرده تا از حجم پردازش بکاهد. چند معیار مناسب برای رسیدن به یک ترتیب کارا از طبقه بندها معرفی شده و در نهایت ترکیبی از آنها در الگوریتم پیشنهادی به کار گرفته شده است. نتیجه آزمایشات انجام شده بر روی مجموعه داده کاملا متفاوت BVMMR و CompCars، نشان از دقت بالای سیستم شناسایی نوع و مدل خودرو دارد. پس از اعمال الگوریتم آبشاری به سیستم مورد بحث، سرعت پردازش تا 80% افزایش یافته است در حالی که دقت سیستم تنها کاهش جزئی داشته است.
  • فاطمه وحدت پناه، احمد پاطوقی صفحه 211
    تراشه های سه بعدی از قرارگرفتن لایه های سیلیکون به صورت پشته ساخته می شوند و ارتباط بین این لایه ها توسط کانال های درون سیلیکون برقرار می شود. هزینه ساخت این تراشه ها تابعی از تعداد کانال های عمودی است و ساخت آنها با تعداد کامل کانال ها از لحاظ هزینه و پیچیدگی ساخت، مقرون به صرفه نیست. ناکامل بودن کانال های درون سیلیکون، مساله مسیریابی اطلاعات را در شبکه های روی تراشه سه بعدی، پیچیده تر از شبکه های دوبعدی کرده است. در این مقاله یک الگوریتم مسیریابی برای شبکه های روی تراشه سه بعدی با کانال های عمودی ناکامل ارائه شده است که با تقسیم بندی لایه ای، سطری و ستونی شبکه، یک مسیریابی پویا را با حداکثر تطبیق پذیری در اختیار بسته ها قرار می دهد. این الگوریتم مستقل از مکان قرارگرفتن کانال های عمودی است و با در نظر گرفتن شماره لایه ای که بسته در آن قرار دارد و زوج یا فرد بودن آن، مدل چرخش خاصی در سطرها و یا ستون های زوج یا فرد به کار می گیرد. این الگوریتم تنها با استفاده از دو کانال مجازی مساله بن بست و چرخه زنده را مرتفع کرده است. نتایج شبیه سازی و مقایسه الگوریتم پیشنهادی با الگوریتم اول- آسانسور نشان می دهد که در الگوریتم پیشنهادی، میانگین تاخیر تحویل بسته 8/32% نسبت به الگوریتم اول- آسانسور بهبود داشته است. همچنین قابل ذکر است که بهبود تاخیر و گذردهی با بزرگ تر شدن ابعاد شبکه و کاهش تعداد کانال های درون سیلیکون، افزایش خواهد یافت.
  • مجتبی جهانبخش، سیدوحید ازهری، وحید قاسم خانی صفحه 223
    تراشه های سه بعدی از قرارگرفتن لایه های سیلیکون به صورت پشته ساخته می شوند و ارتباط بین این لایه ها توسط کانال های درون سیلیکون برقرار می شود. هزینه ساخت این تراشه ها تابعی از تعداد کانال های عمودی است و ساخت آنها با تعداد کامل کانال ها از لحاظ هزینه و پیچیدگی ساخت، مقرون به صرفه نیست. ناکامل بودن کانال های درون سیلیکون، مساله مسیریابی اطلاعات را در شبکه های روی تراشه سه بعدی، پیچیده تر از شبکه های دوبعدی کرده است. در این مقاله یک الگوریتم مسیریابی برای شبکه های روی تراشه سه بعدی با کانال های عمودی ناکامل ارائه شده است که با تقسیم بندی لایه ای، سطری و ستونی شبکه، یک مسیریابی پویا را با حداکثر تطبیق پذیری در اختیار بسته ها قرار می دهد. این الگوریتم مستقل از مکان قرارگرفتن کانال های عمودی است و با در نظر گرفتن شماره لایه ای که بسته در آن قرار دارد و زوج یا فرد بودن آن، مدل چرخش خاصی در سطرها و یا ستون های زوج یا فرد به کار می گیرد. این الگوریتم تنها با استفاده از دو کانال مجازی مساله بن بست و چرخه زنده را مرتفع کرده است. نتایج شبیه سازی و مقایسه الگوریتم پیشنهادی با الگوریتم اول- آسانسور نشان می دهد که در الگوریتم پیشنهادی، میانگین تاخیر تحویل بسته 8/32% نسبت به الگوریتم اول- آسانسور بهبود داشته است. همچنین قابل ذکر است که بهبود تاخیر و گذردهی با بزرگ تر شدن ابعاد شبکه و کاهش تعداد کانال های درون سیلیکون، افزایش خواهد یافت.
  • امیرمسعود سفیدیان، نگین دانشپور صفحه 233
    تخمین مقادیر جاافتاده یک گام مهم در پیش پردازش داده ها است. در این مقاله یک رویکرد دومرحله ای برای پرکردن مقادیر جاافتاده عددی ارائه شده است. در مرحله اول داده ها خوشه بندی می شوند و در مرحله دوم داده های جاافتاده درون هر خوشه با استفاده از یک روش ترکیبی از k نزدیک ترین همسایه وزن دار و رگرسیون خطی تخمین زده می شوند. از معیار همبستگی بین صفات در هر خوشه برای تعیین روش پرکردن داده های جاافتاده استفاده می شود. کیفیت پرکردن مقادیر جاافتاده با استفاده از معیار میانگین مربعات خطا سنجیده می شود. تاثیر پارامترهای مختلف بر میزان خطای داده های تخمین زده شده بررسی می گردد. عملکرد روش ارائه شده برای تخمین داده های جاافتاده بر روی پنج مجموعه داده نیز بررسی می شود. در نهایت عملکرد روش ارائه شده با چهار روش پرکردن با مقدار میانگین، روش تخمین با شبکه عصبی پرسپترون چندلایه (MLP)، روش پرکردن با خوشه بندی c-means فازی و روش k خوشه و نزدیک ترین همسایه مبتنی بر دسته (CKNNI) مقایسه می شود. نتایج به دست آمده نشان داده که خطای تخمین مقادیر جاافتاده در روش ارائه شده کمتر از خطا در دیگر روش های مقایسه شده است.
  • راهبه نیارکی اصلی، هومن سالمی صفحه 243
    کاهش مقیاس تکنولوژی و کاهش سطوح ولتاژ باعث حساس تر شدن گره های مدارات مجتمع و رشد فزاینده خطای نرم در آنها شده است. خطای نرم سبب اختلال گذرا در کار مدار می گردد و اهمیت آن در مدارهای ترکیبی با افزایش فرکانس کاری بیشتر می شود. در این مقاله روشی بهینه برای مقاوم سازی مدارات ترکیبی در برابر خطای نرم ارائه شده است. بهینه سازی روش پیشنهادی در سه مرحله انجام می گیرد. ابتدا با محاسبات مشاهده پذیری، اولویت گره های مدار از نظر مقاوم سازی تعیین می گردد. سپس به منظور بهینه نمودن پارامتر توان- تاخیر و سطح مصرفی مدار، قابلیت اطمینان مدار اندازه گیری می شود و با توجه به آن، تعداد گره های لازم برای مقاوم سازی تعیین می گردد. در مرحله بعد، گره های انتخابی از مدارهای استاندارد آزمون با سه روش مختلف که شامل افزونگی زمانی، اشمیت تریگر و پسخورد ترانزیستوری می باشند مقاوم سازی می شوند. مقایسه سه روش نشان می دهد که مدار مقاوم شده با اشمیت تریگر، دارای بیشترین بار بحرانی و کمترین فاکتور توان- تاخیر است. همچنین نتایج شبیه سازی تایید می کند که مقاوم سازی بهینه حاصل انتخاب مناسب تعداد گره های لازم با استفاده از مفهوم مشاهده پذیری و محاسبات قابلیت اطمینان همراه با نوع مناسب مقاوم سازی گره می باشد. اجرای روش پیشنهادی بر روی مدارهای تحت آزمون از 85ISCAS موثربودن روش را تایید می کند. همچنین شبیه سازی مونت کارلو نشان می دهد که روش پیشنهادی در برابر تغییرات فرایند مقاوم است.
  • مجید حق پرست، اسماء طاهری منفرد صفحه 251
    مدارهای مالتی پلکسر و دی مالتی پلکسر از اساسی ترین مدارها در ساخت سخت افزارهای پیچیده به شمار می آیند و بنابراین افزایش کارایی آنها اهمیت بسیاری دارد. یکی از مواردی که در سال های اخیر توجه محققان را به خود جلب کرده است طراحی مدارهایی با توان پایین است. استفاده از منطق برگشت پذیر در طراحی مدار باعث کاهش اتلاف توان و کاهش توان مصرفی آن می شود و همچنین استفاده از منطق سه مقداری نیز باعث کارایی بهتر، کاهش توان مصرفی و افزایش تحمل پذیری اشکال در مدارهای برگشت پذیر می گردد. در این مقاله مدارهای مالتی پلکسر و دی مالتی پلکسر کوانتومی برگشت پذیر سه مقداری را ارائه داده ایم و در طراحی آنها از دروازه های برگشت پذیر سه مقداری Controlled Feynman و Shift استفاده کرده ایم. مدارهای ارائه شده در این مقاله در مقایسه با طرح های پیشین عملکرد بهتری دارد و مقدار بهبود گزارش شده است.
  • تقدیر و تشکر
    صفحه 257
|
  • A. Zadedehbalaei, A. Bagheri, H. Afshar Page 171
    Clustering is one of the important techniques for knowledge discovery in spatial databases. density-based clustering algorithms are one of the main clustering methods in data mining. DBSCAN which is the base of density-based clustering algorithms, besides its benefits suffers from some issues such as difficulty in determining appropriate values for input parameters and inability to detect clusters with different densities.
    In this paper, we introduce a new clustering algorithm which unlike DBSCAN algorithm, can detect clusters with different densities. This algorithm also detects nested clusters and clusters sticking together. The idea of the proposed algorithm is as follows. First, we detect the different densities of the dataset by using a technique and Eps parameter is computed for each density. Then DBSCAN algorithm is adapted with the computed parameters to apply on the dataset. The experimental results which are obtained by running the suggested algorithm on standard and synthetic datasets by using well-known clustering assessment criteria are compared to the results of DBSCAN algorithm and some of its variants including VDBSCAN, VMDBSCAN, LDBSCAN, DVBSCAN and MDDBSCAN. All these algorithms have been introduced to solve the problem of multi-density data sets. The results show that the suggested algorithm has higher accuracy and lower error rate in comparison to the other algorithms.
  • M. Fallah Khoshbakht, S. Yousefi, B. Ghalebsaz Jeddi Page 187
    Due to proliferation of smart phones, data traffic in cellular networks has been significantly increasing, which has resulted in congestions in cellular networks. Data offloading to a complementary network such as Wi-Fi has been identified as a rational and cost-effective solution to these congestions. In this paper, a multi-criteria offloading (MCO) mechanism is proposed to select the best transfer mode among: cellular delivery, delay-tolerant offloading (DTO) to a complementary network, and peer-assisted offloading (PAO). The proposed MCO mechanism utilizes TOPSIS multi-criteria decision analysis method and a prediction model for the Wi-Fi connection pattern. The decision criteria include: the fraction of total users’ request satisfied by offloading, data transfer costs of cellular operator to users, data transfer bandwidth of users in both cellular and complementary networks, and total users’ power consumption. To evaluate the proposed mechanism various scenarios have been simulated, and the results show that the MCO mechanism can successfully take into account the preferences of the cellular operator and its users. Through simulations, the MCO mechanism demonstrated superior performance in comparison with other proposed solutions in the literature in terms of balancing the load on the network, reducing the cost of the cellular operator, and reducing energy consumption of the users.
  • M. Biglari*, A. Soleimani, H. Hassanpour Page 200
    In the last decade, many researches have been done on fine-grained recognition. The main category of the object is known in this problem and the goal is to determine the subcategory or fine-grained category. Vehicle Make and Model Recognition (VMMR) is a hard fine-grained classification problem, due to the large number of classes, substantial inner-class and small inter-class distance. Furthermore, improving system accuracy leads to increasing in processing time. As we can see the state-of-the-art machine vision tool like convolutional neural networks lacks in real-time processing time. In this paper, a method has been presented briefly for VMMR firstly. Secondly, a cascading scheme for improving both speed and accuracy of this VMMR system has been proposed. In order to eliminate extra processing cost, the proposed cascading scheme applies classifiers to the input image in a sequential manner. Some effective criterions for an efficient ordering of classifiers are proposed and finally a fusion of them is used in the cascade algorithm. For evaluation purposes, a new dataset with more than 5000 vehicles of 28 different makes and models has been collected. The experimental results on this dataset and comprehensive CompCars dataset show outstanding performance of our approach. Our cascading scheme results up to 80% increase in the system processing speed.
  • F. Vahdat Panah, A. Patooghy Page 211
    Three-Dimensional Chips are made of stacking silicon layers which communicate with each other by Through-Silicon-Via (TSV) links. Manufacturing cost of Three-Dimensional chips is a function of the number of TSVs because the fabricating of a three-dimensional chip with fully vertical links is of high cost and high fabrication complexity.
    The packet routing strategies in the 3D NoCs with partially TSVs is more complex than that in the 2D NoCs. In this paper, we proposed a routing algorithm for the 3D NoCs with partial TSVs, which provides a dynamic routing with maximum adaptivity for packets by dividing the network into three groups of layers, rows and columns. This algorithm is independent of vertical channel's position but related to layer number of the current packet and based on the layer number, odd or even, uses a special turn strategy to route packets on rows and columns with odd or even numbers. The proposed routing algorithm mitigates deadlock and livelock with only two virtual. The experiments show that average packet latency in proposed algorithm is 32.8% smaller than that in Elevator_First which is a well-known algorithm for packet routing in 3D chips. Also, this improvement on average packet latency and network throughput will be more with increasing on network size and reduction on TSV number.
  • M. Jahanbakhsh, S. V. Azhari, V. Ghasemkhani Page 223
    Session Initiation Protocol (SIP) is an application layer protocol designed to create, manage, and terminate multimedia sessions in the IP multimedia subsystem (IMS). The widespread use of this protocol results in high traffic volume over SIP proxies, requiring delicate CPU allocation to flows. In this paper, we analyze the optimization problem of resource allocation in SIP proxies with two objective functions: maximizing total throughput and minimizing the least squares. Maximizing total throughput, prioritizes intra-domain flows over inter-domain ones, as the latter pass through two intermediate proxies. On the other hand, minimizing the least squares corresponds to a max-min fairness policy. Hence, we use round robin scheduling in proxies. In addition, we propose a SIP overload control algorithm that limits re-transmissions and prevents instability of proxies by controlling the length of SIP message backlog for each flow. This algorithm leads to better use of processing resources, in comparison with existing overload control algorithms.
  • A. M. Sefidian, N. Daneshpour Page 233
    Estimation of missing values is an important step in the preprocessing. In this paper, at two-step approach is proposed to fill the numeric missing values. In the first step, data is clustered. In the second step, the missing data in each cluster are estimated using a combination of weighted k nearest neighbors and linear regression methods. The correlation measure is employed to determine the appropriate method for the filling of missing data in each cluster. The quality of estimated missing values is evaluated using the root mean squared error (RMSE) criterion. Effect of different input parameters on the error of estimated values is investigated. Moreover, the performance of the proposed method for the estimation purpose is evaluated on five datasets. Finally, the efficiency of the proposed method is compared to four different estimation methods, namely, Mean estimation, multi-layer perceptron (MLP) based estimation, fuzzy C-means (FCM) based approximation method, and Class-based K-clusters nearest neighbor imputation (CKNNI) method. Experimental results show that the proposed method produces less error in comparison to other compared methods, in most of the cases.
  • R. Niaraki Asli, H. Salemi Page 243
    Due to the shrinking of feature size, reduction in supply voltage and technology scaling, the sensitivity to radiation induced transient faults of digital systems has dramatically increased. Soft error causes transient distortion in circuit operation and is expected to become very important in combinational logic with increment of the circuit frequency. In this paper, we introduce an optimized method for hardening of combinational logic circuits against soft errors. In this method, first we have found the most sensitive nodes of the circuit by observability computations. Next for optimizing power-delay product and area, the reliability of the circuit has been computed and the number of the necessary nodes for hardening will be identified. In the next step, three different hardening methods including time redundancy, Schmitt trigger and transistor feedback have been carried out on standard test circuits as our vehicles. The comparison of three method results show that the hardened circuits with Schmitt trigger have the most cumulative critical charge and the least power-delay product and lead to an optimum hardening. Moreover, the simulation results approve the optimized hardening is obtained from suitable selecting the number of required nodes considering observability concepts and reliability computations together with the best node hardening method. Monte-Carlo simulations also approve the performance of the proposed method against process variations.
  • M. Haghparast, A. Taheri Monfared Page 251
    Due to the shrinking of feature size, reduction in supply voltage and technology scaling, the sensitivity to radiation induced transient faults of digital systems has dramatically increased. Soft error causes transient distortion in circuit operation and is expected to become very important in combinational logic with increment of the circuit frequency. In this paper, we introduce an optimized method for hardening of combinational logic circuits against soft errors. In this method, first we have found the most sensitive nodes of the circuit by observability computations. Next for optimizing power-delay product and area, the reliability of the circuit has been computed and the number of the necessary nodes for hardening will be identified. In the next step, three different hardening methods including time redundancy, Schmitt trigger and transistor feedback have been carried out on standard test circuits as our vehicles. The comparison of three method results show that the hardened circuits with Schmitt trigger have the most cumulative critical charge and the least power-delay product and lead to an optimum hardening. Moreover, the simulation results approve the optimized hardening is obtained from suitable selecting the number of required nodes considering observability concepts and reliability computations together with the best node hardening method. Monte-Carlo simulations also approve the performance of the proposed method against process variations.