فهرست مطالب

نشریه مهندسی برق و مهندسی کامپیوتر ایران
سال هجدهم شماره 1 (پیاپی 54، بهار 1399)

  • ب- مهندسی کامپیوتر
  • تاریخ انتشار: 1399/03/18
  • تعداد عناوین: 8
|
  • محمود فتحی*، محمد مهدی ارزانی، احمد اکبری ازیرانی صفحات 1-14

    بازشناسی خودکار فعالیت های انسان، بخشی جدایی ناپذیر از هر برنامه تعاملی با انسان است. یکی از چالش های عمده برای شناخت فعالیت، تنوع در نحوه فعالیت افراد است. همچنین بعضی از فعالیت ها ساده، سریع و کوتاه هستند، در حالی که بسیاری دیگر پیچیده و دارای جزییات هستند و در مدت زمان طولانی انجام می شوند. در این مقاله، ما از داده های اسکلت که از توالی تصاویر RGB-D استخراج می شوند استفاده می کنیم. ما مدل گرافی را پیشنهاد می دهیم که قادر است فعالیت های پیچیده و ساده را بازشناسی کند. برای بهینه سازی پارامترهای مدل گرافی احتمالی از روش پیش بینی ساختاری توزیع شده استفاده می کنیم. این روش در سه مجموعه داده به طور گسترده مورد آزمایش (60- CAD، UT-Kinect و D3 Florence) قرار می گیرد که هر دو نوع فعالیت را پوشش می دهند. نتایج نشان می دهد که روش ما می تواند هر دو نوع فعالیت ساده و پیچیده را به طور موثر تشخیص دهد، در حالی که اکثر آثار قبلی تنها بر یکی از این دو نوع تمرکز می کنند. همچنین ما نشان می دهیم استفاده از روش های خوشه بندی برای مقداردهی اولیه تاثیر زیادی در نتایج دارد.

    کلیدواژگان: مدل های گرافی احتمالی، بازشناسی فعالیت انسان، پیش بینی ساختاریافته توزیع شده، اسکلت
  • مرتضی خادمی*، فهیمه انصاری رام، عباس ابراهیمی مقدم، هادی صدوقی یزدی صفحات 15-28

    الگوریتم تقریب انتقال پیام (AMP) یک الگوریتم تکراری کم هزینه برای بازیابی سیگنال در نمونه برداری فشرده است. هنگامی که ماتریس نمونه بردار دارای مولفه هایی با توزیع گوسی مستقل و یکسان (iid) باشد، همگرایی AMP با تحلیل ریاضی اثبات می شود. اما برای سایر ماتریس های نمونه بردار به خصوص ماتریس های بدحالت، عملکرد این الگوریتم ضعیف شده و حتی ممکن است واگرا شود. این مشکل منجر به محدودیت استفاده از AMP در بعضی کاربردها از جمله تصویربرداری شده است. در این مقاله الگوریتمی جهت اصلاح AMP مبتنی بر تیوری بیز برای ماتریس های غیر iid ارایه شده است. نتایج شبیه سازی نشان می دهد که میزان مقاومت الگوریتم پیشنهادی برای ماتریس های غیر iid نسبت به روش های پیشین بیشتر می باشد. به عبارت دیگر این روش دارای دقت بیشتر در بازیابی است و با تکرار کمتری همگرا خواهد شد.

    کلیدواژگان: الگوریتم تقریب انتقال پیام (AMP)، ماتریس های بدحالت، ماتریس های سطری متعامد، ماتریس های گوسی iid، ماتریس های مرتبه پایین، نمونه برداری فشرده (CS)
  • محمد صبری، محمدشهرام معین*، فربد رزازی صفحات 29-41

    امروزه با افزایش تهدیداتی نظیر تروریسم و جرایم سایبری، فرایند تصدیق هویت افراد اهمیت چشم گیری یافته و متضمن امنیت ملی یک کشور تلقی می گردد. در این پژوهش، یک روش ترتیبی بر اساس یادگیری عمیق جهت مدیریت پویای جریان الگوریتم سیستم های تصدیق هویت چند بیومتریکی ارایه شده است. روش پیشنهادی دارای این مزیت است که معیارهای ویژگی به صورت ضمنی و اتوماتیک توسط یک شبکه عمیق با معماری انتها به انتها استخراج می گردند. یک سیستم تصدیق هویت چند بیومتریکی شامل دو انگشت و چهره مبتنی بر روش پیشنهادی نیز پیاده سازی گردیده است. بر طبق نتایج، در مجموع تصدیق هویت برای 91/42% موارد بر اساس اثر انگشت انجام شده و فقط برای 8/58% موارد نیاز به استفاده از مشخصه چهره بوده است. این در حالی است که روش پیشنهادی نسبت به انگشت اول و دوم به ترتیب 35 و 30% دقت بالاتری نیز داشته است. دستاوردهای این پژوهش می تواند نقش مهمی در مقبولیت و موفقیت پروژه های عملیاتی و میزان اثربخشی آنها در فرایند تصدیق هویت داشته باشد زیرا از یک طرف دارای دقت بیشتری بوده و از طرف دیگر منجر به کاهش هزینه یعنی زمان مورد نیاز برای فرایند اخذ و تطبیق گردیده که باعث می شود هم زمان رضایتمندی خدمت‎گیرنده و امنیت خدمت‎دهنده فراهم آید.

    کلیدواژگان: تصدیق هویت، یادگیری عمیق، تطبیق در بستر کارت، چند بیومتریکی
  • محمد قاسم زاده*، سیده سارا میرمبین، امین نظارات صفحات 42-48

    این پژوهش در حوزه ترجمه ماشینی و در رابطه با استخراج چندتایی ها از پیکره های دوزبانه به وسیله اسپارک است. در این رابطه، مهم ترین چالش این است که عملیات بایستی بر روی پیکره های متنی بزرگ انجام شود لذا بایستی به صورت توزیع شده و با بهره گیری از راهکارها و ابزارهای تحلیل داده های حجیم، طراحی و پیاده سازی شود. در واقع هنگام ترجمه متون، به وفور با چندتایی هایی مواجه می شویم که بایستی چندتایی های متناظر با هر کدام را بیابیم و در ترجمه مان درج کنیم، این کار می تواند از طریق جستجو در پیکره هایی که شامل چندتایی ها و ترجمه متناظر با آنها است انجام شود. روش های موجود، این کار را به صورت غیر توزیع شده انجام می دهند، لذا ضمن این که نیاز به زمان زیادی دارند، نمی توانند از پیکره های خیلی بزرگ بهره ببرند. برای رفع این نارسایی، در این پژوهش یک روش توزیع شده ارایه گردیده که فاصله بین بخش های چندتایی ها را نیز لحاظ می کند. راه حل پیشنهادی به صورت توزیع شده، تمام چندتایی های ممکن را از جملات پیکره تک زبانه استخراج نموده و با استفاده از ضریب همبستگی، چندتایی های معتبر جداشده را با استفاده از پیکره دوزبانه ترجمه می کند. روش پیشنهادی روی یک کلاستر محاسباتی با 64 گیگابایت حافظه اصلی و پردازنده 24هسته ای، در محیط اسپارک پیاده سازی گردید. داده های آزمایش شامل پیکره های فارسی و انگلیسی تک زبانه و نیز پیکره دوزبانه، حاوی به طور متوسط 100 هزار جمله بودند. نتایج آزمایشی نشان می دهند که بدین طریق، زمان اجرا به شدت کاهش و کیفیت ترجمه نیز به طور قابل ملاحظه ای بهبود می یابد.

    کلیدواژگان: الگوریتم توزیع شده، پیکره های متنی، ترجمه ماشینی، چندتایی‎ها
  • وجیهه ثابتی*، سپیده فیاضی، حدیثه شیرین خواه صفحات 49-58

    با افزایش دقت حملات پنهان شکنی در کشف روش های پنهان نگاری، نیاز به بهبود امنیت روش های پنهان نگاری بیشتر از گذشته احساس می شود. LSBM یکی از روش های ساده پنهان نگاری است که حملات نسبتا موفقی برای کشف آن تا به حال ارایه شده است. هدف اصلی در این مقاله ارایه روشی برای بهبود LSBM است. انتخاب دنباله پیکسل ها برای جاسازی و چگونگی تغییر مقدار آنها در روش های مبتنی بر LSBM متفاوت هستند. در اغلب روش های موجود بعضی از این تصمیمات به صورت تصادفی گرفته می شود. در روش پیشنهادی در این مقاله، در مرحله اول از ایده چندکلیدی و در مرحله دوم از الگوریتم ژنتیک استفاده شده است تا تصمیمات بهتری اتخاذ شود. در روش پیشنهادی با عنوان MKGM، تصویر پوشش بلاک بندی شده و برای هر بلاک با چند کلید مختلف روش GLSBM اجرا می شود و در انتها بلاکی که کمترین تغییر هیستوگرام را نسبت به بلاک اولیه داشته باشد، در تصویر استگو قرار می گیرد. روش GLSBM، همان روش LSBM است با این تفاوت که برای تصمیم گیری در مورد افزایش یا کاهش پیکسل های غیر مطابق، از الگوریتم ژنتیک استفاده می شود. مقایسه معیارهای کیفیت تصویر و دقت حملات در کشف روش پیشنهادی، نشان دهنده بهبود این معیارها در مقایسه با روش LSBM اصلی است.

    کلیدواژگان: الگوریتم ژنتیک، پنهان شکنی، پنهان نگاری، روش LSBM
  • مرتضی روحانیان، مصطفی صالحی*، علی درزی، وحید رنجبر صفحات 59-66

    افزایش کاربری شهروندان از رسانه های اجتماعی (مانند توییتر، فروشگاه های برخط و غیره) آنها را به منبعی عظیم برای تحلیل و درک پدیده های گوناگون تبدیل کرده است. هدف تحلیل احساس استفاده از داده های به دست آمده از این رسانه ها و کشف گرایش های پیدا و پنهان کاربران نسبت به موجودیت های خاص حاضر در متن است. در کار حاضر ما با استفاده از شبکه عصبی پیچشی که نوعی شبکه عصبی پیش خور است، به تحلیل گرایش نظرات در رسانه های اجتماعی در دو و پنج سطح و با در نظر گرفتن شدت آنها می پردازیم. در این شبکه عمل کانولوشن با استفاده از صافی هایی با اندازه های مختلف بر روی بردارهای جملات ورودی اعمال می شود و بردار ویژگی حاصل به عنوان ورودی لایه نرم بیشینه برای دسته بندی نهایی جملات به کار می رود. شبکه های عصبی پیچشی با پارامترهای مختلف با استفاده از معیار مساحت زیر منحنی و بر روی مجموعه داده جمع آوری شده از رسانه های اجتماعی فارسی ارزیابی شدند و نتایج به دست آمده نشان دهنده بهبود کارایی آنها در گستره رسانه های اجتماعی نسبت به روش های سنتی یادگیری ماشین به خصوص بر روی داده ها با طول کوتاه تر هستند.

    کلیدواژگان: تحلیل احساس، رسانه های اجتماعی، شبکه عصبی پیچشی، شدت نظرات، متون کوتاه
  • شهریار غلامی مهرآبادی، یاسر عطار ایزی*، سروش اخلاقی صفحات 67-74

    شبکه های ناهمگون به عنوان جزیی جدایی ناپذیر در ارتباطات نسل پنجم، به منظور پاسخ گویی به رشد بی سابقه نرخ داده مورد نیاز، معرفی شده اند. در این شبکه ها، وجود انواع سلول ها با ایستگاه های پایه با توان و ظرفیت های متفاوت، امکان استفاده مکرر از پهنای باند در دسترس را فراهم ساخته است. علاوه بر این، بار اضافی روی ایستگاه پایه مرکزی می تواند به ایستگاه های پایه در زیرسلول ها منتقل شود. در این مقاله شیوه ای جدید برای چنین مساله موازنه باری پیشنهاد شده که در آن برخی از کاربران که قبلا به ایستگاه پایه اصلی متصل بودند، با استفاده از رله های D2D، در زیرسلول ها سرویس دهی می شوند. این امر موجب افزایش ظرفیت کلی شبکه، بهبود کیفیت خدمات (QoS) کاربران لبه سلول و پوشش تعداد بیشتر کاربران می شود. در این طرح، افزایش حداکثری ظرفیت لینک های D2D به صورت یک مساله بهینه سازی مطرح شده که اساسا یک مساله غیر محدب است. برای حل این مشکل، مساله اصلی به دو زیرمساله تخصیص منابع بهینه و جفت سازی بهینه زوج های کاربر- رله با پیچیدگی بسیار کمتر تبدیل شده است. نتایج شبیه سازی ها عملکرد بهتر این شیوه را نسبت به سایر طرح های پیشنهادی پیشین نشان می دهد.

    کلیدواژگان: ارتباط دستگاه به دستگاه، تخصیص منابع، تقسیم فرکانسی، شبکه های ناهمگون، موازنه بار
  • عدنان نصری، محمود فتحی*، علی برومندنیا صفحات 75-82

    این مقاله به مساله تاثیر استفاده از حافظه های غیر فرار در سلسله مراتب حافظه نهان برای پردازنده های مراکز داده در عصر سیلیکون تاریک پرداخته است. همان طور که مصرف انرژی به یکی از مباحث مهم عملیات و نگهداری مراکز داده ابری تبدیل شده است، فراهم کنندگان سرویس های ابری به شدت در این زمینه نگران شده اند. تکنولوژی حافظه های غیر فرار نوظهور جایگزینی مناسب برای حافظه های متداول امروزی می باشند. ما در این مقاله از حافظه غیر فرار STT-RAM در مقایسه با حافظه SRAM به عنوان حافظه نهان سطح آخر استفاده می کنیم. تراکم بالا، دسترسی خواندن سریع، توان مصرفی نشتی نزدیک به صفر و غیر فرار بودن باعث می شود حافظه STT-RAM یک فناوری مهم برای حافظه های درون تراشه باشد. در اکثر تحقیقات قبلی که از حافظه های غیر فرار بهره گرفته اند، روش های خاص و مبتنی بر محک های متعارف بررسی شده و در مورد محک های ابری نوظهور تحت عنوان بارهای کاری Scale-out تحلیل کاملی انجام نداده اند. ما در این مقاله با اجرای بارهای کاری Scale-out، تاثیر استفاده از حافظه های غیر فرار در سلسله مراتب حافظه نهان پردازنده های ابری مراکز داده را بررسی می کنیم. نتایج آزمایش روی محک CloudSuite نشان می دهد که استفاده از حافظه STT-RAM در مقایسه با حافظه SRAM در حافظه نهان سطح آخر، میزان انرژی مصرفی را حداکثر 59% کاهش می دهد.

    کلیدواژگان: مرکز داده ابری، پردازنده، سلسله مراتب حافظه نهان، حافظه غیر فرار، محک CloudSuite
|
  • MohammadMahdi Arzani, M. Fathy *, ahmad Akbari Pages 1-14

    To communicate with people interactive systems often need to understand human activities in advance. However, recognizing activities in advance is a very challenging task, because people perform their activities in different ways, also, some activities are simple while others are complex and comprised of several smaller atomic sub-activities. In this paper, we use skeletons captured from low-cost depth RGB-D sensors as high-level descriptions of the human body. We propose a method capable of recognizing simple and complex human activities by formulating it as a structured prediction task using probabilistic graphical models (PGM). We test our method on three popular datasets: CAD-60, UT-Kinect, and Florence 3D. These datasets cover both simple and complex activities. Also, our method is sensitive to clustering methods that are used to determine the middle states, we evaluate test different clustering, methods.

    Keywords: Probabilistic graphical models, human activity recognition, distributed structured prediction, skeleton
  • M. Khademi*, F. Ansari Ram, Abbas Ebrahimi moghadam, H. Sadoghi Yazdi Pages 15-28

    AMP is a low-cost iterative algorithm for recovering signal in compressed sensing. When the sampling matrix has IID zero-mean Gaussian elements, the convergence of AMP is analytically guaranteed. But for other sampling matrices, especially ill-conditioned matrices, the recovery performance of AMP degrades and even may be diverged. This problem limits the use of AMP in some applications such as imaging. In this paper, a method is proposed for modifying the AMP algorithm based on Bayesian theory for non-IID matrices. Simulation results show better robustness properties of the proposed algorithm for non-IID matrices in comparison with previous works. In other words, the proposed method has more precision in recovery, and converges with less iterations.

    Keywords: Approximate message passing, compressed sensing, IID Gaussian matrices, low-rank product matrices, row orthogonal matrices
  • M. Sabri, Farbod Razzazi Pages 29-41

    Nowadays, the threats such as terrorism and cybercrime are extremely increased, therefore, the identity authentication process is very substantial for the national security of a country. In this paper, we propose a novel multimodal authentication system with sequential structure based on deep learning. In the proposed method, feature vectors are extracted automatically through deep network with an end to end architecture. A multi biometric system using two fingerprint and a face is implemented and evaluated. The results demonstrate that, the authentication is done by fingerprints in 91.42% cases and only for 8.58% cases the face modal is required. In addition, the proposed method is more accurate than first and second fingerprint by 35% and 30% at FMR=0.001, respectively. As a result, we augmented the accuracy of the system and at the same time reduced the acquisition and matching time. This conducts to the improvement of user convenience and security of the service provider, simultaneously. The achievements of this work can be used to increase the effectiveness of authentication process and can play an important role in the acceptability of real world applications.

    Keywords: Identity authentication, deep learning, match on card, multibiometrics
  • Seyedeh Sara Mirmobin, Amin Nezarat Pages 42-48

    This research is in the field of machine translation and in relation to extraction of Persian-English chunks from bilingual corpus by Spark. In this regard, the most important challenge is that the operation must be carried out on large corpus; therefore, it requires distributed computing along with big data analysis techniques and tools. When translating text, we are usually confronted with chunks that we need to find the corresponding chunks of each one in the target language and insert it in our translation; this is accomplished by locating it in a corpus that contain the chunks and their corresponding translations. The existing methods, perform this operations in a non-distributed way, therefore while they run slowly, they cannot use a very large corpus. To overcome this shortcoming, in this research a distributed method has been presented, which also takes distance between the sections of chunks into account. The proposed method extracts all possible chunks from the input sentences in the monolingual corpus and uses the correlation coefficient to translate those chunks using the bilingual corpus. We implemented the proposed algorithm in a platform consisting of a computing cluster with sixty-four GB of memory and a twenty-four-core processor in Spark. The incorporated experimental data was a Persian and an English monolingual corpus along with an English-Persian bilingual corpus, each of which containing 100,000 sentences. Experimental results show that run time could greatly be reduced, and the quality of translation is also significantly improved.

    Keywords: Distributed algorithms, corpus, machine translation, chunks
  • vajiheh sabeti*, Sepide faiazi, hadise shirinkhah Pages 49-58

    By increasing the precision of steganalysis attacks in discovering methods of steganography, the need to improve the security of steganographic methods is felt more than ever. The LSBM is one of the simplest methods of steganography, which have been proposed relatively successful attacks for its discovery. The main purpose of this paper is to provide a method for improving security of LSBM. The choice of the sequence of pixels to embed and how to modify them varies in LSBM-based methods. In most existing methods some of these decisions are made at random. In the proposed method in this paper, a multi-key idea in the first step and a genetic algorithm in the second step are used to make better decisions. In the proposed method, as MKGM, the image is blocked and GLSBM is executed for each block with different keys and finally the block with the least histogram change compared to the original block is included in the stego image. The GLSBM method is the same as the LSBM method except that the genetic algorithm is used to decide whether to increase or decrease non-matching pixels. Comparison of the image quality criteria and the accuracy of the attacks in the detection of the proposed method show that these criteria are improved compared to the original LSBM method.

    Keywords: Steganography, steganalysis, LSBM, genetic algorithm
  • M. Rohanian, M. Salehi*, A. Darzi Pages 59-66

    With the social media engagement on the rise, the resulting data can be used as a rich resource for analyzing and understanding different phenomena around us. A sentiment analysis system employs these data to find the attitude of social media users towards certain entities in a given document. In this paper we propose a sentiment analysis method for Persian text using Convolutional Neural Network (CNN), a feedforward Artificial Neural Network, that categorize sentences into two and five classes (considering their intensity) by applying a layer of convolution over input data through different filters. We evaluated the method on three different datasets of Persian social media texts using Area under Curve metric. The final results show the advantage of using CNN over earlier attempts at developing traditional machine learning methods for Persian texts sentiment classification especially for short texts.

    Keywords: Sentiment analysis‎‎, social media, ‎convolutional neural network‎‎, sentiment intensity, ‎ short texts
  • shahriar gholami mehrabadi, yasser attar izi*, soroush akhlaghi Pages 67-74

    Heterogeneous networks have been regarded as an integral part of fifth generation communication networks in order to respond to the unprecedented growth of required data rates. In such networks, the existence of a variety of cells with base stations of varying capacities and transmit powers has enabled the repeated use of available bandwidth. Moreover, the excess load on the central base station can be directed to the sub-cell base stations. In the current work, a novel approach is proposed for such a load balancing problem in which some nodes previously connected to the main base station can be served by sub-cells through the use of some D2D relays. This will increase the overall network capacity, improve the quality of service (QoS) of cell edge users, and increase covered users. In this design, the maximization of the capacity of D2D links is formulated as an optimization problem which is not convex in general. To tackle this, the main problem is divided into two sub-problems of optimal resource allocation and user-relay pairing problems with much lower complexity. Simulation results demonstrate the superiority of the proposed method over existing works addressed in the literature.

    Keywords: Device to device communication, resource allocation, frequency division, heterogeneous networks, load balancing
  • M. Fathy*, Adnan Nasri, Ali Broumandnia Pages 75-82

    This paper focuses on the effect of heterogeneous cache hierarchy in data center processors in the dark silicon era. For extreme-scale high performance computing systems, system-wide power consumption has been identified as one of the key constraints. As energy consumption becomes a key issue for operation and maintenance of cloud data centers, cloud computing providers are becoming significantly concerned. Emerging non-volatile memory technologies are favorable replacement for conventional memory. Here, we employ a nonvolatile memory called spin-transfer torque random access memory (STT-RAM) as an on-chip L2 cache to obtain lower energy compared to conventional L2 caches, like SRAM. High density, fast read access, near-zero leakage power and non-volatility make STT-RAM a significant technology for on-chip memories. In order to decrease memory energy consumption, it is required to address both the leakage and dynamic energy. Previous studies have mainly studied specific schemes based on common applications and do not provide a thorough analysis of emerging scale-out applications with multiple design options. Here, we discuss different outlooks consisting of performance and energy efficiency in cloud processors by running CloudSuite benchmarks as one of scale-out workloads. Experiment results on the CloudSuite benchmarks show that using STT-RAM memory compare to SRAM memory as last level cache, consumes less energy in L2 cache, around 59% at maximum.

    Keywords: Cloud data center, processor, cache hierarchy, nonvolatile memory, CloudSuite benchmark