فهرست مطالب

نشریه مهندسی برق و مهندسی کامپیوتر ایران
سال بیستم شماره 4 (پیاپی 75، زمستان 1401)

  • تاریخ انتشار: 1402/01/21
  • تعداد عناوین: 8
|
  • انتصار حسینی، محسن نیک رای، شمس الله قنبری صفحات 257-270

    محاسبات لبه سیار، تکنولوژی نوینی برای بهبود مشکل تاخیر، ظرفیت و منابع موجود در محیط محاسبات ابری سیار است. هدف اصلی در محاسبات لبه سیار، زمان‌بندی پویا و بارگذاری بهینه با کمترین هزینه در استفاده از منابع است. ما در این مقاله، از یک مدل سیستم سه‌سطحی دستگاه‌های سیار، لبه و ابر استاندارد، استفاده و دو الگوریتم بارگذاری و زمان‌بندی را پیشنهاد می‌کنیم. یک الگوریتم تصمیم‌گیری برای بارگذاری وظایف مبتنی بر الگوریتم کوله‌پشتی حریصانه در سمت دستگاه سیار است که وظایف با انرژی مصرفی بالا را برای بارگذاری انتخاب می‌کند و باعث صرفه‌جویی در انرژی مصرفی دستگاه می‌شود. همچنین در سمت MEC، یک الگوریتم زمان‌بندی پویا را با اولویت‌بندی وظایف مبتنی بر فازی جهت اولویت‌بندی و زمان‌بندی وظایف بر اساس دو معیار ارایه می‌کنیم. نتایج عددی نشان می‌دهند که کار ارایه‌شده در مقایسه با سایر روش‌ها باعث کاهش زمان انتظار وظایف برای اجرا، تاخیر و بار سیستم می‌شود و تعادل سیستم با کمترین تعداد منابع تامین می‌گردد و سیستم ارایه‌شده، مصرف باتری را در دستگاه هوشمند تا حدود 90% کاهش می‌دهد. نتایج نشان می‌دهند که بیش از 92% وظایف با موفقیت در محیط لبه اجرا می‌شوند.

    کلیدواژگان: محاسبات لبه سیار، زمان بندی، حریصانه، فازی، انرژی مصرفی، زمان انتظار
  • آذر رفیعی، پرهام مرادی، عبدالباقی قادرزاده صفحات 271-281

    طبقه‌بندی چندبرچسبی یکی از مسایل مهم در یادگیری ماشین است که کارایی الگوریتم‌های این طبقه‌بندی با افزایش ابعاد مساله به شدت کاهش می‌یابد. انتخاب ویژگی، یکی از راهکارهای اصلی برای کاهش ابعاد در مسایل چندبرچسبی است. انتخاب ویژگی چندبرچسبی یک راهکار NP Hard است و تا کنون تعدادی راهکار مبتنی بر هوش جمعی و الگوریتم‌های تکاملی برای آن ارایه شده است. افزایش ابعاد مساله منجر به افزایش فضای جستجو و به تبع، کاهش کارایی و همچنین کاهش سرعت همگرایی این الگوریتم‌ها می‌شود. در این مقاله یک راهکار هوش جمعی ترکیبی مبتنی الگوریتم دودویی بهینه‌سازی ازدحام ذرات و استراتژی جستجوی محلی برای انتخاب ویژگی چندبرچسبی ارایه شده است. برای افزایش سرعت همگرایی، در استراتژی جستجوی محلی، ویژگی‌ها بر اساس میزان افزونه‌بودن و میزان ارتباط با خروجی مساله به دو دسته تقسیم‌بندی می‌شوند. دسته اول را ویژگی‌هایی تشکیل می‌دهند که شباهت زیادی به کلاس مساله و شباهت کمتری به سایر ویژگی‌ها دارند و دسته دوم هم ویژگی‌های افزونه و کمتر مرتبط است. بر این اساس، یک اپراتور محلی به الگوریتم بهینه‌سازی ازدحام ذرات اضافه شده که منجر به کاهش ویژگی‌های غیر مرتبط و افزونه هر جواب می‌شود. اعمال این اپراتور منجر به افزایش سرعت همگرایی الگوریتم پیشنهادی در مقایسه با سایر الگوریتم‌های ارایه‌شده در این زمینه می‌شود. عملکرد روش پیشنهادی با شناخته‌شده‌ترین روش‌های انتخاب ویژگی، بر روی مجموعه داده‌های مختلف مقایسه گردیده است. نتایج آزمایش‌ها نشان دادند که روش پیشنهادی از نظر دقت، دارای عملکردی مناسب است.

    کلیدواژگان: انتخاب ویژگی، طبقه بندی چندبرچسبی، استراتژی جستجوی محلی، هوش جمعی، بهینه سازی ازدحام ذرات
  • مسعود ساغریچیان، مرتضی علیپور لنگوری صفحات 282-290

    به واسطه قدرت و سادگی، سیستم‌های پردازش گراف مبتنی بر بلوک در سال‌های اخیر مورد توجه ویژه‌ای قرار گرفته‌اند. اغلب این سیستم‌ها از روش‌های بخش‌بندی عمومی و همه‌منظوره جهت تولید پارتیشن‌های مورد نیاز خود استفاده می‌کنند. همین امر منجر شده که کارایی این سیستم‌ها محدود شود. برای رفع این مشکل الگوریتم‌های خاص‌منظوره‌ای برای بخش‌بندی این دسته از سیستم‌ها ارایه شده است، اما مشکل این دسته از روش‌ها آن است که همچنان معیارهای سنتی نظیر تعداد یال برشی و تعادل بار به عنوان تابع هدف این روش‌ها مد نظر قرار گرفته است. این در حالی است که قدرت سیستم‌های پردازش گراف مبتنی بر بلوک به واسطه ویژگی‌های منحصر به فردی است که در طراحی این دسته از سیستم‌ها مد نظر قرار گرفته است. به همین جهت در این مقاله، ویژگی‌های ذاتی و اساسی این دسته از سیستم‌ها مورد توجه قرار گرفته و با توجه به این خواص، دو معیار جدید به عنوان معیار تابع هدف بخش‌بندی، معرفی شده است. بر اساس تحقیقات انجام‌گرفته، روش پیشنهادی اولین الگوریتم بخش‌بندی است که قطر گراف سطح بالا و اندازه گره‌های گراف سطح بالای حاصل از بخش‌بندی را به عنوان تابع هدف در نظر گرفته می‌گیرد. ارزیابی روش پیشنهادی بر روی مجموعه داده‌های واقعی نشان داد که روش پیشنهادی به طور موثری قادر به کاهش قطر گراف سطح بالای حاصل از بخش‌بندی نسبت به سایر الگوریتم‌های بخش‌بندی متداول می‌باشد. به علاوه، یال برشی حاصل از روش پیشنهادی بسیار نزدیک به یکی از معروف‌ترین روش‌های بخش‌بندی متمرکز، متیس می‌باشد. از آنجا که قطر گراف سطح بالا رابطه مستقیمی با تعداد سوپراستپ‌های مورد نیاز در سیستم‌های پردازش گراف بلوکی دارد، روش پیشنهادی با کاهش آن قادر به افزایش کارایی این دسته از روش‌ها خواهد شد.

    کلیدواژگان: بخش بندی، مبتنی بر بلوک، گراف، قطر
  • نیلوفر طهماسبی پویا، مهدی آقا صرام صفحات 291-300

    محاسبات مه، حوزه تحقیقاتی نوظهوری برای ارایه خدمات محاسبات ابری به لبه‌های شبکه است. گره‌های مه جریان داده و درخواست‌های کاربر را در زمان واقعی پردازش می‌کنند. به منظور بهینه‌سازی بهره‌وری منابع و زمان پاسخ و افزایش سرعت و کارایی، وظایف باید به صورت متوازن بین گره‌های مه توزیع شوند، لذا در این مقاله، روشی جدید جهت بهبود توازن بار در محیط محاسبات مه پیشنهاد شده است. در الگوریتم پیشنهادی، هنگامی که وظیفه‌ای از طریق دستگاه‌های موبایل برای گره مه ارسال می‌شود، گره مه با استفاده از یادگیری تقویتی تصمیم می‌گیرد که آن وظیفه را خودش پردازش کند، یا این که پردازش آن را به یکی از گره‌های مه همسایه یا به ابر واگذار نماید. در بخش ارزیابی نشان داده شده که الگوریتم پیشنهادی با توزیع مناسب وظایف بین گره‌ها، تاخیر کمتری را برای اجرای وظایف نسبت به سایر روش‌های مقایسه‌شده به دست آورده است.

    کلیدواژگان: تاخیر، توازن بار، گره مه، یادگیری تقویتی، Q-Learning
  • مریم قاسمی، مرتضی خادمی، عباس ابراهیمی مقدم صفحات 301-310

    تصاویر ضبط‌شده در شرایط نوری ضعیف دارای روشنایی و وضوح پایین و نویز زیاد هستند، لذا برای بینایی انسان و ماشین نامناسب بوده و در عملکرد آنها تاثیرات منفی می‌گذارند. تحقیقات زیادی برای بهبود چنین تصاویری انجام شده است. روش‌های پیشنهادشده‌ برای حل این مسیله به میزان قابل توجهی این گونه تصاویر را بهبود می‌بخشند. یک دسته از این روش‌ها، روش‏های مبتنی بر رویکرد RETINEX هستند که باعث اصلاح تصاویر کم‌نور شده‌اند. اما از آنجا که ساختار اولیه این رویکرد پیچیده است و کارایی پایینی دارد، محققان روش‌های دیگری همچون SSR، MSR و MSRCR را برای رفع مشکل آن ارایه داده‌اند. این روش‌ها نیز به نوبه خود مشکلاتی همچون غیر طبیعی‌بودن تصاویر حاصل و تقویت نویز دارند. در این تحقیق با به دست آوردن مولفه روشنایی بهینه‌، استفاده از تبدیل غیر خطی و اعمال هموارسازی روی تصویر به عنوان مرحله پس‌پردازش، این نقاط ضعف تا حد زیادی رفع می‌شوند. با اعمال روش پیشنهادی، تصاویر پردازش‌شده ظاهری طبیعی‌تر داشته و اطلاعات آنها بیشتر حفظ شده است. برای ارزیابی روش پیشنهادی از معیارهای ذهنی و عینی همچون AFC2، IE، SSIM، PSNR و IMMSE استفاده شده است. نتایج شبیه‌سازی، نشان‌دهنده برتری روش پیشنهادی نسبت به روش‌های رقیب می‌باشد.

    کلیدواژگان: بهبود تصاویر کم نور، بهبود روشنایی و وضوح، تبدیل غیر خطی، روش های مبتنی بر رویکرد RETINEX
  • الهام زنگنه، هدی مشایخی، سعید قره چلو صفحات 311-318

    درک و تحلیل تغییرات داده‌های مکانی- زمانی در کاربرد‌های مختلف از جمله انجام اقدامات حفاظت و توسعه منابع طبیعی اهمیت زیادی دارد. در مطالعات گذشته، عمدتا از فرایند مارکوف و روش‌های مبتنی بر مقایسه جهت پیش‌بینی تغییرات شاخص‌های پوشش گیاهی استفاده گردیده که دقت آنها همچنان جای بهبود دارد. گرچه تحلیل‌های سری زمانی برای پیش‌بینی معدودی از شاخص‌‌ها مورد استفاده قرار گرفته است، اما روشی که این شاخص‌ها را از داده‌های سنجش از دور استخراج کرده و مدل‌سازی توالی آنها را با یادگیری عمیق انجام دهد، به ندرت مشاهده می‌شود. در این مقاله، روشی برای پیش‌بینی تغییرات شاخص‌های گیاهی مبتنی بر یادگیری عمیق ارایه می‌شود. داده‌های پژوهش شامل تصاویر ماهواره‌ای لندست از سال 2000 تا 2018، مربوط به چهار فصل سال در نواحی شمال و شرق شهرستان شاهرود در استان سمنان می‌باشند. گستره زمانی تصاویر استخراج‌شده، امکان پیش‌بینی تغییرات پوشش گیاهی را ممکن می‌سازند. شاخص‌های پوشش گیاهی استخراج‌شده از مجموعه داده، شامل NDVI، RVI و SAVI هستند. پس از انجام اصلاحات اتمسفری روی تصاویر، شاخص‌های مورد نظر استخراج شده و سپس داده‌ها به سری زمانی تبدیل می‌شوند. نهایتا مدل‌سازی توالی این داده‌ها توسط شبکه حافظه کوتاه- بلندمدت انجام می‌شود. نتایج حاصل از آزمایش‌ها نشان می‌دهند که شبکه عصبی قادر به پیش‌بینی مقادیر آینده با دقت بالا است. میزان خطای شبکه بدون وجود داده‌های اضافی برای شاخص NDVI برابر 03/0، شاخص SAVI برابر با 02/0 و شاخص RVI برابر با 06/0 گزارش می‌شود.

    کلیدواژگان: یادگیری عمیق، سری زمانی، سنجش از دور، شاخص پوشش گیاهی، مدل سازی توالی
  • سمانه امامی صفحات 319-326

    افزایش قابلیتهای مدارهای مجتمع و پیچیدگی برنامه های کاربردی، روش ها و ابزارهای طراحی سخت‌افزار را به سمت سطوح بالاتری از انتزاع سوق داده و سنتز سطح بالا، یکی از کلیدیترین گامها در افزایش سطح انتزاع می‌باشد. در سال‌های اخیر، تحقیقات گسترده‌ای برای طراحی ساختارهای قابل بازپیکربندی با هدف حساب دهدهی صورت گرفته است. از آنجا که از یک سو، استفاده موثر از این ساختارها وابسته به وجود الگوریتم‌ها و ابزارهای مناسب جهت پیادهسازی طراحی بر روی سختافزار بوده و از سوی دیگر، پژوهش در زمینه توسعه این دسته از الگوریتم‌ها بسیار اندک و محدود بوده است، در این مقاله روش‌هایی برای سنتز خودکار توصیف سطح بالا از مدارهای حسابی دهدهی بر روی یک معماری قابل بازپیکربندی درشتدانه ارایه خواهد شد. بستر سخت‌افزاری انتخاب‌شده، معماری قابل بازپیکربندی درشت‌دانه DARA بوده و روش‌های پیشنهادشده برای اختصاص منابع در جریان سنتز، شامل دو الگوریتم مکاشفه‌ای و ILP می‌باشند. نتایج به دست آمده نشان می‌دهند که مطابق انتظار، برای ابعاد محدود معماری مورد استفاده، الگوریتم ILP به میزان قابل توجهی (حدود 30%) بهتر از الگوریتم مکاشفه‌ای عمل می‌نماید.

    کلیدواژگان: سنتز سطح بالا، حساب دهدهی، معماریهای قابل بازپیکربندی درشتدانه، نگاشت روی سخت افزار، اختصاص منابع
  • سعید ترابی تربتی، مرتضی خادمی، عباس ابراهیمی مقدم صفحات 327-334

    نهان‌نگاری تصاویر، رویکرد جایگذاری اطلاعات در تصویر پوشش است. یکی از معیارهای ارزیابی یک روش نهان‌نگاری تصاویر، توانایی آن در حفظ شفافیت تصویر پوشش است. در واقع، جایگذاری اطلاعات پنهان باید به گونه‌ای باشد که کمترین تغییرات در شفافیت بین تصویر پوشش و تصویر نهان‌نگاری شده به وجود آید. میزان شفافیت تصویر خروجی به صورت عمده تحت تاثیر روش جایگذاری و میزان اطلاعات پنهان یا همان ظرفیت جایگذاری است. با این موضوع می‌توان به عنوان یک مسیله بهینه‌سازی برخورد کرد و تابع مد نظر برای بهینه‌سازی را شفافیت تصویر قرار داد. در روش پیشنهادی، تابع PSNR برای بهینه‌سازی انتخاب شده است. متغیرهای این تابع، نگاشت‌های اعمالی روی تصویر پوشش و اطلاعات پنهان و مکان جایگذاری اطلاعات در تصویر پوشش هستند. این متغیرها با ایجاد حالات مختلف جایگذاری، روی PSNR تصویر خروجی تاثیر می‌گذارند. توسط الگوریتم ژنتیک و استفاده از دو مفهوم جستجوی هدفمند و جستجوی بدون هدف، محل و حالت مناسب برای جایگذاری اطلاعات در کم‏ارزش‌ترین بیت‌های تصویر پوشش شناسایی می‌شوند. در این روش، بازیابی اطلاعات پنهان به صورت کامل و بدون خطا صورت می‌گیرد. این کار توسط کلید نهایی تولیدشده توسط الگوریتم ژنتیک یا همان کروموزومی که منجر به نهان‌نگاری شده است، صورت می‌گیرد. این ویژگی در سیستم‌های مدیریتی و شبکه‌های ابری که برای ذخیره‏سازی اطلاعات از نهان‌نگاری استفاده می‌کنند، مهم است. نهایتا روش پیشنهادی مورد آزمایش قرار گرفته و نتایج آن با روش‌های دیگر در همین حوزه مقایسه شده است. نتایج حاصل از آزمایش‌ها با معیارهای PSNR و همچنین مقادیر بالاتر از 99/0 در معیار SSIM، افزایش شفافیت در روش ارایه‌شده نسبت به رقیبان و همچنین روش LSB ساده را نشان می‌دهند. نتایج به دست آمده از بررسی معیار عینی NIQE و هیستوگرام، تغییرات اندک تصویر نهان‌نگاری شده را نسبت به تصویر اصلی نشان می‌دهند. بهبود در نتایج آزمایش به علت استفاده هم‌زمان نگاشت روی اطلاعات پنهان و تصویر پوشش، معرفی نگاشت جدید انتقال ناحیه‌ای و استفاده از دو نوع جهش و ترکیب در ساختار الگوریتم ژنتیک است.

    کلیدواژگان: الگوریتم ژنتیک، تطابق LSB، شفافیت، ظرفیت جایگذاری، نهان نگاری تصویر
|
  • Entesar Hosseini, Mohsen Nickray Pages 257-270

    Mobile edge computing (MEC) are new issues to improve latency, capacity and available resources in Mobile cloud computing (MCC). Mobile resources, including battery and CPU, have limited capacity. So enabling computation-intensive and latency-critical applications are important issue in MEC. In this paper, we use a standard three-level system model of mobile devices, edge and cloud, and propose two offloading and scheduling algorithms. A decision-making algorithm for offloading tasks is based on the greedy Knapsack offloading algorithm (GKOA) on the mobile device side, which selects tasks with high power consumption for offloading and it saves energy consumption of the device. On the MEC side, we also present a dynamic scheduling algorithm with fuzzy-based priority task scheduling (FPTS) for prioritizing and scheduling tasks based on two criteria. Numerical results show that our proposed work compared to other methods and reduces the waiting time, latency and system overhead. Also, provides the balance of the system with the least number of resources. And the proposed system reduces battery consumption in the smart device by up to 90%. The results show that more than 92% of tasks are executed successfully in the edge environment.

    Keywords: Mobile edge calculations, scheduling, greedy, fuzzy, energy consumption, waiting time
  • Azar Rafiei, Parham Moradi, Abdolbaghi Ghaderzadeh Pages 271-281

    Multi-label classification is one of the important issues in machine learning. The efficiency of multi-label classification algorithms decreases drastically with increasing problem dimensions. Feature selection is one of the main solutions for dimension reduction in multi-label problems. Multi-label feature selection is one of the NP solutions, and so far, a number of solutions based on collective intelligence and evolutionary algorithms have been proposed for it. Increasing the dimensions of the problem leads to an increase in the search space and consequently to a decrease in efficiency and also a decrease in the speed of convergence of these algorithms. In this paper, a hybrid collective intelligence solution based on a binary particle swarm optimization algorithm and local search strategy for multi-label feature selection is presented. To increase the speed of convergence, in the local search strategy, the features are divided into two categories based on the degree of extension and the degree of connection with the output of the problem. The first category consists of features that are very similar to the problem class and less similar to other features, and the second category is similar features and less related. Therefore, a local operator is added to the particle swarm optimization algorithm, which leads to the reduction of irrelevant features and extensions of each solution. Applying this operator leads to an increase in the convergence speed of the proposed algorithm compared to other algorithms presented in this field. The performance of the proposed method has been compared with the most well-known feature selection methods on different datasets. The results of the experiments showed that the proposed method has a good performance in terms of accuracy.

    Keywords: Multi-label classification, feature selection, swarm intelligence local search strategy, particle swarm optimization
  • Masoud Sagharichian, Morteza Alipour Langouri Pages 282-290

    Block-centric graph processing systems have received significant attention in recent years. To produce the required partitions, most of these systems use general-purpose partitioning methods. As a result, the performance of them has been limited. To face this problem, special partitioning algorithms have been proposed by researchers. However, these methods focused on traditional partitioning measures like the number of cutting-edges and the load-balance. In return, the power of block-centric graph processing systems is due to unique characteristics that are focused on the design of them. According to basic and important characteristics of these systems, in this paper two new measures are proposed as partitioning goals. To the best of our knowledge, the proposed method is the first work that considers the diameter and size of the high-level graph as optimization factors for partitioning purposes. The evaluation of the proposed method over real graphs showed that we could significantly reduce the diameter of the high-level graph. Moreover, the number of cutting-edges of the proposed method are very close to Metis, one of most popular centralized partitioning methods. Since the number of required supersteps in block-centric graph processing systems mainly depends on the diameter of the high-level graph, the proposed method can significantly improve the performance of these systems.

    Keywords: Partitioning, block-centric, graph, diameter
  • niloofar tahmasebi pouya, Mehdi-Agha Sarram Pages 291-300

    Fog computing is an emerging research field for providing cloud computing services to the edges of the network. Fog nodes process data stream and user requests in real-time. In order to optimize resource efficiency and response time, increase speed and performance, tasks must be evenly distributed among the fog nodes. Therefore, in this paper, a new method is proposed to improve the load balancing in the fog computing environment. In the proposed algorithm, when a task is sent to the fog node via mobile devices, the fog node using reinforcement learning decides to process that task itself, or assign it to one of the neighbor fog nodes or cloud for processing. The evaluation shows that the proposed algorithm, with proper distribution of tasks between nodes, has less delay to tasks processing than other compared methods.

    Keywords: Delay, fog node, load balancing, Q-learning, reinforcement learning
  • maryam ghasemi, Morteza Khademi, Abbas Ebrahimi moghadam Pages 301-310

    Images captured in low light conditions are unsuitable for human and machine vision due to low brightness and sharpness and high noise, and have a negative effect on their performance. Much research has been done to improve such images. The methods proposed so far to solve this problem greatly improve such images. One of these methods is the RETINEX-based method, which modifies low-light images, but because the initial structure of this method is complex and inefficient, researchers have developed other methods such as SSR, MSR, and MSRCR. To solve the problem, they have presented this approach. These methods, in turn, have problems such as abnormal images and amplification of noise. In the continuation of the work done, the field of optimization has been used, which shows better performance than the previous works. In this research, by obtaining the optimal brightness component, using nonlinear conversion and applying smoothing filter and reducing noise on the image as a post-processing step, these weaknesses are largely eliminated. By applying the proposed method, the resulting images look more natural and their information is more preserved. Subjective and objective criteria such as EI, SSIM, PSNR and IMMSE were used to evaluate the proposed method. The simulation results show the superiority of the proposed method over the competing methods.

    Keywords: Improved dim images, improved brightness, sharpness, nonlinear conversion, RETINEX-based methods
  • Elham Zangeneh, H. Mashayekhi, Saeed Gharachelo Pages 311-318

    Understanding and analyzing spatial-temporal data changes is very important in various applications, including the protection and development of natural resources. In the past studies, Markov process and comparison-based methods were mainly used to predict the changes of vegetation indices, whose accuracy still needs improvement. Although time series analysis has been used to predict some indices, the method to extract these indices from remote sensing data and model their sequences with deep learning is rarely observed. In this article, a method for predicting changes in plant indices based on deep learning is presented. The research data includes Landsat satellite images from 2000 to 2018, related to four seasons in the north and east of Shahrood city in Semnan province. The time span of the extracted images makes it possible to predict changes in vegetation cover. Vegetation indices extracted from the data set are NDVI, SAVI and RVI. After performing atmospheric corrections on the images, the desired indicators are extracted and then the data is converted into a time series. Finally, the modeling of the sequence of these data is performed by the Short-Long-Term Memory (LSTM) network. The results of the experiments show that the deep network is able to predict future values with high accuracy. The amount of the model error without additional data is 0.03 for the NDVI index, 0.02 for the SAVI index, and 0.06 for the RVI index.

    Keywords: Deep learning, time series, remote sensing, vegetation index, sequence modeling
  • Samaneh Emami Pages 319-326

    The increasing capabilities of integrated circuits and the complexity of applications have led hardware design methods and tools to higher levels of abstraction and high-level synthesis is one of the key steps in increasing the level of abstraction. In recent years, extensive research has been conducted on the design of decimal arithmetic reconfigurable architectures. Since, on the one hand, the effective use of these architectures depends on the existence of appropriate algorithms and tools to implement the design on the hardware, and on the other hand, research on the development of these algorithms has been very limited, this paper will present methods for the automated synthesis of decimal arithmetic circuits on a coarse-grained reconfigurable architecture. The platform chosen to execute the proposed algorithms is the DARA coarse-grained reconfigurable architecture, which is optimized for decimal arithmetic. The algorithms proposed for resource allocation of synthesis include a heuristic method and an ILP algorithm. The results show that, as expected, for the limited architectural dimensions used, the ILP algorithm performs significantly (about 30%) better than the heuristic algorithm.

    Keywords: High-level synthesis, decimal arithmetic, coarse grain reconfigurable architecture, hardware mapping, resource allocation
  • Saeed TorabiTorbati Pages 327-334

    One of the evaluation methods for image steganography is preserving cover image quality and algorithm imperceptibility. Placing hidden information should be done in such a way that there is minimal change in quality between the cover image and the coded image (stego image). The quality of the stego image is mainly influenced by the replacement method and the amount of hidden information or the replacement capacity. This can be treated as an optimization problem and a quality function can be considered for optimization. The variables of this function are the mappings applied to the cover image and the hidden information and location of the information. In the proposed method, by genetic algorithm and using the two concepts of targeted search and aimless search, the appropriate location and state for placement in the least significant bits of the cover image are identified. In this method, hidden information can be extracted completely and without error. This feature is important for management systems and cloud networks that use steganography to store information. Finally, the proposed method is tested and the results are compared with other methods in this field. The proposed method, in addition to maintaining the stego image quality, which is optimized based on PSNR, has also shown good performance in examining histogram and NIQE statistical criteria.

    Keywords: Image steganography, LSB matching, genetic algorithm, capacity, quality, imperceptibility