compression
در نشریات گروه برق-
تصاویر ابرطیفی به دلیل اکتساب همزمان داده ها در بیش از صدها باند طیفی باریک و نزدیک به هم ، همبستگی بین باندی و حجم بسیار بالایی دارند لذا نیاز به فشرده سازی دارند. یکی از روش های با اتلاف روش مبتنی بر برازش خم است که از امضای طیفی تصویر به جهت کاهش ویژگی استفاده می کند و نتایج بسیار خوبی را در مقابل با روش های قبلی مانند PCA به همراه داشته است، اما در فشرده سازی با استفاده از این روش، منحنی امضای طیفی تقریب زده شده در برخی نقاط دارای اعوجاج است که در این مقاله سعی شده تا با استفاده از پیدا کردن نقاط دارای اعوجاج و بازه بندی امضای طیفی و برازش خم روی هر بازه و یا استفاده از یک فیلتر هموار ساز Savitsky-Golay و یا با ترکیب هر دو پیشنهاد، اعوجاج را از بین برده و نیز میزان PSNR را افزایش داد تا کیفیت تصویر باز یابی شده به تصویر اصلی خیلی نزدیک گردد.
کلید واژگان: تصاویر ابرطیفی، فشرده سازی، برازش خم، حداقل مربعات خطا، فیلتر هموار سازSavitsky - GolayHyperspectral images due to simultaneous acquisition of data in more than hundreds narrow and close spectral bands, have a very high correlation bandwidth. Hence, in order to store in less storage space, higher transmission speed and less bandwidth, they need compression. Various lossless and lossy methods for compression are exist, that can be in the spatial domain or in the spectrum domain. But, regard to the importance of spectral information of hyperspectral images in remote sensing, this compression should be done by this condition that the spectral information of this kind of images is well preserved. Compression methods can be based on either the predictive function or using of a codebook, to compress information. Data compression can also be done based on transformation coding, which these transformations can be cosine functions (DCTs), wavelet functions (DWTs), or principal component analysis (PCAs). Of course, PCA-based compression is one of the most effective ways to eliminate image correlations and reduce their volume. Another extension is the method of using curve fitting, which is applied exclusively to compress hyperspectral images due to its effect on the image spectrum. This method uses the spectral signature of the each pixel of image to reduce the feature by finding the closest approximation function to express the curve and storing its coefficients as a new feature for reconstruction compressed data. By replacing these coefficients in the equation of approximation, spectrum reflection curve for each pixel can be reconstructed. This method has very good results in comparison with previous methods such as PCA, but in compression using this method, the SRC curve has been approximated in some points with distortion. In this paper, we tried to eliminate these distortions, by finding points which have distortion and Breakdown the SCR. On the other hand, by using the Savitsky-Golay smoothing filter we can also reduce distortion and increase the PSNR. Another way to eliminate or reduce this distortion described in this article is as follow: At the first the spectral signature of each pixel of the intended data is smoothed by a Savitsky-Golay smoothing filter and then by using a particular method is divided into adjoining adjacent spaces and then a curve is plotted for each slice of data. By choosing the best degree and window length for smoothing and selecting the best degree of numerator and denominator of function, the coefficients of the selected rational function are considered as new features of the image. By using the proposed method, in addition to eliminating the distortion, the PSNR level is became much higher and the reconstructed image quality is very close to the original image.
Keywords: Compression, Curve Fitting, Hyperspectral, Least Square, Savitsky-Golay Filter -
Deep convolutional neural networks (CNNs) have attained remarkable success in numerous visual recognition tasks. There are two challenges when adopting CNNs in real-world applications: a) Existing CNNs are computationally expensive and memory intensive, impeding their use in edge computing; b) there is no standard methodology for designing the CNN architecture for the intended problem. Network pruning/compression has emerged as a research direction to address the first challenge, and it has proven to moderate CNN computational load successfully. For the second challenge, various evolutionary algorithms have been proposed thus far. The algorithm proposed in this paper can be viewed as a solution to both challenges. Instead of using constant predefined criteria to evaluate the filters of CNN layers, the proposed algorithm establishes evaluation criteria in online manner during network training based on the combination of each filter’s profit in its layer and the next layer. In addition, the novel method suggested that it inserts new filters into the CNN layers. The proposed algorithm is not simply a pruning strategy but determines the optimal number of filters. Training on multiple CNN architectures allows us to demonstrate the efficacy of our approach empirically. Compared to current pruning algorithms, our algorithm yields a network with a remarkable prune ratio and accuracy. Despite the relatively high computational cost of an epoch in the proposed algorithm in pruning, altogether it achieves the resultant network faster than other algorithms.
Keywords: Convolutional Neural Network (CNN), Adaptive Architecture, Pruning, Compression -
در این مقاله، مسئله پنهان نگاری تصاویر محرمانه بررسی شده است. الگوریتم های موجود به دلیل عدم توجه به ساختار و خصوصیات داده های تصویری کارایی پایینی دارند. همچنین این الگوریتم ها معمولا تصاویر محرمانه را با اتلاف جاسازی می کنند. با توجه به مشکلات روش های موجود، الگوریتمی کارا به نام Lossless and High Capacity Image Steganography (LHCIS) ارایه کرده ایم که تصویر محرمانه را بدون اتلاف در تصویر پوشانه جاسازی می نماید. الگوریتم پیشنهادی شامل فشرده سازی تصویر محرمانه و جاسازی تصویر فشرده شده در تصویر پوشانه توسط الگوریتم LSB است. فشرده سازی در دو مرحله انجام می شود. در مرحله اول، تصویر تفاضل متناظر با تصویر محرمانه ساخته می شود. این تصویر نشان دهنده میزان تغییرات در پیکسل های مجاور در تصویر محرمانه بوده و از تفاضل پیکسل های متوالی آن حاصل می شود. در مرحله بعدی، تصویر تفاضل به دست آمده کد می شود تا حجم آن کاهش یابد. با توجه به اینکه مقادیر پیکسل های تصویر تفاضل کوچک هستند، میزان فشرده سازی قابل توجه خواهد بود. براساس نتایج شبیه سازی، الگوریتم LHCIS ظرفیت جاسازی را %40 و مقدار PSNR تصاویر میزبان - که از جاسازی تصویر محرمانه در تصویر پوشانه حاصل می شود - را 2/16 واحد نسبت به روش های پیشین افزایش داده است.
کلید واژگان: پنهان نگاری، تصویر محرمانه، تصویر پوشانه، تصویر میزبان، ظرفیت جاسازی، فشرده سازی، بدون اتلافJournal of Iranian Association of Electrical and Electronics Engineers, Volume:18 Issue: 3, 2021, PP 89 -100This paper investigates the problem of image steganography. The existing algorithms provide low performance due to disregarding the structure and properties of images. Furthermore, most of these schemes are lossy. Considering the shortcomings of the previous algorithms, we propose an effective algorithm, namely Lossless and High Capacity Image Steganography (LHCIS), which embeds the secret image into the cover image losslessly. The proposed scheme comprises secret image compression and embedding the compressed image into the cover image using the LSB algorithm. The compression procedure includes two phases. The first phase constructs the corresponding difference image to the given secret image. The mentioned image represents the variations of the adjacent pixels of the secret one. Each pixel of this image is derived by subtracting its corresponding pixel in the secret image from the adjacent one. The difference image is encoded to reduce its storage space in the second phase. The compression ratio is high due to the small values of the pixels of the difference image. According to the performed simulations, LHCIS increases the embedding capacity by 40%. Furthermore, it improves the PSNR of the stego image by 2.16 in comparison to the previous algorithms.
Keywords: Steganography, Secret image, Cover image, Stego image, Embedding capacity, Compression, Lossless -
مصرف توان نمایشگرهای سیار لپ تاپ ها، تبلت ها و تلفن های همراه، با توجه به محدود بودن ظرفیت باتری آن ها، یکی از مشکلاتی است که کاربران این دستگاه ها با آن رو به رو هستند. برخی از فن آوری های نوین سخت افزاری مانند مقیاس بندی پویای ولتاژ و فرکانس (DVFS) در بعضی موارد باعث کاهش مصرف این نمایشگرها شده اند، ولی هنوز هم مشکلات زیادی در زمینهDVFS وجود دارد. استاندارد کدگذاری ویدیویی با کارآیی بالا موسوم به کدگذاری تصویری با کارایی بالا (HEVC) آخرین و بهترین روش فشرده سازی ویدیو است که در زمان تصویربرداری و نمایش ویدیو با کیفیت بالا برای فرمت هایی مانند 4K و 8K استفاده می شود. با تمام مزیت هایی که HEVC دارد، یکی از عیوب آن مصرف توان بالا در زمان رمزکردن و کشف رمز ویدیو است که باید با ارایه ی راه کارهایی آن را به حداقل رساند. در این مقاله، آخرین روش ها در زمینه ی کاهش مصرف توان در نمایشگرهای سیار مورد بررسی و مقایسه قرار گرفته است و پیشنهاد هایی برای بهبود آن ارایه شده است. کاهش مصرف توان در این روش ها گاهی تا 20 nj/px برای فرمت های ویدیو نیز می رسد.
کلید واژگان: مصرف توان، فشرده سازی، HEVC، ظرفیت باتریPower consumption of mobile screens of laptops, tablets and mobile phones, due to their limited battery capacity, is one of the problems that users of these devices face. Some new hardware technologies, such as dynamic voltage and frequency scaling (DVFS), have reduced the consumption of these displays in some cases, but there are still many problems with DVFS. The High Efficiency Video Coding (HEVC) Standard is the latest and most useful video compression method used for high quality video capture and display in formats such as 4K and 8K. With all the advantages of HEVC, one of its disadvantages is the high power consumption when encrypting and decrypting videos, which should be minimized by providing solutions. In this paper, the latest methods in reducing power consumption in mobile monitors are reviewed and compared, and suggestions for its improvement are presented. Reducing power consumption in these methods sometimes reaches to 20 nj/px for video formats.
Keywords: Power Consumption, Compression, HEVC, Battery Capacity -
در این پژوهش به دنبال ارتقای یکی از الگوریتم های کارامد در یادگیری ماشین، به نام جنگل تصادفی هستیم. برای این منظور از تکنیک های فشرده سازی و موازی سازی بهره می بریم. چالش اساسی مورد توجه در این پژوهش، در رابطه با به کارگیری جنگل تصادفی در پردازش و تحلیل داده های حجیم می باشد. در چنین مواردی، این الگوریتم به دلیل مراجعات پرشمار به حافظه، کارایی معمول و مورد نیاز را ندارد. این پژوهش نشان می دهد که چگونه می توان با به کارگیری یک شیوه فشرده سازی ابتکاری، در کنار تکنیک های موازی سازی به هدف مورد نظر دست یافت. در این رابطه، اجزای مشترک درختان در جنگل تصادفی با یکدیگر به اشتراک گذاشته می شوند. علاوه بر این، روش موازی سازی مبتنی بر دستورات برداری سازی به همراه روش موازی سازی مبتنی بر حافظه اشتراکی در جریان پردازش داده ها به کار می روند. به منظور ارزیابی عملکرد روش پیشنهادی، آن را بر روی مجموعه داده های محک Kaggle که در رقابت های مربوط به الگوریتم های یادگیری به وفور به کار می روند، اجرا نمودیم. نتایج به دست آمده حاکی از آن است که به کارگیری روش فشرده سازی پیشنهادی، 66 درصد بهبود در سرعت پردازش داده ها به دنبال داشته است. همچنین به کارگیری فشرده سازی به همراه موازی سازی یادشده، 96 درصد بهبود را به همراه داشته است. به طور کلی نتایج آزمایشی و تحلیل ها دلالت بر این دارند که راهکارهای پیشنهادی، قدمی موثر در راستای رسیدن به رایانش سریع برای جنگل تصادفی در اختیار می گذارد.
کلید واژگان: یادگیری ماشین، جنگل تصادفی، رایانش سریع، فشرده سازی، موازی سازی، داده حجیمThis research seeks to promote one of the widely being used algorithms in machine learning, known as the random forest algorithm. For this purpose, we use compression and parallelization techniques. The main challenge we address in this research is about application of the random forest algorithm in processing and analyzing big data. In such cases, this algorithm does not show the usual and required performance, due to the needed large number of memory access. This research demonstrates how we can achieve the desired goal by using an innovative compression method, along with parallelization techniques. In this regard, the same components of the trees in the random forest are combined and shared. Also, a vectorization-based parallelization approach, along with a shared-memory-based parallelization method, are used in the processing phase. In order to evaluate its performance, we run it on the Kaggle benchmarks, which are being used widely in machine learning competitions. The experimental results show that contribution of the proposed compression method, could reduce 61% of the required processing time; meanwhile, application of the compression along with the named parallelization methods could lead to about 95% of improvement. Overall, this research implies that the proposed solution can provide an effective step toward high performance computing.
Keywords: Machine learning, Random forest, High Performance Computing, Compression, Parallelization, Big Data -
Scientia Iranica, Volume:27 Issue: 4, Jul Aug 2020, PP 1685 -1698
presented in this paper. The confinement and composite action between the constituent materials result in enhanced compressive strength and ductility of the proposed composite columns compared to traditional reinforced concrete columns. Advantages of FRP products in comparison with other materials include light weight, high specific strength, corrosion resistance, and low maintenance cost. This research showed that pultruded GFRP I-shapes can improve the structural performance of the concrete columns satisfactorily. The effectiveness of discrete and continuous CFRP wrapping arrangements for pultrusion–concrete composite short column subjected to axial compressive loading is assessed in this study. The experimental program is composed of one series of composite columns with discrete wrapping arrangements and one series of full wrapped composite columns. A numerical model was developed to predict the behavior of the FRP-confined composite columns subjected to axial compressive loading. The damage mechanisms of the columns wrapped by the composite layers strongly depend on the chosen materials. The results of finite element models are compared with the data obtained from the carried out experimental program and this comparison showed a good agreement exists between those.
Keywords: column, Composite, concrete, CFRP, Pultrusion, Compression, Cyclic -
رویکرد چندی سازی بلوکی تطبیق پذیر یا همان BAQ، یک رویکرد متداول جهت فشرده سازی داده های خام رادار دهانه مصنوعی (سار) محسوب می شود. در سامانه های تصویربرداری راداری، به ویژه سار فضاپایه، به دلیل حجم بالای داده اخذ شده برای هر ناحیه ی مورد تصویربرداری، ذخیره سازی یا ارسال داده خام از طریق لینک داده چالش بزرگی به حساب می آید. لذا در این سامانه ها با فشرده سازی داده خام، پهنای باند لینک داده یا حجم حافظه مورد نیاز برای ذخیره سازی آن به صورت موثر کاهش می یابد. در مسیر توسعه دانش فنی سار فضاپایه در کشور، طراحی و به کارگیری الگوریتم های فشرده سازی داده خام سار در پژوهشکده مکانیک توسعه یافته است. به منظور ارزیابی و تحلیل کارآیی این روش ها، از داده خام عملی رادار ISRCSAR که در پژوهشکده مکانیک طراحی و ساخته شده، استفاده گردیده است. از مهم ترین ایده هایی که در این مقاله بدان پرداخته می شود انتخاب نرخ بیت تطبیقی BAQ در فشرده سازی داده خام سار و همچنین اثر این گزینش نرخ بیت در کیفیت تصویر تشکیل شده توسط داده فشرده شده می باشد. جهت مقایسه تصاویر حاصله ناشی از نرخ بیت های متفاوت BAQ، از معیار PSNR و ارزیابی های بصری بر روی تصویر ناشی از داده خام غیر فشرده و داده خام فشرده شده استفاده گردیده است. نتایج این مقایسه کارآیی بالای رویکرد ارایه شده را نشان می دهد.کلید واژگان: رادار دهانه مصنوعی، فشرده سازی، داده خام، چندی سازی بلوکی تطبیق پذیر، تشکیل تصویر سارJournal of “Radar”, Volume:7 Issue: 2, 2020, PP 99 -109The Adaptive Block Quantization approach, or BAQ, is a common approach to compress synthetic aperture Radar raw data. Radar imaging systems, especially spaceborne SAR system, exploit large bandwidth and high sampling rate, resulting in a large bitstream to be handled. This leads to a major challenge due to the high volume of data obtained for each area being imaged, storing or sending raw data through a data link. Therefore, by using “raw data compression”, data link bandwidth and the needed memory capacity can be reduced effectively. In the course of developing the technical knowledge of spaceborne SAR systems in the country, the design and implementation of SAR raw data compression algorithms has been developed in the Institute of Mechanics. In order to evaluate and analyze the efficiency of these methods, the SAR raw data of a SAR system developed by the Institute of Mechanics were used. One of the most important issues discussed in this paper is the adaptive selection of the BAQ rate in the raw data compression as well as the effect of this bit rate selection on the quality of image which is formed by the compressed data. To compare the resulting images from different BAQ bit rates, the PSNR criterion and visual evaluations of the resulting images are used. The results of this comparison indicate the high performance of the proposed approach.Keywords: Synthetic aperture Radar, compression, Raw Data, Block Adaptive Quantization, image formation
-
تحلیل توالی های ژنی نقطه شروع درک عملکرد ارگانیسم های بیولوژیکی است. در سال های اخیر، هزینه های توالی برداری ژن به شدت کاهش یافته است و مقدار زیادی از داده های ژنومی درحال تولید هستند. ازطرفی، هزینه حافظه ذخیره سازی، پردازش و انتقال این داده ها درحال افزایش است. پردازش این حجم عظیم اطلاعات بیشتر توسط روش های کاراکتر مبنا صورت می گیرد که زمان بر است. ظرفیت های بالقوه فراوانی برای مقابله با این چالش ها در حوزه پردازش سیگنال وجود دارد. بنابراین، نگاه سیگنالی به دنباله های ژنی، پردازش سیگنال ژنوم و فشرده سازی آن می تواند مفید واقع شود. فشرده سازی سیگنال ها هزینه برای آنالیز، فضای حافظه برای ذخیره سازی، پهنای باند برای مبادله و زمان مورد نیاز برای تحلیل را کاهش می دهد. در این مقاله ابتدا دنباله های ژنی کاراکتری به صورت سیگنالی بیان شدند. سپس، سیگنال های ژنومی حاصل توسط روش حسگری فشرده مبتنی بر یادگیری بیزین فشرده سازی شدند. توانایی روش در بازسازی سیگنال های فشرده شده با استفاده از معیارهای PRD و NMSE مورد بررسی قرار گرفت. سپس به منظور مقایسه و بررسی مشابهت دنباله ها، درختچه فیلوژنتیک از روی سیگنال های فشرده شده با نرخ 75% رسم شد. نتایج نشان دادندکه مقایسه دنباله ها با روش سیگنال مبنا با صرف زمان بسیار کمتر 2853/1 ثانیه در مقایسه با روش کاراکتر مبنا با زمان 126 ثانیه صورت می گیرد.
کلید واژگان: توالی ژن فشرده سازی، حسگری فشرده، پردازش سیگنال ژنوم، یادگیری بیزین، درختچه فیلوژنتیکThe analysis of gene sequences is fundamentally important for exploring biological functions. Recently, the cost of gene sequencing has dropped sharply, thereby resulting in the production of considerable genomic data. However, the costs of saving, processing, and transferring these data are rising. At present, processing this massive volume of information is done by character based method which is highly time - consuming. Alternative methods challenge these problems in the realm of signal processing. Accordingly, the signal outlook to the genome, signal processing of the genome and compression of the genome are presently hot issues which are practically in demand. Compression reduces the cost, memory space, bandwidth for exchange, and the time required for analysis. In this study, the character genes were firstly represented as signals. Then, these genomic signals were compressed by compressed sensing. Consequently, they were reconstructed by bayesian learning method. Adopted criteria for reconstruction were PRD and NMSE, respectively. Then, signals were selected with a compression rate of 75% for comparison. Meanwhile, the same cluster analysis was run with character based method. The results indicated that the time needed for signal based method was considerably lower than the character based method.
Keywords: Gene sequence, Compression, Compressed sensing, Genomic signal processing, Bayesian learning, Phylogenetic tree -
سیگنال های الکترومایوگرام (EMG) ابزار مفیدی در ارزیابی رفتار ماهیچه بوده و کاربردهای کلینیکی بسیاری دارند. امروزه تمایل زیادی به انتقال و ذخیره طولانی مدت این سیگنال ها وجود دارد. این مطلب اهمیت ذخیره سازی موثر این سیگنال ها را نشان می دهد. در این مقاله یک روش فشرده سازی سیگنال های الکترومایوگرام مبتنی بر تقریب به کمک تجزیه حالت تجربی (EMD)، هموارسازی به کمک تبدیل DCT، دوبعدی سازی، تبدیل موجک و کدگذاری SPIHT پیشنهاد شده است. نقش روش EMD، تقریب و هموارسازی نسبی سیگنال و نیز فراهم آوردن قابلیت کنترل کیفیت سیگنال فشرده شده است. تبدیل DCT نیز به منظور هموارسازی سیگنال EMG و افزایش کارایی فشرده سازی استفاده شده است. سیگنال هموارشده، پس از دوبعدی سازی، به کمک تبدیل موجک و کدگذاری SPIHT فشرده می شود. روش پیشنهادی به کمک برخی معیارهای قدرت فشرده سازی (PRD و CF) و معیارهای قدرت حفظ اطلاعات کلینیکی (شامل چهار پارامتر طیفی) ارزیابی شده است.کلید واژگان: فشرده سازی، تجزیه حالت تجربی (EMD)، هموارسازی سیگنال، تبدیل DCT، دوبعدی سازی، تبدیل موجک، کدگذار SPIHTElectromyogram (EMG) signals are useful in muscle behavior assessment and have some clinical applications. Today, there is a great tendency to transmit and store long-term EMG recordings which implies the importance of EMG signal compression. In this paper, we have proposed an EMG signal compression approach based on Empirical-Mode-Decomposition-based signal approximation, Discrete-Cosine-Transform-based signal smoothing, two-dimensional signal processing, wavelet transform, and SPIHT coding. We have evaluated the compression performance of the proposed approach by two sets of measures: The compression throughput and clinical-information-preserving measures. The former include two measures of PRD and CF while the latter uses four spectral parameters as the appropriate measures.Keywords: Compression, empirical mode decomposition (EMD), signal smoothing, discrete cosine transform (DCT), two-dimensional signal processing, wavelet transform, set partitioning in hierarchical trees (SPIHT) coding
-
تحلیل توالی های ژنی نقطه شروع درک عملکرد ارگانیسم های بیولوژیکی است. در سال های اخیر، هزینه های توالی برداری ژن به شدت کاهش یافته است و مقدار زیادی از داده های ژنومی درحال تولید هستند. ازطرفی، هزینه حافظه ذخیره سازی، پردازش و انتقال این داده ها درحال افزایش است. پردازش این حجم عظیم اطلاعات بیشتر توسط روش های کاراکتر مبنا صورت می گیرد که زمان بر است. ظرفیت های بالقوه فراوانی برای مقابله با این چالش ها در حوزه پردازش سیگنال وجود دارد. بنابراین، نگاه سیگنالی به دنباله های ژنی، پردازش سیگنال ژنوم و فشرده سازی آن می تواند مفید واقع شود. فشرده سازی سیگنال ها هزینه برای آنالیز، فضای حافظه برای ذخیره سازی، پهنای باند برای مبادله و زمان مورد نیاز برای تحلیل را کاهش می دهد. در این مقاله ابتدا دنباله های ژنی کاراکتری به صورت سیگنالی بیان شدند. سپس، سیگنال های ژنومی حاصل توسط روش حسگری فشرده مبتنی بر یادگیری بیزین فشرده سازی شدند. توانایی روش در بازسازی سیگنال های فشرده شده با استفاده از معیارهای PRD و NMSE مورد بررسی قرار گرفت. سپس به منظور مقایسه و بررسی مشابهت دنباله ها، درختچه فیلوژنتیک از روی سیگنال های فشرده شده با نرخ 75% رسم شد. نتایج نشان دادندکه مقایسه دنباله ها با روش سیگنال مبنا با صرف زمان بسیار کمتر 1.2853 ثانیه در مقایسه با روش کاراکتر مبنا با زمان 126 ثانیه صورت می گیرد.کلید واژگان: توالی ژن، فشرده سازی، حسگری فشرده، پردازش سیگنال ژنوم، یادگیری بیزین، درختچه فیلوژنتیکThe analysis of gene sequences is fundamentally important for exploring biological functions. Recently, the cost of gene sequencing has dropped sharply, thereby resulting in the production of considerable genomic data. However, the costs of saving, processing, and transferring these data are rising. At present, processing this massive volume of information is done by character based method which is highly time - consuming. Alternative methods challenge these problems in the realm of signal processing. Accordingly, the signal outlook to the genome, signal processing of the genome and compression of the genome are presently hot issues which are practically in demand. Compression reduces the cost, memory space, bandwidth for exchange, and the time required for analysis. In this study, the character genes were firstly represented as signals. Then, these genomic signals were compressed by compressed sensing. Consequently, they were reconstructed by bayesian learning method. Adopted criteria for reconstruction were PRD and NMSE, respectively. Then, signals were selected with a compression rate of 75% for comparison. Meanwhile, the same cluster analysis was run with character based method. The results indicated that the time needed for signal based method was considerably lower than the character based method.Keywords: Gene sequence, Compression, Compressed sensing, Genomic signal processing, Bayesian learning, Phylogenetic tree
-
In this paper, we investigate the evolution of supercontinuum and femtosecond optical pulses generation through square lattice elliptical-core photonic crystal fiber (PCF) at 1550 nm by using both full-vector multipole method (M.P.M) and novel concrete algorithms: symmetric split-step Fourier (SSF) and fourth order Runge Kutta (RK4) which is an accurate method to solve the general nonlinear Schrodinger equation (GNLSE). We propose a novel square lattice PCF structure featuring a minimum anomalous group velocity dispersion (GVD), nearly zero third-order dispersion (TOD) and enhanced nonlinearity for efficient solitoneffect compression of femtosecond optical pulses and supercontinuum generation(SCG) with lowest input pulse energies over discrete distances of the fiber.Keywords: Multipole, Photonic, Soliton, Compression, Supercontinuum, Dispersion
-
در این تحقیق فیلتر جدیدی برای بهینه سازی تصویر در حوزه ی زمان فرکانس ارائه می شود. آستانه گذاری سخت و نرم1 از قدیمی ترین و معمول ترین روش ها در کاهش نویز می باشند. براساس این روش ها، با اعمال تبدیل های گوناگون بر سیگنال، ضرایب کوچک دنباله ها متعلق به نویز فرض شده و حذف می گردد. سپس از ضرایب باقیمانده، تصویر بازسازی می شود. در مطالعات اخیر، استفاده از ویولت به عنوان تبدیلی در حوزه ی زمان-فرکانس، برای محاسبه ی ضرایب وحذف نویز مطرح شده است. برخی از ضرایب این تبدیل نسبت به نویز تاثیر کمتری پذیرفته و کارایی آنها به عنوان مبنایی برای تخمین تصویر اصلی، به کمک دیگر زیر تصاویر، نشان داده شده است. در این مقاله ایده ی استفاده از زیر تصویر تخمین تبدیل ویولت، به زیر تصاویر حاصل از تبدیل بسته های ویولت تعمیم داده شده است. به این ترتیب، با حذف برخی از ضرایب تبدیل ویولت، بر اساس تصویر تقریب حاصل از تبدیل بسته های ویولت دو بعدی، می توان تصویر بهتری به دست آورد. در واقع برای ایجاد تصویر اصلی، از زیر تصاویر با نویز کمتر استفاده می کنیم. در مقایسه باروش های متداول آستانه گذاری سخت و نرم، روش پیشنهادی عملکرد بهتری نشان می دهد. هم چنین، از محاسن دیگر این روش امکان فشرده سازی تصویر به حجمی برابر یک چهارم تصویراصلی، به همراه سه پارامتر اسکالر می باشد، که برای کاربردهایی از قبیل مخابره ی تصاویر یا ذخیره سازی بسیار مفید است. افزایش کنتراست تصاویر به میزان قابل توجه، از مزایای دیگر این روش می باشد. روش پیشنهادی بر روی 100 تصویر از پایگاه داده LIVE آزمایش گردید. روش آستانه گذاری نرم حدود 1.12% نسبت به روش آستانه گذاری سخت، روش POAC حدود 1.94% نسبت به آستانه گذاری نرم و روش POAC با بسته های ویولت حدود 1.48% نسبت به روش POAC بهترعمل می کند. با روش پیشنهادی بسته های ویولت به صورت میانگین حدود 2.17% افزایش PSNR خواهیم داشت.
کلید واژگان: حذف نویز، بسته های ویولت، زیرتصویر تقریب، بهینه سازیIn this paper we propose a new approach in the wavelet domain for image denoising. In recent researches wavelet transform has introduced a time-Frequency transform for computing wavelet coefficient and eliminating noise. Some coefficients have effected smaller than the other''s from noise، so they can be use reconstruct images with other subbands. We have developed Approximation image to estimate better denoised image. Naturally noiseless subimage introduced image with lower noise. Beside denoising we obtain a bigger compression rate. Increasing image contrast is another advantage of this method. Experimental results demonstrate that our approach compares favorably to more typical methods of denoising and compression in wavelet domain. 100 images of LIVE Dataset were tested، comparing signal to noise ratios (SNR)، soft thresholding was %1. 12 better than hard thresholding، POAC was %1. 94 better than soft thresholding and POAC with wavelet packet was %1. 48 better than POAC.Keywords: Approximation, compression, denoising, subimage, wavelet packet -
In the presented work, the compressive behavior of circular cylinders, having certain size ratios and containing a notch with various configurations, was investigated through experimental and numerical studies. Nonlinear finite element analysis, using ABAQUS software, was conducted to evaluate the ultimate strength of the cylinders. The results were compared to those observed experimentally. The comparison of the numerical and experimental results showed that the nonlinear analysis results were more accurate than those established based on a linear analysis. The study also focuses on the deformed shape and stress distribution of the critical region in a notched cylinder for further consideration, e.g. repairing purposes.Keywords: Notched cylinder, Nonlinear analysis, Compression, Plastic collapse, Buckling mode shape
- نتایج بر اساس تاریخ انتشار مرتب شدهاند.
- کلیدواژه مورد نظر شما تنها در فیلد کلیدواژگان مقالات جستجو شدهاست. به منظور حذف نتایج غیر مرتبط، جستجو تنها در مقالات مجلاتی انجام شده که با مجله ماخذ هم موضوع هستند.
- در صورتی که میخواهید جستجو را در همه موضوعات و با شرایط دیگر تکرار کنید به صفحه جستجوی پیشرفته مجلات مراجعه کنید.