فهرست مطالب

فصلنامه پردازش علائم و داده ها
سال هفتم شماره 2 (پیاپی 14، پاییز و زمستان 1389)

  • تاریخ انتشار: 1390/10/28
  • تعداد عناوین: 7
|
  • سعید آیت، محمدرضا خضری صفحه 3
    در این مقاله یک روش احراز هویت بر اساس تصاویر با کیفیت پائین کف دست ارائه شده است. در پیاده سازی این سیستم، ابتدا با استفاده از تبدیل های کانتورلت و موجک خصیصه های مورد نظر استخراج می شوند. در مرحله دوم خصیصه های مناسب با استفاده از روش مبتنی بر فیلتر Across Group Variance(AGV) انتخاب می گردند. در آخر نیز با استفاده از روش طبقه بندی، تشخیص هویت صورت می گیرد. در طبقه بندی سه روش ماشین بردار پشتیبان(SVM)، نوع بهبود یافته نزدیک ترین همسایه(RNN) و همچنین نسخه تقویت شده تحلیل تفکیک کننده خطی مستقیم(BDLDA) مورد ارزیابی قرار گرفت. آزمایشات بر روی پایگاه داده مشهور تصاویرکف دست دانشگاه پلی تکنیک هنگ کنگ انجام گردید. نتایج حاصل نشان می دهد که ترکیب سیستم ارایه شده با طبقه بند تحلیل تفکیک کننده خطی مستقیم تقویت شده، بازدهی بهتری را نسبت به سایر روش های انجام شده بر همین پایگاه نشان می دهد.
    کلیدواژگان: اثرکف دست، احراز هویت، بیومتریک، تبدیل کانتورلت، تبدیل موجک، AGV
  • احمدرضا ویزندان، جواد شیخ زادگان، عبدالرسول میرقدری صفحه 13
    رمزهای جریانی یکی از مهمترین نوع از الگوریتمهای رمزنگاری متقارن میباشند که بلحاظ قابلیتهای ویژه و مناسب در برخی از کاربردهایی مانند امنیت شبکه ها و زیرساخت مخابراتی، ارزیابی امنیتی آنها در حوزه ی شبکه های ارتباطی از اهمیت به سزایی برخوردارند و پروژه ی بین المللی eSTREAM در راستای افزایش فعالیت در این شاخه ی رمزنگاری نقش به سزایی ایفا نمود. در این مقاله یکی از الگوریتم های رمز جریانی پایه آرایه ایی با استفاده از حمله تمایز مورد ارزیابی تحلیلی قرار می گیرد. درواقع ایده ی اصلی این مقاله در معرفی دو دسته تمایزگر، تمایزگر پایه و بهبودیافته برروی الگوریتم رمز جریانی HC-256 می باشد که در حمله پایه، نیاز به 556^2 معادلات خطی می باشد درحالیکه در حمله ی بهبودیافته نیاز به 551.4^2 معادله می باشد. بنابراین در حمله ی بهبود یافته تقریبا سی مرتبه کم تر از حمله پایه، نیاز به رشته کلید خروجی از الگوریتم رمز داریم.
    کلیدواژگان: حمله تمایز، تمایزگر پایه، تمایزگر بهبود یافته، ارزیابی تحلیلی، eSTREAM
  • پیمان معلم، مجید بهنام پور، امیر حسن منجمی صفحه 23
    نویز تناوبی الگو یا الگوهایی ناخواسته تکرار شونده در سراسر تصویر است که منجر به کاهش کیفیت تصویر و ایجاد ساختارهایی متناوب، شبیه هاشورخوردگی روی تصویر خواهد شد. در این مقاله ضمن بررسی و مقایسه روش های موجود برای کاهش اثر این نویز، یک فیلتر میانه تطبیقی در حوزه فرکانس با بار محاسباتی قابل قبول پیشنهاد می شود. در روش پیشنهادی، فرکانس های متناظر با نویزها و پهنای هر یک به صورت تطبیقی و با توجه به محتوی تصویر تخریب شده در حوزه فرکانس، مشخص می شود. سپس فقط برای فرکانسهای تخریب شده، فیلتر میانه در حوزه فرکانس که از روش های موثر در کاهش اثر نویز تناوبی است، اعمال شده و تصویر تصحیح شده، بدست می آید. روش پیشنهادی و روش های مورد مقایسه در محیط MATLAB پیاده شده و از لحاظ بهبود کیفیت در شرایط مختلف مورد ارزیابی قرار می-گیرند. سپس به منظور مقایسه پیچیدگی محاسباتی و زمان اجرای الگوریتم ها، روش های مورد مقایسه توسط کتابخانه OpenCV و زبان برنامه نویسی C پیاده سازی می شوند. مقایسه نتایج در شرایط مختلف نشان می دهدکه بهبود حاصل شده توسط روش پیشنهادی از سایر روش های مورد مقایسه، بیشتر بوده و در عین حال، بار محاسباتی کمتری نیز دارد.
    کلیدواژگان: نویز تناوبی، فیلتر در حوزه فرکانس، فیلتر میانه تطبیقی
  • یاسر شکفته، جهانشاه کبودیان، محمد محسن گودرزی، ایمان صراف رضایی صفحه 37
    سیستم های متداول کاوشگر کلمات دارای یک مدل بازشناسی گفتار هستند که وظیفه آن تعیین کلیدواژه های کاندید شده و امتیاز اطمینان آنها است. به طور معمول قبول و یا رد کلیدواژه های کاندید شده بر مبنای مقایسه این امتیاز با یک مقدار آستانه ثابت انجام می گیرد. از آنجا که عملکرد مدل بازشناس در تشخیص واحدهای زیرکلمه ای متفاوت، یکسان نمی باشد؛ بنابراین اختصاص امتیاز اطمینان برای هر کلیدواژه بدون در نظر گرفتن ساختار واحدهای زیرکلمه ای آن مناسب نمی باشد. از این رو در این مقاله یک روش کاملا جدید نرمالیزاسیون امتیاز اطمینان بر اساس ساختار واجی کلیدواژه ها و روش برنامه ریزی خطی ارائه شده است. هدف این روش امتیازدهی به اجزاء واجی هر کلیدواژه، براساس بیشینه نمودن تفکیک توزیع امتیاز اطمینان اولیه کلیدواژه های درست و غلط تشخیص داده شده است. نتایج به دست آمده نشان می دهد که استفاده از روش پیشنهادی منجر به بهبود 2 درصدی در مقدار FOM نسبت به سیستم پایه خواهد شد. همچنین در این مقاله نحوه انتخاب بردار ویژگی مناسب در سیستم بازشناس گفتار مورد استفاده بررسی خواهد شد.
    کلیدواژگان: سیستم کاوشگر کلمات، کلید واژه، مدل پنهان مارکوف، امتیاز اطمینان، برنامه ریزی خطی، نرمالیزاسیون امتیاز
  • شهرام کلانتری، محمد مهدی همایون پور صفحه 49
    اتصال قطعات ازپیش ضبط شده گفتار، یکی از روش های سنتز گفتار است که با عنوان سنتز مبتنی بر انتخاب واحد شناخته می شود. ایده اصلی این گونه سیستم ها، جستجو و انتخاب بهترین نمونه های گفتاری از درون یک دادگان بزرگ و اتصال آنها به منظور تولید شکل موج نهایی می باشد. جستجو در حجم وسیعی از دادگان برای انتخاب نمونه های مناسب امری زمان بر است. همچنین، بسیاری از کاربردها تحمل زمان طولانی برای سنتز گفتار را ندارند. در این مقاله روش جستجوی شعاعی برای محدودکردن فضای جستجو و کاهش زمان جستجو ارائه می شود. در این روش، درخت جستجو هرس می شود تا مسیرهایی که احتمال بهینه بودن آنها کمتر است از فضای جستجو حذف گردند. آزمایشات انجام گرفته نشان می دهد که با حذف 60% از مسیرهای جستجو به کمک این روش، زمان سنتز 57% کاهش پیدا کرد، در حالی که طبیعی بودن گفتار سنتزشده بر اساس روش ارزیابی MOS از 4.2 به 4.0 کاهش یافت که تنها کاهشی معادل 4.7% را نشان می دهد. همچنین با پیرایش 10% از دادگان بر اساس هر یک از دو معیار مطرح شده در این مقاله، سرعت سنتز 14.07% افزایش پیدا کرد، اما بر اساس ارزیابی MOS، طبیعی بودن گفتار از 4.2 به ترتیب به 3.99 و 4.04 کاهش یافت که این اختلاف، معادل 5% و 3.8% نسبت به حالتی که دادگان پیرایش نشده بودند، می باشد.
    کلیدواژگان: سنتز گفتار، انتخاب واحد، جستجوی ویتربی، جستجوی شعاعی، میانگین امتیازات نظردهی
  • مهرگان مهدوی، حبیب آهکی، بابک ناصرشریف صفحه 59
    با توجه به جایگاه مبادلات پولی در زندگی روزمره، تجهیزات فراوانی مانند ماشین های فروش، مرتب کنندهای اسکناس، دستگاه های خودپرداز، و دستگاه تشخیص اسکناس برای نابینایان ساخته شده است. این تجهیزات روز به روز گسترده ترو با قابلیت بیشتر عرضه می گردند، که بالطبع نیاز به روش های تشخیص اسکناس کارآمد، سریع، دقیق و قابل اطمینان دارند. در اغلب روش های تشخیص اسکناس، یکی از مشخصه های تصویر مانند رنگ غالب، طیف ماوراء بنفش و یا اطلاعات بافت تصویر استخراج می شود و فرآیند تشخیص بر اساس آن انجام می شود. این مقاله روشی را برای تشخیص اسکناس معرفی مینمایدکه اطلاعات بافت و رنگ تشکیل یک بردار ویژگی داده که m مولفه اول آن متعلق به اطلاعات بافت بوده و سایر مولفه های بردار متعلق به اطلاعات رنگ می باشد. بهترین میزان درصد شناسایی اسکناس ها با استفاده از سایر روش ها 85 درصد بوده که در روش ارائه شده این میزان (خصوصا درمورد اسکناسهای مخدوش)10 درصد بهبود یافته است.
    کلیدواژگان: تشخیص اسکناس، پردازش تصویر، شبکه عصبی، فیلتر دیجیتالی
  • وحید صادقی صفحه 69
    در این مقاله، سه گونه گفتاری متفاوت از کلماتی یکسان از طریق هم گذاری هجاها به سه روش متفاوت بازسازی شدند. در روش اول، کلمات از طریق هم گذاری هجاهای حساس به بافت نوایی بدون پردازش فرکانس پایه و دیرش هجاها ساخته شدند. در روش دوم، ابتدا کلمات با هجاهای غیرنوایی هم گذاری شدند و سپس هجاهای درون کلمات هم گذاری شده با توجه به جایگاه نوایی کلمات در سطح جمله در حوزه فرکانس پایه و دیرش پردازش شدند. در روش سوم، کلمات بدون هر گونه پردازش نوایی از طریق هم گذاری هجاهای غیرنوایی ساخته شدند. کلمات بازسازی شده سپس در جایگاه های نوایی آغاز و پایان IP، AP و PW در درون سه جمله حامل قرار داده شده و پس از تولید در یک آزمون ادراکی به آزمودنی ها ارائه شدند. نتایج آزمون ادراکی نشان داد که کیفیت گفتار بازسازی شده نوع اول و دوم در تمامی جایگاه های نوایی به طور معنی داری از نوع سوم طبیعی تر است. همچنین بر اساس نتایج به دست آمده کیفیت گونه های گفتاری نوع اول و دوم در حد «طبیعی» است ولی میزان طبیعی بودن گونه گفتاری نوع اول در تمامی جایگاه ها از نوع دوم بیشتر است و این تفاوت در بعضی از جایگاه ها معنی دار است. این نتایج نشان می دهد واحدهای بازسازی حساس به بافت نوایی، کیفیت گفتار بازسازی شده را تا حد قابل قبولی بهبود می بخشد.
    کلیدواژگان: هم گذاری، واحدهای حساس به بافت نوایی، پردازش نوایی
|
  • Page 3
    This paper proposed an authentication system based on low quality palmprint. For implementation of this system, first the features is extracted by using Contourlet and wavelet transforms. In the second phase, some of the features are selected by using Across Group Variance (AGV) filter. In the last phase by using a classification method, the authentication is completed. For classification we evaluated three different methods, Support Vector Machine (SVM), Revised Nearest Neighbor (RNN), and Boosted Direct Linear Discriminant Analysis (BDLD). The experiment is performed on the famous PolyU Palmprint database. The results shows that by combination of the proposed system and BDLD classifier has better performance in comparison to other methods and the same database.
  • Page 23
    Periodic noises are repetitive patterns on digital images and decreased the visual quality of images. The various methods for reducing the effects of the periodic noise in digital images are firstly investigated. Then an intelligent median filter in the frequency domain with an acceptable computational cost is proposed. In the proposed method, the regions of noise frequencies are determined by analyzing intelligently the spectral of noisy image. Then only for the destroyed frequencies by periodic noise, a median filter with proper size in the frequency domain is applied and the spectrum of the image with reduced periodic noise is computed. The compared methods including the proposed method, the mean and the median filtering techniques, all in frequency domain are implemented not only under MATLAB environment, but also by C programming under OpenCV library. The results in different conditions show that the proposed filter shows higher performances, visually and statistically, and also in needs very lower computational cost.
  • Page 37
    Conventional word spotting systems determine hypothesized keywords and their confidence score using a speech recognizer. Acceptance or rejection of these keywords is intended based on comparison of their scores with a specific threshold. It has been proved that confidence score prepared by recognizer is highly dependent on sub-word structure of each keyword. So comparing assigned scores to keywords without considering their sub-word units could causes degradation in overall performance. In this paper a novel method for confidence score normalization is proposed which is based on sub-word units of each keyword and linear programming algorithm. In proposed method, a keyword-dependent correction term is added to the score of the keyword to maximize separation of confidence score histograms of true and false occurrences. Our results show a 2% improvement in FOM compared to baseline system. Also, choosing an appropriate feature vector has been discussed in this paper.
  • Page 49
    Concatenation of prerecorded speech segments is one of the speech synthesis methods, which is being named as unit selection based speech synthesis. The basic idea of such systems is to select the best speech units from a large database and concatenating them to produce the final waveform. This process usually is done based on minimizing a predefined cost function. Searching the best data sequence on a vast amount of data is a time-consuming process. Meanwhile, most of the applications cannot stand a long time for production of desired speech. In this paper, the beam search method is introduced to limit the search space and to increase the synthesis speed. In this method, the search tree is pruned to remove the paths which are less probable to be the optimum path. By so doing, the quality of synthesized speech is maintained and the time of synthesis is reduced. Prior to the results of experiments, removing 60% of search paths by beam search causes the time of synthesis to be reduced by 57%, decreasing the naturalness of speech from 4.2 to 4, based on MOS evaluation method. This decrease in the naturalness is equal to only 4.7%. Also by pruning the data based on the two approaches proposed in this paper, synthesis speed is increased by 10% and 14.07% respectively. The naturalness, however, is reduced by 5% and 3.8%.
  • Page 59
    Since money exchange is important in our daily life, many types of equipments such as Vending Machines, Currency Sorters, Automatic Teller Machines (ATM) and Currency Recognition systems for blind people have been made. More advanced devices with more capabilities are being made each day. As a result, efficient, fast and reliable currency recognition methods are required. Most currency recognition methods only use one attribute of currency images, such as major color, Ultra Violet spectrum or texture that are extracted from currency images. In this paper, we introduce a method for currency recognition that combines texture and color data together and applies them to a neural network. The best result from the other existing methods is at most 85 percent but our method shows 10 percent improvement compared to existing solutions.
  • Page 69
    This paper describes the design and evaluation of prosodically-sensitive concatenative units for a Persian text-to-speech (TTS) synthesis system. Thesyllables used are prosodically conditioned in the sense that a single conventional syllable is stored as different versions taken directly from the different prosodic domains of the prosodically labeled, read sentences. The three levels of the Persian prosodic hierarchy were observed in the syllable selection process, thereby selecting three different versions of each syllable from the prosodic domains of the intonational phrase (IP), accentual phrase (AP) and prosodic word (PW). A listening experiment designed to evaluate the quality of the syllable database showed that listeners preferred stimuli composed of prosodically appropriate diphones. We interpret this as supporting the view that segments carry prosodic domain information.