فهرست مطالب

فصلنامه پردازش علائم و داده ها
سال ششم شماره 2 (پیاپی 12، پاییز و زمستان 1388)

  • تاریخ انتشار: 1389/10/11
  • تعداد عناوین: 7
|
  • محرم اسلامی، جواد شیخ زادگان صفحه 3
    دادگان های صوتی بخشی از سامانه های تبدیل متن به گفتار به شیوه هم گذاری را تشکیل می د هند. کیفیت دادگان ها و نحوه تهیه و آماده سازی آنها نقش مهمی در طبیعی تر شدن گفتار بازسازی شده ایفا می کند. در این مقاله ابتدا به معرفی دو دادگان صوتی هجایی و دایفونی فارسی پرداخته و سپس ضمن برشمردن ویژگی های هر کدام از آن ها، مراحل تهیه و آماده سازی آن ها را توضیح می دهیم. درنهایت با به کارگیری این دادگان ها در موتور تبدیل متن به گفتار فارسی «گویا» و نتایج حاصل از انجام آزمون های مختلف، تفاوت ها و برتری های آن ها را نسبت به یکدیگر بیان می کنیم.
    کلیدواژگان: دادگان های صوتی، دادگان هجایی، دادگان دایفونی و سامانه تبدیل متن به گفتار فارسی
  • مهدی محسنی، بهروز مینایی بیدگلی صفحه 13
    برچسب گذاری اجزای واژگانی کلام، موضوع تحقیقاتی مهمی در حوزه ی پردازش زبان طبیعی است و پایه ی بسیاری از دیگر مباحث مطرح در این حوزه است. تاکنون تحقیقات گسترده ای با رویکردهای متعدد در زبان های دیگر انجام و نتایج چشم گیری حاصل شده است. این موضوع سنگ بنای بسیاری از روش های مورد استفاده در حوزه های دیگر پردازش زبان طبیعی، هم چون ترجمه ی ماشینی، خطایاب، تبدیل متن به گفتار، تشخیص گفتار است، فعالیت بر روی این موضوع تحقیقاتی می تواند راهگشای این مباحث در زبان فارسی باشد. در این مقاله با بیان مسایل پیش رو در برچسب گذاری اجزای واژگانی کلام در زبان فارسی، یک طرح کلی برای نیل به یک برچسب گذار خودکار با دقت بالا در زبان فارسی پیشنهاد می گردد. پس از آن تحلیل ساخت واژی و استفاده از آن را برای پوشش دادن تعداد زیادی از برچسب های پیکره با حفظ دقت بالا در برچسب گذاری کلمات مورد بررسی دقیق تر قرار داده و تاثیر وجود یک تحلیل گر ساخت واژی در سطح تصریف را بر برچسب گذاری اجزای واژگانی کلام در زبان فارسی بررسی می کنیم. نتایج به دست آمده نشان از کارآیی بسیار مناسب این روش پیشنهادی در برچسب گذاری دارد.
    کلیدواژگان: برچسب گذاری اجزای واژگانی کلام، ساخت واژه، برچسب گذارهای مارکوفی، برچسب گذار مبتنی بر حافظه
  • آذر طلوعی صفحه 27
    تشخیص خودکار الگوهای پاتولوژیک ریوی در تصاویر HRCT بیماران مبتلا به ناهنجاری های بافت بینابینی ریه (ILD)، یک مرحله مهم در ایجاد یک سیستم تشخیص به کمک رایانه می باشد. الگوریتم ارائه شده جهت دسته بندی الگوهای بافت ریه شامل سه مرحله می باشد: در مرحله ی اول ریه از پس زمینه جدا می شود. در مرحله ی دوم دو بانک فیلتری موجک فوق کامل به نام های فریم های موجک گسسته (DWF) و فریم های موجک دوران یافته (RWF) برای استخراج ویژگی از نواحی مطلوب (ROI) تعریف شده درون بافت ریه استفاده می شوند و در نهایت الگوریتم k- نزدیک ترین همسایه ی فازی برای دسته بندی الگوها اعمال می گردد. در این مطالعه چهار الگوی مرتبط با ILD (شیشه مات، لانه زنبوری، رتیکولار و نرمال) از یک پایگاه داده شامل 340 تصویر HRCT انتخاب شده اند و مورد بازشناسی قرار می گیرند. عملکرد سیستم رایانه ای با عملکرد دو رادیولوژیست مورد ارزیابی قرار می گیرد. ضریب توافق کاپا بین سیستم و دو رادیولوژیست به طور متوسط 6543/0 می باشد، در مقایسه با ضریب توافق 6848/0 بین دو رادیولوژیست. در پایان تحقیق، با انجام تحلیل آماری، رابطه ی میان داده های کمی حاصل از سیستم رایانه ای و نتایج آزمایش تنفسی ارزیابی شده است. نتایج حاصل از تحلیل آماری نشان می دهد فرآیند ارزیابی کمی بافت ریه و دستیابی به مقادیر عددی و دقیق به ازای الگوهای موجود در بیماری های بافت بینابینی ریه با استفاده از تصاویر HRCT، با موفقیت انجام شده است و میان نتایج کمی حاصل از سیستم رایانه ای و نتایج آزمایش تنفسی بیمار، همبستگی وجود دارد. چنین سیستمی می تواند منجر به بهبود تصمیم گیری و کارآیی پزشک به واسطه ی تسهیل در کشف و ارزیابی الگوهای تصویری پیچیده، کاهش تفاوت میان مشاهده گرها و حذف اعمال تکراری و تاحدودی خسته کننده شود.
    کلیدواژگان: بخش بندی ریه، تصاویر HRCT، بیماری های بافت بینابینی ریه، فریم های موجک گسسته، فریم های موجک دوران یافته، طبقه بندی کننده، یk، نزدیک ترین همسایه ی فازی، پارامترهای آزمایش تنفسی
  • نسیبه طالبی، علی مطیع نصرآبادی صفحه 39
    هدف از این پژوهش، به کارگیری روش پردازش غیرخطی منحنی های بازگشتی روی پتانسیل های وابسته به رخداد فرآیندهای حافظه ای است تا توانایی های این روش در شناسایی مؤلفه های حافظه ای سیگنال های مغزی تک ثبت و ایجاد تمایز بین گروه های قدیم و جدید، مورد بررسی قرار گیرد. دو مؤلفه ی مهم حافظه ای FN400 و LPC است که بایستی مورد شناسایی قرار گیرد. برای این منظور منحنی های بازگشتی مربوط به تک ثبت های EEG ثبت شده در حین بازیابی حافظه، محاسبه شدند. علاوه بر این تحلیل آنالیز کمی سازی بازگشت برای کمی سازی تغییرات در ساختار دینامیک سیگنال در حین رخداد حافظه، انجام شد. از کمی کننده های غیرخطی نظیر RR، DET، ENTR، ، Lmax، LAM، TT و Vmax ویژگی هایی استخراج شده و میزان معنادار بودن تفاوت این ویژگی ها در دو رخداد قدیم و جدید با استفاده از آزمون های آماری مشخص گردید. نتایج نشان می دهند که منحنی های بازگشتی، توانایی شناسایی گذارهای سیگنال در حوالی 400 میلی ثانیه و 800 میلی ثانیه را، که به مؤلفه های حافظه ای مربوط دانسته شده اند، دارد. دامنه ی اندازه های غیرخطی این منحنی ها 400 میلی ثانیه پس از شروع تحریک افزایش می یابدکه نشان دهنده ی کاهش بعد سیستم، پس از تحریک است. پس از 800 میلی ثانیه این روند افزایش از بین رفته و کاهشی در تمامی اندازه ها به وقوع می پیوندد که می تواند مبین افزایش بعد و پیچیدگی سیستم و بازگشت به وضعیت پایه اش باشد. میانگین اندازه های مربوط به رخداد قدیم بیشتر از رخداد جدید است. در مقایسه با روش های خطی، منحنی های بازگشتی نیاز به متوسط گیری ندارد و RQA حتی در تک ثبت های EEG تمایز بین رخدادهای قدیم و جدید را نشان می دهد.
    کلیدواژگان: حافظه، پتانسیل های وابسته به رخداد، کمی سازی منحنی بازگشتی، تحلیل غیرخطی، تحلیل تک ثبت
  • ساره سعیدی، فرزاد توحیدخواه صفحه 53
    قشر انتورینال، هسته ی اصلی شبکه ای است که در مغز به راهبری و حافظه ی مکانی اختصاص دارد. نرون های اصلی این بخش دارای الگوی آتش شدن خاصی در محیط هستند؛ نرخ آتش شدن این سلول ها در چندین مکان از محیط افزایش می یابد. این مکان ها تشکیل یک شبکه ی مثلثی تکراری می دهند که کل محیط را می پوشاند. قشر انتورینال، مهم ترین ساختار ورودی به هیپوکمپ است و سلول های شبکه، یک سیناپس بالاتر از سلول های مکانی هیپوکمپ قرار دارند. مسئله ی مهم این است که چگونه فعالیت واحد و متمرکز سلول های مکانی می تواند از فعالیت چند تایی سلول های شبکه ایجاد شود. در این تحقیق، برای توجیه نگاشت از سلول های شبکه به سلول های مکانی، یک مدل RBF (Radial Basis Function) پیشنهاد شده است. برای بررسی عملکرد این مدل ابتدا یک محیط یک بعدی (خط به طول 1 متر) و سپس یک محیط دو بعدی (محیط مربعی) در نظر گرفته شده است. مدل سازی با در نظر گرفتن ویژگی های سلول های شبکه انجام شده و از عملکرد بسیار خوبی در ایجاد میدان های مکانی متمرکز برخوردار است.
    کلیدواژگان: سلول مکانی، سلول شبکه، هیپوکمپ، قشر انتورینال
  • مهدی مهدی خانی، محمدحسین کهایی صفحه 63
    در این مقاله، یک مسئله ی جدید برای جداسازی سیگنال منابع گفتار به روش کور در نظر گرفته می شود که در آن تعداد منابع فعال و مشخصات آن ها، متغیر با زمان است؛ برخلاف روش های قبلی که تمام منابع در تمام بازه های زمانی فعال هستند. در این مقاله برای جداسازی این نوع سیگنال ها الگوریتم جدید DESICA را پیشنهاد می کنیم که ترکیبی از الگوریتم های ICA و DESPRIT است. در الگوریتم پیشنهادی ابتدا با استفاده از ICA جداسازی اولیه منابع انجام می شود و سپس با کمک الگوریتم DESPRIT، ماسک باینری بازه های سکوت محاسبه می گردد. درنهایت با اعمال ماسک باینری به سیگنال های جدا شده ی اولیه، جداسازی نهایی به دست می آید. نتایج شبیه سازی نشان می دهد که به طور متوسط الگوریتم پیشنهادی DESICA در مقایسه با الگوریتم DESPRIT، 6dB بهبود در SDR و SIR ایجاد می کند و در معیار SEN سبب 11dB بهبود نسبت به الگوریتم ICA و 17dB بهبود نسبت به الگوریتم DESPRIT می شود.
    کلیدواژگان: جداسازی منابع به روش کور، آستانه گذاری مشروط، ماسک باینری
  • فاطمه سادات جمالی دینان، محمد رضایی، مریم بیگ زاده، الهه بیات صفحه 75
    فرمت JPEG پرکاربرد ترین قالب تصویری در ارتباطات دیجیتال است و در طی سال های اخیر روش های نهان نگاری متنوعی برای آن ارائه شده است. هدف از این تحقیق معرفی و ارائه ی اطلاعات همه جانبه و کاملی در مورد روش های نهان نگاری در تصاویر JPEG و دسته بندی این روش ها و ارائه ی راهکارهایی برای بالابردن امنیت آن ها با توجه به ساختار پوشانه می باشد. در این راستا عوامل تاثیر گذار در امنیت، روش های نهان نگاری در JPEG که وابسته به پوشانه می باشد، مثل اثر دوبار فشرده سازی، فرکانس مکانی، ضریب کیفیت و... شناسایی شده و به صورت تئوری و تجربی مورد ارزیابی قرار گرفته است. علاوه بر این کلیه ی الگوریتم ها و نرم افزار های نهان نگاری موجود در این فرمت، معرفی شده و از دیدگاه های مختلف، ارزیابی و دسته بندی شده اند. برخی از این الگوریتم ها در نرم افزار Stegotest پیاده سازی شده است و اثر تخریب ناشی از نهان نگاری در روش های موجود مقایسه شده است.
    کلیدواژگان: تصاویر JPEG، سیستم نهان نگاری، نهان کاوی، امنیت
|
  • Page 3
    Abstract Speech databases are part of the concatenative text to speech synthesis systems. Phonetic quality of the databases plays a significant role in the naturalness of the synthesized speech. This paper introduces two syllable and diphone speech databases for Persian and investigates the way of their development and their specifications and their advantages to each other.
  • Page 13
    Part-Of-Speech (POS) tagging is essential work for many models and methods in other areas in natural language processing such as machine translation, spell checker, text-to-speech, automatic speech recognition, etc. So far, high accurate POS taggers have been created in many languages. In this paper, we focus on POS tagging in the Persian language. Because of problems in Persian POS tagging, a comprehensive plan is proposed to reach a high efficient POS tagger in this language. Afterward, morphological analysis is investigated in Persian and it is shown that using a morphological analyzer in inflection level, POS tagging has been improved greatly. The results describe the fruitfulness of the proposed method.
  • Page 27
    The purpose of this study was to apply recurrence plots on event related potentials (ERPs) recorded during memory recognition tests. EEG signals recorded during memory retrieval in four scalp region were used. Two most important ERP’s components corresponding to memory retrieval, FN400 and LPC, were detected in recurrence plots computed for single-trial EEGs. In addition, the RQA was used to quantify changes in signal dynamic structure during memory retrieval, and measures of complexity as RQA variables were computed. Given the stimulus, amplitude of the RQA variables increases around 400ms, corresponding to dimension reduction of system. Furthermore, after 800ms these amplitudes decreased which can be as a consequence of an increase in system dimension and complexity and back to its basic state. The mean amplitude of Old items was more than New one. Furthermore we applied statistical analysis (t-test) to find meaningful difference between features extracted from nonlinear measures. Using this method, we found its ability to detect memory components of EEG signals and to do a distinction between Old/ New items. In contrast with linear techniques, recurrence plots and RQA do not need large number of recorded trials, and they can indicate changes in even single-trial EEGs. RQA can also show differences between old and new events in a memory process.
  • Page 39
    The purpose of this study was to apply recurrence plots on event related potentials (ERPs) recorded during memory recognition tests. EEG signals recorded during memory retrieval in four scalp region were used. Two most important ERP’s components corresponding to memory retrieval, FN400 and LPC, were detected in recurrence plots computed for single-trial EEGs. In addition, the RQA was used to quantify changes in signal dynamic structure during memory retrieval, and measures of complexity as RQA variables were computed. Given the stimulus, amplitude of the RQA variables increases around 400ms, corresponding to dimension reduction of system. Furthermore, after 800ms these amplitudes decreased which can be as a consequence of an increase in system dimension and complexity and back to its basic state. The mean amplitude of Old items was more than New one. Furthermore we applied statistical analysis (t-test) to find meaningful difference between features extracted from nonlinear measures. Using this method, we found its ability to detect memory components of EEG signals and to do a distinction between Old/ New items. In contrast with linear techniques, recurrence plots and RQA do not need large number of recorded trials, and they can indicate changes in even single-trial EEGs. RQA can also show differences between old and new events in a memory process.
  • Page 53
    Medial entorhinal cortex is known to be the hub of a brain system for navigation and spatial representation. These cells increase firing frequency at multiple regions in the environment, arranged in regular triangular grids. Each cell has some properties including spacing, orientation, and phase shift of the nodes of its grid. Entorhinal cortex is commonly perceived to be the major input and output structure of hippocampal formation; grid cells are one synapse upstream of place cells in hippocampus. The problem is how single confined place fields can be generated from the repetitive activity of grid cells. In this article we have proposed an artificial neural network model based on radial basis function, which allows for the single confined place fields of hippocampal pyramidal cells to be emerged from the activities of grid cells. In order to evaluate the performance of the model, it was considered in two steps in a one-dimensional and two-dimensional environment. Simulations were done considering different characteristics of grid cells and the model demonstrated a good performance in generating single spot activity for place fields.
  • Page 63
    We consider a new scenario in blind speech separation problem in which the number and the features of active sources change with time in opposite to the previous methods in which all sources are active all the time. Accordingly, we propose the new DESICA algorithm for source separation which is a compound of the ICA and DESPRIT algorithms. In this algorithm, using the ICA, the separation process is performed initially and then using the DESPRIT algorithm, the binary mask of silence intervals is calculated. Finally, by applying the binary mask to the separated signals, the final separation is obtained. Simulation results show that the DESICA algorithm improves the SDR and SIR about 6dB compared to those of the DESPRIT algorithm. Also, the SEN is improved about 11 and 17dB with respect to those of the ICA and DESPRIT algorithms.
  • Page 75
    JPEG is the most applicable image format in digital communication. In recent years, various steganography methods have been proposed for it. This paper aims to study and classify JPEG steganography schemes and introduce different methods to improve their security based on cover. Accordingly, the effective factors in security that are related to the cover such as double compression, spatial frequencies and quality factor have been evaluated theoretically and experimentally. Also some well-known steganography algorithms and software tools have been introduced, evaluated and classified based on different criteria. Some of these algorithms have been implemented in Stegotest software and the destruction effects of steganography in different methods have been compared.