فهرست مطالب

پردازش علائم و داده ها - سال ششم شماره 1 (پیاپی 11، بهار و تابستان 1388)

فصلنامه پردازش علائم و داده ها
سال ششم شماره 1 (پیاپی 11، بهار و تابستان 1388)

  • تاریخ انتشار: 1388/05/04
  • تعداد عناوین: 7
|
  • محرم اسلامی * صفحه 3
    این تحقیق در چارچوب نظریه واج شناسی لایه ای (Autosegmental-metrical) به مطالعه تکیه در زبان فارسی می پردازد و می کوشد با تمایز میان دو مفهوم مجزای ذهنی و عینی از تکیه، جایگاه تکیه در کلمات زبان فارسی را مورد مطالعه قرار دهد. مفهوم ذهنی از تکیه اشاره به دانش زبانی اهل زبان از الگوی برجستگی واژه ها در ذهن گویشور زبان دارد که به آن تکیه واژگانی(stress) می گویند و مفهوم عینی از تکیه به الگوی برجستگی کلمه در گفتار اطلاق می شود که به آن تکیه زیروبمی(pitch accent) می گویند. تحقیق حاضر با استناد به اطلاعات موجود در واژگان ذهنی(mental lexicon) گویشور فارسی نشان می دهد (بر خلاف برخی تحقیقات پیشین) که انواع واژه های فارسی در ذهن اهل زبان دارای الگوی تکیه واحدی است. میان تکیه واژگانی و تکیه زیروبمی رابطه قابل پیش بینی و معناداری وجود دارد و از این رابطه علاوه بر مطالعات محض زبانی، در تولید خودکار آهنگ(intonation) و نوای گفتار(prosody) نیز می توان استفاده کرد. با توجه به یافته های این تحقیق، مباحثی مانند الگوی تکیه در صیغه های مختلف فعل یا در صورت های گوناگون تصریفی اسم و یا بی تکیه بودن برخی از واحدهای واژگانی مانند حروف اضافه و غیره موضوعیت خود را از دست می دهند. در اینجا تکیه بر بودن و یا نبودن انواع تکواژهای اشتقاقی، تصریفی و واژه بست ها مورد بررسی قرار گرفته است که حضور آن ها در ساختمان کلمه، جایگاه تکیه کلمه را قابل پیش بینی می کند.
    کلیدواژگان: تکیه، تکیه واژگانی، تکیه زیروبمی، واج شناسی لایه ای، آهنگ
  • آزاده کامل قالی باف، سعید راحتی قوچانی *، اعضم استاجی صفحه 13
    استخراج نقش های معنایی یکی از گام های اصلی در بازنمایی معنی متن است. نقش های معنایی، ارتباط معنایی بین فعل و آرگومان های آن در جمله را مشخص می کنند. در این مقاله یک سیستم برچسب زنی خودکار نقش معنایی برای متون فارسی با رویکرد یادگیری ماشین ارائه شده است. مجموعه داده های مورد نیاز سیستم بخشی از پیکره متنی زبان فارسی است که توسط پژوهشکده پردازش هوشمند علائم تهیه و برچسب گذاری شده است. سیستم پیشنهادی از دو مرحله تشکیل شده؛ در مرحله اول با تجزیه نحوی جمله، حد و مرز سازه و همچنین نوع گروه نحوی این اجزا در جمله مشخص می شود. این اطلاعات به عنوان ورودی در مرحله دوم مورد استفاده قرار می گیرد. مرحله دوم سیستم مربوط به تخصیص نقش های معنایی مناسب به سازه های مشخص شده در مرحله قبل می باشد. برای این منظور از ویژگی های نحوی و ساختاری هر سازه، بهره گرفته می شود. نتایج به دست آمده نشان دهنده 81.6% F1= برای زیر سیستم تجزیه نحوی، و 87.4% F1= برای زیرسیستم برچسب زنی معنایی درحالتی که ورودی های سیستم به صورت دستی تصحیح شده باشند. همچنین کارآیی کل سیستم 73.8%F1= را برای سیستم کامل برچسب زنی معنایی، یعنی تجزیه نحوی و تخصیص نقش نشان می دهد. نتایج به دست آمده حاکی از آن است که می توان از یک پیکره آموزشی کوچک 1300 کلمه ای نتایج قابل قبولی به دست آورد.
    کلیدواژگان: پردازش زبان طبیعی، برچسب زنی معنایی، تجزیه سطحی معنایی، تجزیه سطحی نحوی، یادگیری مبتنی بر حافظه
  • امین محمدیان *، وحید ابوطالبی، محمدحسن مرادی، محمد علی خلیل زاده صفحه 23
    روش های موجود تشخیص دروغ که بر اساس پلی گرافی کلاسیک عمل می کنند، سعی می کنند با استفاده از مشخصات چندین سیگنال فیزیولوژیک، به تفکیک فرد راستگو یا دروغ گو بپردازند. رویکرد دیگری که در کنار روش کلاسیک مطرح گردیده است، استفاده از مولفه شناختی P300 سیگنال های مغزی برای کشف دانش فرد خطاکار است؛ در ادامه توسعه این روش ها، موضوعی که در این تحقیق به آن پرداخته شده است، بحث ارزیابی تشخیص دانش فرد خطاکار از تحلیل زمان پاسخ فرد و تلفیق تحلیل زمان پاسخ و مولفه شناختی P300 مغز است. به همین منظور چندین روش قبلی، تحلیل مغزی و تحلیل زمان پاسخ پیاده سازی و توسعه داده شد و ترکیب حالات مختلفی از روش ها مورد بررسی قرار گرفت. نتیجه روش تحلیل زمان پاسخ توسعه یافته در این تحقیق، به صحت 81% و سطح زیر منحنی 0.85 رسیده است که با بهترین نتیجه تحلیل مغزی در کارهای قبل (استفاده از طبقه بندی کننده با ویژگی های مبتنی بر تبدیل موجک که صحت 80% و سطح زیر منحنی 0.86 داشت به طورکامل قابل مقایسه است. از بین حالات مختلف تلفیق روش های تحلیل مغزی و زمان پاسخ، بهترین نتیجه، مربوط به روش تحلیل زمان پاسخ بوت استرپ شده و تشخیصP300 به روش اختلاف دامنه بوت استرپ شده بود. این تلفیق صحت تفکیک بین افراد خطاکار و بی گناه را تا 88% بهبود داد که این بهبود با استفاده از آزمون مک نمار در مقایسه با نتیجه روش اختلاف دامنه بوت استرپ شده به عنوان بهترین نتیجه تحقیقات قبل به طور کامل معنی دار (0.01) بود.
    کلیدواژگان: آزمون دانش فرد خطاکار، پتانسیل برانگیخته بینایی، تحلیل چند مد
  • زهرا خلیلی *، محمدحسن مرادی صفحه 33
    تحقیقات نشان می دهد که احساس، یک فرآیند ذهنی و متوجه مغز انسان می باشد و روی فرآیند های مهمی چون حافظه، تمرکز، تفکر و تصمیم گیری اثر دارد. به همین، دلیل مطاله مکانیزم و عملکرد آن مورد توجه محققان علوم شناختی قرار گرفته است. مطالعه احساس از طریق پردازش سیگنال های بیولوژیکی، علاوه بر کاربردهای کلینیکی که در زمینه تشخیص و درمان به موقع ناهنجاری های روانی می تواند داشته باشد، در علوم مبتنی بر تعاملات انسان و رایانه نیز نقش مهمی بازی می کند و باعث پیشرفت های زیادی در این زمینه می گردد. هدف اصلی در این تحقیق، طبقه بندی احساس افراد با استفاده از سیگنال های مغزی و محیطی است. دادگان مورد استفاده، از مجموعه دادگان eNTERFACE است که در سال 2006 جمع آوری شده، سه حالت احساسی برانگیختگی مثبت، برانگیختگی منفی و حالت آرام یا استراحت را مورد مطالعه قرار داده است. سیگنال مغزی به صورت همزمان با چهار سیگنال محیطی: تنفس، میزان هدایت پوست، فشار خون و دما از پنج نفر ثبت شده است. ویژگی های مرتبط با حالات مختلف احساسی از سیگنال ها استخراج شده، که در مورد سیگنال های محیطی ویژگی های حوزه زمان و حوزه فرکانس مورد نظر می باشد و در مورد سیگنال مغزی، علاوه بر ویژگی های حوزه زمان و فرکانس، ویژگی های غیرخطی بعد همبستگی، نمای لیاپانوف و بعد فرکتال نیز استفاده شده است و در مورد سیگنال های مغزی از روش Synchronization Likelihood به منظور انتخاب الکترود استفاده شده است. ساختارهای چهارطبقه بندی کننده KNN،QDA،LDA،SVM مورد استفاده قرار گرفته است و نتایج سیگنال های مغزی و محیطی به صورت جداگانه و نیز در ترکیب با یکدیگر مقایسه شده اند. بیشترین میزان صحت،63.3% در طبقه بندی سیگنال های مغزی، 61.67% در طبقه بندی سیگنال های محیطی و 61.67% در طبقه بندی ترکیب سیگنال های مغزی و محیطی، به دست آمده است. نتایج نشان می دهد که استفاده از سیگنال مغزی نسبت به سیگنال محیطی و نیز ترکیب مغزی و محیطی در ایجاد تمایز بین حالات مختلف احساسی مورد مطالعه، موفق تر است؛ ولی نتایج به دست آمده از ترکیب سیگنال مغزی و محیطی، نتایج مقاوم تری نسبت به تغییر افراد و تغییر روش ها محسوب می شود.
    کلیدواژگان: سیستم های بازشناخت احساس، سیگنال مغزی، سیگنال های محیطی، استخراج ویژگی، طبقه بندی
  • مریم بیگ زاده *، محمد رضایی، فاطمه سادات جمالی دینان صفحه 53
    در این مقاله روش جامعی برای نهان کاوی در تصاویر JPEG معرفی می شود. در این روش پس از بررسی دقیق اثر فرآیندهای پنهان نگاری گوناگون بر مشخصات آماری تصویر، ویژگی های بهینه ای از تصویر استخراج می شود که توانایی بالایی در ایجاد تمایز بین دو گروه تصاویر طبیعی و پنهان نگار دارند. علاوه بر استخراج ویژگی های بهینه، در یک تصمیم گیری سلسله مراتبی دقت تشخیص به شکل قابل توجهی افزایش یافته است. در این مقاله نشان می دهیم که آمارگان مرتبه اول ضرایب DCT (مانند هیستوگرام) بیشتر در حمله به روش های پنهان نگاری جای-گذاری در LSB (مانند JSTEG، OUTGUESS، JPHide&Seek و StegHide) موفق تر از آمارگان مرتبه دوم (مانند انواع همبستگی ها) عمل می کنند. همچنین مشخصات آماری مرتبه دوم در تشخیص سایر روش های پنهان نگاری در حوزه ضرایب DCT (بالاخص روش های تطبیق LSB، روش MB1، SSIS و روش مبتنی بر کوانتیزیشن) عملکرد بهتری از مشخصات آماری مرتبه اول دارند. علاوه بر آن، روش نهان کاوی معرفی شده با نگاه جامع به انواع روش های پنهان نگاری موجود، مشخص می کند که نقاط ضعف هر یک در مقابل حملات آماری گوناگون چیست و چگونه می توان به روش های جاسازی امن تر دست پیدا کرد. نتایج تجربی نشان می دهد که دقت این روش در مقایسه با روش های رقیب، بهتر بوده و در عین حال از جامعیت و تعمیم پذیری بالاتری برخوردار است. آزمایش ها روی مجموعه دوهزارتایی از تصاویر JPEG با ضرایب کیفیت متنوع انجام شده و روش معرفی شده، قادر بوده است که شش روش پنهان نگاری معمول (JSteg، OutGuess، F5، MB1، Sequential LSB matching و Random LSB Matching) را با دقت بیش از 80% در نرخ های جاسازی بیش از 20% تشخیص دهد. طبقه بندی کننده های مورد استفاده برای طبقه بندی از نوع SVM هستند.
    کلیدواژگان: نهان کاوی تصاویر JPEG، حمله به پنهان نگاری، جای گذاری در LSB، تطبیق LSB، دسته بندی ویژگی ها
  • مهدی عبدالصالحی *، محمدعلی خلیل زاده، محمودرضا آذرپژوه صفحه 71
    P300 را برجسته ترین مولفه در بین مولفه های شناختی مختلف موجود در سیگنال الکتریکی مغز می دانند. طبق تحقیقات انجام شده، هنگامی که مغز در حین پردازش یک سری از تحریکات معمول، به یک تحریک جدید (تحریک غیرمعمول) برمی خورد، در سیگنال مغزی ثبت شده، یک موج P300 ظاهر می شود که با تشخیص این مولفه می توان تحریکات جدید را از تحریکات معمول جداسازی کرد. دامنه مولفه P300 در هنگام اعمال تحریکات صوتی، پس از گذشت مدت زمانی از شروع آزمایش کاهش می یابد؛ به نحوی که در تشخیص دامنه این مولفه با مشکل روبرو می شویم. در این تحقیق با استفاده از پنج تحریک صوتی، به بررسی کاهش دامنه این مولفه و علل آن در سه بلوک ثبت مجزا و همچنین تشخیص این مولفه شناختی، به وسیله شبکه عصبی و الگوریتم ژنتیک پرداخته ایم. در نهایت با استفاده از ده ویژگی بهینه، به عنوان ورودی طبقه بندی کننده شبکه عصبی در کانال Pz با صحت 47/61% در دادگان آموزش و 60% در دادگان آزمون در بلوک اول، تک ثبت های حاوی موج P300 از تک ثبت های فاقد این موج جداسازی شده اند.
    کلیدواژگان: الکترو انسفالوگرافی(EEG)، پتانسیل های وابسته به رویداد، P300، شبکه عصبی، الگوریتم ژنتیک
  • محسن محسنی *، محسن سریانی صفحه 79
    در محیط هایی که نمی توان از چشم غیر مسلح و دوربین های معمولی برای تشخیص انسان از غیر انسان استفاده کرد (مانند محیط های تاریک، مه و دود)، بهترین راه حل استفاده از تصاویر مادون قرمز است. این مقاله یک روش مقاوم برای تشخیص انسان در توالی تصاویر مادون قرمز ارایه می دهد. برای این منظور از ترکیب کلاس بند SVM و کلاس بند مبتنی بر هیستوگرام استفاده شده است؛ به این ترتیب که الگوهایی از تصویر که احتمال حضور انسان در آن ها موجود می باشد، پس از فرآیندپیش پردازش استخراج شده و به کلاس بندهای هیستوگرام و SVM داده می شوند. برای یادگیری و تست الگوریتم ارایه شده از پایگاه داده گرمایی عابرپیاده OSU استفاده شده است. نتایج اجرای الگوریتم ارایه شده روی این پایگاه داده، کارآیی و دقت آن را نشان می دهد.
    کلیدواژگان: تشخیص عابر پیاده، تصاویر مادون قرمز، ماشین بردار پشتیبان، هیستوگرام
|
  • M. Eslami * Page 3
    This research has been carried out in the framework of Auto segmental-metrical (AM) phonology to study the stress in Persian. Two types of abstract and concrete prominences were distinguished in which the first one refers to the stress and the second one refers to the pitch accent. Stress is assumed to be a lexical property of the lexemes, but pitch accent is assumed to be an intonational element; therefore, contrary to stress, pitch accent in not fixed and predictable. Pitch accents could appear only on the lexically stressed syllables, if the context necessitates. Using the interface between phonology and morphology, it was concluded that all classes of lexemes are stressed on their final syllables in Persian; of course some grammatical morphemes are exceptions. Stress in inflected forms of words was formalized in which inflectional morphemes are stressed and receive the stress of the word, but clitics are unstressed and do not change the position of word stress if added to the stem. The results of this study could be used in linguistic studies and in different branches of Natural Language Processing.
    Keywords: stress, lexical stress, pitch accent, autosegmental-metrical, phonology, intonation.
  • A. Kamek Ghilibaf, S. Rahati Ghouchani *, A. Estaji Page 13
    Extracting semantic roles is one of the major steps in representing text meaning. It refers to finding the semantic relations between a predicate and syntactic constituents in a sentence. In this paper we present a semantic role labeling system for Persian, using memory-based learning model and standard features. Our proposed system implements a two-phase architecture to first identify the arguments by a shallow syntactic parser or chunker, and then to label them with appropriate semantic role, with respect to the predicate of the sentence. We show that good semantic parsing results, can be achieved with a small 1300-sentence training set. In order to extract features, we developed a shallow syntactic parser which divides the sentence into segments with certain syntactic units. The input data for both systems is drawn from RCISP corpus which is hand-labeled with required syntactic and semantic information. The results show an F-score of 81.6% on argument boundary detection task and an F-score of 87.4% on semantic role labeling task using Gold-standard parses. an overall system performance shows an F-score of 73.8% on complete semantic role labeling system i.e. boundary plus classification.
    Keywords: Semantic Role Labeling, Shallow Semantic Parsing, Shallow Syntactic
  • A. Mohammadian *, V. Aboutalebi, Mh. Moradi, Ma. Khalilzadeh Page 23
    Current lie detection methods, based on the polygraph technique, rely upon the measurement of several physiological characteristics to discriminate whether a truth or a lie is expressed. P300-based GKT (guilty knowledge test) has been suggested as an alternative approach for conventional polygraph technique. The purpose of this study is to evaluate RT (response time) analysis and combination of RT and ERP to identify participants possessing specific guilty knowledge. For the analysis, several previous methods were implemented and results of RT analysis and fusion ERP and RT analysis were compared which other. The accuracy of RT analysis (bootstrapped analysis of reaction time method) is 81% and AUC (area under curve) of correct detection in guilty and innocent subjects is 0.85 which are comparable to 80% accuracy of ERP analysis (Wavelet classifier method) and AUC=0.86 in previous study. Between the many fusion methods, fusion of BART and BAD method has the better accuracy and best AUC, this is superior result compared to results of previous methods from McNemar’s test point of view. These results show that brain response and behavioral response have complement information. The Fusion of BART and BAD method is combination of brain and behavioral response, therefore this proposed as best approach for Assess "Guilty Knowledge".
    Keywords: Reaction Time, Guilty Knowledge Test, Event Related Potential, Multimodal Analysis
  • Z. Khalili *, Mh. Moradi Page 33
    Emotions play a powerful and significant role in human beings everyday life. They motivate us, impact our beliefs and decision making and would affect some cognitive processes like creativity, attention, and memory. Nowadays the use of emotion in computers is an increasingly in vogue field. In many ways emotions are one of the last and least explored frontiers of intuitive human-computer interactions. This can perhaps be explained by the fact that computers are traditionally viewed as logical and rational tools which is incompatible with the often irrational and seeming illogical nature of emotions. It is apparent that we as humans, in spite of having extremely good abilities at felling and expressing emotions, still cannot agree on how they should best be defined. until now, there are a bunch of good reasons which supports that emotion is a fitting topic for Human-Computer Interaction research. Human beings who are emotional creatures should theoretically be able to interact more effectively with computers which can account for these emotions. So Emotions assessed would make some improvement in HCI. The goal of our research is to perform a multimodal fusion between EEG’s and peripheral physiological signals for emotion detection. The input signals were electroencephalogram, galvanic skin resistance, blood pressure and respiration, which can reflect the influence of emotion on the central nervous system and autonomic nervous system respectively. The acquisition protocol is based on a subset of pictures which correspond to three specific areas of valance-arousal emotional space(positively excited, negatively excited, and calm). The features extracted from input signals, and to improve the results of brain signals, nonlinear features as correlation dimension, largest lyapunov exponent and fractal dimension is used. The performance of four classifiers: LDA, QDA, KNN, SVM has been evaluated on different feature sets: peripheral signals, EEG’s, and both. Synchronization likelihood is used as a channel selection algorithm and the performance of two feature selection algorithms; Genetic Algorithm and Mutual information is evaluated. The best result of accuracy in EEG signals is 63.3% with QDA as classifier, the best result of peripheral signals is 61.67% and the best of both is 63.3% with QDA. In comparison among the results of different feature sets, EEG signals seem to perform better than other physiological signals, and the results presented showed that EEG’s can be used to assess emotional states of a user. Also, fusion provides more robust results since some participants had better scores with peripheral signals than with EEG’s and vice-versa.
    Keywords: Emotion, EEG, peripheral signals, feature extraction, classification, channel selection, nonlinear features
  • M. Beigzadeh *, M. Rezaei, F.S. Jamali Page 53
    In this paper, we propose a comprehensive steganalysis scheme for JPEG images. In this method, the optimized features which can interpret high distinction between cover and stego images are extracted from images. These features have been selected after a careful study on modifications caused by different steganography algorithms on statistical characteristics of images. Furthermore, using a hierarchical decision making, we have considerably improved the detection accuracy. It has been shown that the first-order statistics of DCT coefficients (e.g. histogram) are often more successful than second-order statistics (e.g. different types of correlations) in detection of LSB flipping methods such as JSteg, OutGuess, JPHide&Seek and StegHide. On the other hand, the second order statistical characteristics have better performance in some other steganography methods (especially for LSB Matching, MB1, SSIS and PQ). The proposed Method reveals the weakness of the different steganography algorithms by thorough view on them. The results of our experiments indicate that the accuracy of proposed approach is better than some other state of the art steganalysis methods in the term of detection accuracy. Besides, it is more generalized and comprehensive. A database including 2000 JPEG images with different quality factors has been used for these experiments. The new scheme can detect six common steganography
    Methods
    JSteg, OutGuess, F5, MB1, Sequential and Random LSB Matching, with accuracies higher than 80% for the payload of more than 20%. We have used SVM for our classification scheme.
    Keywords: Blind JPEG Steganalysis, data hiding attack, LSB flipping, LSB matching, feature categorization
  • M. Abdolsalehi *, Ma. Khalilzade, Mr. Azarpajoh Page 71
    P300 is known as the most prominent component between cognitive components in electrical brain activity. According to done research, when brain encounters an inconsistent stimulation during processing a series of usual stimulation, a P300 component appears in recorded brain signal which could distinguishes from usual ones. Amplitude of P300 decreases after a short during act of auditory simulation; so that we face difficulty in recognition of component features. In the research we considered reduction of the amplitude of P300 with five auditory stimulations and its reasons in three separate record blocks as well as recognition of the component with Neural Network and Genetic Algorithm. Finally single-trial recordings containing P300 component from single-trial recordings without P300 component have been discriminated by six optimum features as Neural Network classifier input in Pz channel with accuracy of 80.55% in learning data and 50% in test data in the first block.
    Keywords: Electroencephalography (EEG), Event Related Potential (ERP), P300, Neural Network, Genetic Algorithm
  • M. Mohseni * Page 79
    In dark environments and foggy or smoky conditions where it is not possible to use eyesight and usual binoculars to detect human from other objects, the best solution is to use infrared images. This paper presents a robust method to recognize pedestrians in infrared image sequences. For this purpose, combination of SVM and histogram classifiers has been used. A pre-processing phase extracts image patterns similar to human patterns and delivers them to histogram and SVM classifiers. For training and testing phases of the presented algorithm thermal data base of OSU pedestrian video sequences has been utilized. Results of the algorithm present its good accuracy and performance.
    Keywords: Pedestrian detection, Infrared images, Support Vector Machine, Histogram classifie