فهرست مطالب

پردازش علائم و داده ها - سال یازدهم شماره 1 (پیاپی 21، 1393)
  • سال یازدهم شماره 1 (پیاپی 21، 1393)
  • تاریخ انتشار: 1393/06/30
  • تعداد عناوین: 9
|
  • محمدولی ارباب میر، سید محمد محمدی، محمد صادق سلحشور، فرشاد سمیه ئی صفحه 3
    در این مقاله الگوریتمی جدید در تشخیص قالب و مرکزیابی دقیق ستارگان تصاویر آسمان شب، ارائه شده است. در فضاپیماهایی که از تصاویر ستارگان آسمان شب برای تعیین وضعیت خود استفاده می کنند، دقت و سرعت عملیات پردازش تصویر نقشی بسیار تعیین کننده دارند. عملیات تشخیص قالب و مرکزیابی ستارگان، جزء مهم ترین مراحل فرآیند پردازش تصویر در این روش های تعیین وضعیت به شمار می روند. در اینجا، با هدف افزایش سرعت و دقت این عملیات، الگوریتمی جدید در تشخیص قالب، متشکل از دو مرحله آستانه گذاری و خوشه بندی و همچنین مرکزیابی دقیق ستارگان، ارائه شده است. نتایج پیاده سازی ها نشان می دهد که روش آستانه گذاری پیشنهادی، توانسته است در شرایط عدم توزیع یکنواخت درخشندگی، بهتر از سایر روش های متداول عمل کند. حجم محاسباتی بسیار پایین و خطای متوسط مرکزیابی به دست آمده کمتر از 0/045پیکسل در 100 تصویر شبیه سازی-شده، نشان دهنده کارایی بالای الگوریتم ارائه شده در این مقاله است.
    کلیدواژگان: آستانه گذاری، دودویی کردن، تصاویر ستارگان آسمان شب، فضاپیما، مرکزیابی
  • محمدباقر خامه چیان، مهدی سعادتمند طرزجان صفحه 19
    مرز فعال تصادفی (STACS) روشی متداول و پرکاربرد برای بخش بندی مرز اندوکارد در تصاویر تشدید مغناطیسی قلبی (CMR) است. با این وجود، STACS در تصاویر CMR با روشنایی غیریکنواخت عملکرد مطلوبی ندارد؛ زیرا در تابعی انرژی آن برای توصیف توزیع سطح خاکستری نواحی درون و برون مرز فعال، از دو تابع چگالی احتمال گوسی استفاده شده است. از طرف دیگر، مرز فعال تطبیق باینری محلی (LBF)، به دلیل استفاده از کرنل گوسی برای پردازش محلی سطح خاکستری پیکسل ها، از عملکرد مناسبی در بخش بندی نواحی ناهمگن برخوردار است. در این مقاله، با جایگزین کردن جمله مبتنی بر ناحیه در تابعی انرژی STACS با بخشی از تابعی انرژی LBF، یک مدل فرم پذیر جدید برای بخش بندی تصاویر CMR با روشنایی ناهمگن ارائه شده است. به علاوه، ضرایب جملات مختلف تابعی انرژی در طول تکامل مرز فعال به صورت زمان- واقعی تنظیم شده اند. برای ارزیابی عملکرد روش پیشنهادی از چهل تصویر CMR در دو مرحله پایان سیستول و دیاستول استفاده شده است. در هر تصویر، مرز اندوکارد مطلوب توسط یک متخصص به صورت دستی مشخص شده است. نتایج تجربی بیان گر عملکرد بهتر روش پیشنهادی در بخش بندی مرز اندوکارد در مقایسه با مرز فعال هندسی، مرز فعال بدون لبه و STACS است.
    کلیدواژگان: بخش بندی، تصاویر تشدید مغناطیسی قلبی، مرز اندوکارد، مدل های فرم پذیر هندسی، روش سطح تراز، مرز فعال تصادفی، تطبیق دودویی محلی
  • آصف پورمعصومی، محسن کاهانی، سید احمد طوسی، احمد استیری، هادی قائمی صفحه 33
    امروزه با رشد چشم گیر اسناد منتشرشده در وب و نیاز اساسی به نگهداری، دسته بندی، بازیابی و پردازش آنها، توجه به پردازش زبان طبیعی و بهره گیری از ابزارهایی نظیر خلاصه سازهای خودکار و مترجم های ماشینی، بیش از پیش احساس می شود. خلاصه سازی خودکار به عنوان هسته مرکزی طیف گسترده ای از ابزارهای پردازش گر متن مانند سامانه های تصمیم یار، سامانه های پرسش وپاسخ، موتورهای جستجو و غیره از سال ها پیش مطرح شده و همواره به عنوان یک موضوع مهم مورد بررسی و تحقیق قرار گرفته است. در این مقاله، سامانه ای به نام «ایجاز» به منظور خلاصه سازی خودکار تک سندی متون فارسی ارائه شده است. در این سامانه از تجربیات سامانه های مشابه داخلی و خارجی استفاده شده است؛ و با استفاده از پارامترهای جدید، دقت سامانه خلاصه سازی ارائه شده به میزان قابل توجهی بهبود یافته است. همچنین برای اولین بار با بهره گیری از یک پیکره بزرگ خلاصه سازی و ابزار ارزیابی استاندارد، عملیات مقایسه و ارزیابی صورت گرفته است.
    کلیدواژگان: پردازش زبان فارسی، خلاصه سازی خودکار تک سندی، متون خبری
  • کریم حسام پور، محمد قاسم زاده صفحه 49
    تشخیص مدولاسیون سیگنال دریافتی، گام میانی بین تشخیص سیگنال و دمدولاسیون آن محسوب می شود؛ به طوری که در بسیاری از سامانه های مخابراتی و نظامی تشخیص خودکار مدولاسیون جزئی از سامانه درنظر گرفته می شود. برای تشخیص خودکار مدولاسیون، به طور معمول تعدادی ویژگی از سیگنال دریافتی استخراج و به کار گرفته می شود، در این رابطه، انتخاب ویژگی مناسب، تاثیر به سزایی در افزایش کارایی تشخیص خودکار مدولاسیون دارد. در این مقاله با کمک برنامه نویسی ژنتیک از بین ویژگی های ورودی، ویژگی مناسب برای جداسازی هر مدولاسیون تولید و انتخاب می شود. شبیه سازی با سیگنال های مدوله شده با مشخصه سیگنال به نوفه پنج و ده دسی بل صورت گرفت. مجموعه ای از آزمایش ها در این پژوهش صورت گرفت که هدف از آنها تعیین میزان کارایی برای سیگنال های مدوله شده با مدولاسیون های پرکاربرد و متداول مخابراتی بوده است. پس از انتخاب ویژگی مناسب برای جداسازی مدولاسیون ها از شبکه عصبی پرسپترون چندلایه برای جداسازی نوع مدولاسیون استفاده می شود. نتایج حاصل نشان می-دهد به کارگیری ویژگی هایی که سامانه مورد نظر پیشنهاد می دهد، منجر به افزایش قابل توجهی در تشخیص دقیق تر و سریع تر نوع مدولاسیون می شود.
    کلیدواژگان: تشخیص خودکار مدولاسیون، برنامه نویسی ژنتیک، آنتروپی، شبکه عصبی چندلایه پرسپترون
  • مهسا میرلو، حسین ابراهیم نژاد صفحه 59
    بخش بندی مدل های سه بعدی، نقش مهمی در پردازش این مدل ها از جمله بازیابی، فشرده سازی و نهان نگاری مدل های سه-بعدی دارد. در این مقاله روش جدیدی برای بخش بندی مدل های سه بعدی براساس استخراج نقاط برجسته ارائه شده است. تحقیقات علوم شناختی، تجزیه جسم سه بعدی به بخش های ساده تر را به عنوان یکی از راه های تحلیل و تشخیص اجسام سه بعدی توسط انسان معرفی کرده است. بر این اساس بخش های حاصل از تجزیه جسم سه بعدی، به دو دسته کلی هسته و بخش های برجسته تقسیم می-شوند. در روش پیشنهادی، ابتدا مرکز ثقل مدل سه بعدی محاسبه می شود؛ سپس نقطه ای با بیش ترین فاصله اقلیدسی از مرکز مدل به عنوان نقطه برجسته که نماینده بخش برجسته ای از مدل است، انتخاب و همسایگی ژئودزیکی آن از مجموعه جستجوی نقاط برجسته حذف می شود. این فرآیند تا یافتن تمام بخش های برجسته ادامه می یابد. سپس هسته مدل به عنوان قسمتی که سایر بخش-های برجسته را به یکدیگر متصل می کند، شناسایی شده و بدین ترتیب بخش بندی مدل سه بعدی صورت می پذیرد. معرفی مرکز ثقل مدل به عنوان نقطه مرجع، استفاده هم زمان از فاصله اقلیدسی و ژئودزیکی و حذف همسایگی نقطه برجسته انتخابی از مجموعه جستجوی نقاط، باعث مقاوم شدن الگوریتم پیشنهادی در برابر تبدیلات جابه جایی، چرخش و تغییر وضعیت مدل و همچنین باعث افزایش سرعت اجرای الگوریتم پیشنهادی نسبت به سایر الگوریتم ها شده است.
    کلیدواژگان: بخش بندی، مدل های سه بعدی، فاصله ژئودزیک، نقاط برجسته، هسته
  • مجید عسگری بیدهندی، بهروز مینایی بیدگلی صفحه 73
    تشخیص و استخراج واحدهای اسمی مانند نام اشخاص، مکان ها، تاریخ و ساعت، در داده کاوی از یک منبع الکترونیکی یا متنی بسیار مفید است. تشخیص درست واحدهای اسمی، یک نیاز مهم در حل مسائلی در حوزه های جدید مانند پاسخ گویی به سوال ها، سیستم های خلاصه سازی، بازیابی اطلاعات، استخراج اطلاعات، ترجمه ماشینی، تفسیر ویدئویی و جستجوی معنایی در وب است. به علاوه، تشخیص واحدهای اسمی می تواند به ما در حل پیشرفته ترین مسائل پردازش زبان طبیعی هم چون رفع ابهام معنایی میان دو نام مشترک از رشته های متفاوت، پیدا کرد ارجاع ها در مقالات علمی، تشخیص وابستگی میان اشخاص و بهبود نتایج پرس و جوهایی شامل اسامی در موتورهای جستجو کمک کند.
    در سال های گذشته تلاش دانشمندان برای انجام عملیات تشخیص واحدهای اسمی برای زبان انگلیسی و دیگر زبان های اروپایی به نتایج بسیار خوبی منجر شده است، اما برای زبان هایی مانند فارسی و عربی، نتایج مناسب حاصل نشده است. یکی از اصلی ترین اهداف عملیات تشخیص واحدهای اسمی، تشخیص اسامی اشخاص است. در این مقاله سامانه ای برای تشخیص اسامی با به کارگیری مفهوم «کلمه های نامزد اسم» در مراحل آموزش و پیش بینی مدلی مبتنی بر میدان های تصادفی شرطی معرفی شده است. به طورخاص، همراه با توسعه این سامانه، پیکره های متنی استانداردی از روی متون دینی کهن به زبان عربی ساخته شده است. همچنین حاصل کار سامانه بر روی داده های روزنامه ای که توسط محققان دیگر ایجاد شده، بررسی شده است و نتایج به دست آمده در مقایسه با نتایج سامانه های دیگر روی همان داده ها، نشان می دهد با استفاده از این روش، دقت تشخیص اسامی در متون عربی به مقدار قابل توجهی بالا رفته است.
    کلیدواژگان: تشخیص واحدهای اسمی، یادگیری ماشین، میدان های تصادفی شرطی، زبان فارسی، زبان عربی
  • افشین رحیمی، بهرام وزیرنژاد، محرم اسلامی صفحه 87
    در این پژوهش توزیع رسایی در هجای زبان فارسی بررسی شده است. مطابق با اصل توالی رسایی، رسایی در هجا می بایست از مقدار کمینه شروع شده در هسته به اوج رسیده و سپس تا پایانه کاهش یابد. نتایج به دست آمده نشان می دهد که زبان فارسی از این الگو به صورت کلی پیروی می کند. نتایج حاصله نشان می دهد که گروه های هم خوانی رسا در تمامی جایگاه ها بیش از میزان قابل انتظار ظاهر شده و گروه های هم خوانی نارسا مانند هم خوان های انفجاری تنها در جایگاه های پیش واکه ای به میزان مورد انتظار ظاهر شده اند که نشان گر اهمیت جواز ادراکی بافت در میزان رخداد این گروه از هم خوان هاست. این نتایج تاییدی بر نظریه جواز ادراکی است.
    کلیدواژگان: اصل توالی رسایی، هجا، زبان فارسی، واج شناسی
  • امین محمدیان، حسن آقایی نیا، فرزاد توحیدخواه صفحه 95
    روش پیشنهادی به منظور بهبود بازشناسی جلوه های هیجانی چهره ارائه شده است. در این روش به جای افزایش توان محاسباتی الگوریتم تحلیل تفکیک پذیر خطی(LDA)، دانش مربوطه به ایجاد تنوعات در بروز جلوه های هیجانی در چهره به کار گرفته شده است. این دانش شناسایی و دسته بندی شده است. با به کارگیری خوشه هایی که با دانش دسته بندی چهره به دست آمده، ماتریس پراکندگی داخل طبقه و بین طبقه ای برای هر خوشه، جداگانه محاسبه می شوند و در مرحله آزمون نیز هر بردار براساس ماتریس تبدیل تحلیل تفکیک پذیری مربوط به خوشه خودش به زیرفضا نگاشت می شود. با این کار از طریق دانش دسته بندی چهره-های مختلف، مقداری از بار تنوعات بروز جلوه های هیجانی در چهره کاسته شده است تا توان تعمیم روش ساده ای چون تحلیل تفکیک پذیر خطی افزایش پیدا کند. نتایج روش پیشنهادی به ازای هر سه نوع خوشه بندی ارائه شده بهبود داشته است و بهترین نتیجه مربوط به روش مبتنی بر خوشه بندی شاخص چهره بوده است که از 95.75% به 98.66% ارتقا یافته است. این روش قابل استفاده برای دسته وسیعی از روش های بازشناسی جلوه های هیجانی چهره است و در مواجه با دادگان های حجیم راهکار کارآمدی خواهد بود.
    کلیدواژگان: خوشه بندی چهره، بازشناسی جلوه های هیجانی، تفکیک پذیر خطی مبتنی بر خوشه بندی
  • پریسا شیروانی، مهرداد وطن خواه خوزان، خشایار یغمایی صفحه 107
    بازشناسی متون، در سال های اخیر بسیار مورد توجه قرار گرفته است. ارائه الگوریتم های بازشناسی، برگرفته از ساختار گرامری و معنایی این زبان می تواند روش موثری در پردازش های دیگر مربوط به خط و زبان فارسی باشد. در این مقاله با استفاده از شاخه علمی پردازش زبان های طبیعی، یک الگوریتم سه مرحله ای به منظور بازشناسی متون فارسی بر مبنای بازشناسی جملات فارسی ارائه می شود. این روش شامل مراحل ترکیب زیرکلمات به منظور ساخت کلمات و سپس جملات بالقوه معنی دار و درنهایت استفاده از دو مدل زبانی و چند قاعده گرامری، به منظور تشخیص جمله صحیح براساس انطباق با گرامر زبان فارسی است.آزمایش های متعدد نشان می دهد که دقت روش ارائه شده برای مرحله ساخت کلمات و سپس جملات بالقوه معنی دار98 درصد و برای تشخیص جمله صحیح با استفاده از مدل زبانی بایگرام 85 درصد و برای مدل زبانی ترایگرام 88 درصد است.
    کلیدواژگان: بازشناسی متن، فارسی، مدل سازی زبان فارسی، پردازش زبان های طبیعی
|
  • Mohammad Vali Arbabmir, Seyyed Mohammad Mohammadi, Mohammad Sadegh Salahshoor, Farshad Somayehee Page 3
    In this paper a novel night sky star pattern recognition and precise centroiding approaches are proposed. Precision and computation time of image processing algorithm paly a great role in spacecraft in which the night sky star images are utilized for attitude determination. Star pattern recognition and centroiding are the most important steps of image processing algorithm in such attitude determination techniques. Here, in order to improve the computation time and precision of the image processing algorithm, a novel star pattern recognition approach including thresholding and clustering steps and precise centroiding method are proposed. Implementation results indicate that the proposed thresholding approach performs better than traditional approaches in dealing with images with uneven illumination. Lower computational burden and average centroiding error of less than 0.045 pixel obtained from experimenting 100 test simulated images, show the great capability of proposed image processing algorithm.
    Keywords: Centroiding, Converting to binary, Night sky star images, Spacecraft, Thresholding
  • Mohammad, Bagher Khamechian, Mahdi Saadatmand, Tarzjan Page 19
    The stochastic active contour scheme (STACS) is a well-known and frequently-used approach for segmentation of the endocardium boundary in cardiac magnetic resonance (CMR) images. However, it suffers significant difficulties with image inhomogeneity due to using a region-based term based on the global Gaussian probability density functions of the inner\outer regions of the active contour. On the other hand, the local binary fitting (LBF) provides suitable results for segmentation of inhomogeneous regions because of employing a local Gaussian kernel function. In this paper, we propose a new active contour for inhomogeneous CMR images segmentation by substituting the region-based term of STACS with the corresponding energy functional of LBF. Furthermore, we automatically adjust weighting coefficients of the proposed energy functional according to the simulated annealing algorithm. The performance of the proposed method has been demonstrated on fourteen CMR images. All benchmark images are selected at the end of diastolic\systolic phase of the cardiac cycle. Furthermore, for each benchmark CMR image, the desired boundary was delineated by an expert. Experimental results demonstrated that compared to the geometric active contour, active contour without edge and STACS; the proposed method provides significantly superior performance for segmentation of the endocardium boundary of left ventricle of the human heart.
    Keywords: Segmentation, Cardiac Magnetic Resonance Images, Endocardium Boundary, Geometric Active contour, Level Set, Stochastic Active Contour Scheme, Local Binary Fitting
  • Asef Poormasoomi, Mohsen Kahani, Seyyed Ahmad Toosi, Ahmad Estiri, Hadi Qaeim Page 33
    The rapid growth of published documents on the web has created some new requests for processing, classification and information retrieval. So, the use of natural language processing tools has increased around the world. Automatic summarization known as the core of a wide range of text-processing tools such as decision systems, accountability systems, search engines, etc. And always has been investigated as an important issue in computer science.This paper has introduced "Ijaz", a text summarization system, for Persian documents. For this, we first review the related works in this field, especially for Persian text summarization. We then investigate the using of some new effective features for improvement of the proposed summarizer system. Also for the first time, by using of a large corpus and standardized assessment tools, the proposed method has been evaluated and compared with other existing approaches for Persian text. The results of this evaluations are remarkable.
    Keywords: Persian Language Processing, Automated Single Document Summarizer, News Text
  • Karim Hessampour, Mohammad Ghasemzadeh Page 49
    This paper shows how we can make advantage of using genetic programming in selection of suitable features for automatic modulation recognition. Automatic modulation recognition is one of the essential components of modern receivers. In this regard, selection of suitable features may significantly affect the performance of the process. In this research we implemented our model by using appropriate software and hardware platforms. Simulations were conducted with 5db and 10db SNRs. We generated test and training data from real ones recorded in an actual communication system. For performance analysis of the proposed method a set of experiments were conducted considering signals with 2ASK, 4ASK, 2PSK, 4PSK, 2FSK and 4FSK modulations. The results show that the selected features by the suggested model improve the performance of automatic modulation recognition considerably. During our experiments we also reached the optimum values and forms for mutation and crossover ratio, elitism policy, fitness function as well as other parameters for the proposed model.
    Keywords: Automatic Modulation recognition, Genetic Programming, Entropy, Multi, layer Perceptron Neural Network
  • Mahsa Mirloo, Hossein Ebrahimnezhad Page 59
    3D model segmentation has an important role in 3D model processing programs such as retrieval, compression and watermarking. In this paper, a new 3D model segmentation algorithm is proposed. Cognitive science research introduces 3D object decomposition as a way of object analysis and detection with human. There are two general types of segments which are obtained from decomposition based on this principle: a core and salient parts. In this approach we start with calculating center of the model. Then, a point with maximum Euclidean distance from the center which represents a prominent part is chosen as the first salient point and its geodesic neighborhood points are deleted from salient point’s search domain. This process is continued until all salient points are detected. Then, the core part which connects the other parts to each other is detected. Thus, 3D model segmentation is completed. Considering center of the model as the reference point and utilizing both Euclidean and geodesic distance and deleting salient point’s neighborhood from salient point’s search domain led our proposed approach to be invariant against translation, rotation and pose changes and also decrease operation time of the proposed algorithm in comparison with the other 3D model segmentation algorithms.
    Keywords: Segmentation, 3D models, Geodesic Distance, Salient Points, core extraction
  • Majid Asgari Bidhendi, Behrouz Minaei, Bidgoli Page 73
    Named Entity Recognition and Extraction are very important tasks for discovering proper names including persons, locations, date, and time, inside electronic textual resources. Accurate named entity recognition system is an essential utility to resolve fundamental problems in question answering systems, summary extraction, information retrieval and extraction, machine translation, video interpretation and semantic query expansion. Furthermore, named entity recognition can help us in some state-of-art problems such as removing ambiguity between two common names in different fields, finding out citations in scientific articles, recognizing the associations among persons and improving the results of a search engine to search queries containing named entities.Recently, many researches have been done on named entity recognition for English and other European languages which have led to efficient results; whereas the results are not convincing in Arabic, Persian and many of South Asian languages. One of the most necessary and problematic sub-tasks of named entity recognition is the person named extraction. In this article we have introduced a system for person named extraction in Arabic religious texts using "Proper Name candidate injection" by means of Conditional Random Field (CRF) method. Additionally, we have constructed a new corpus from traditional Arabic religious texts. Applying this method, our experiments have significantly achieved more efficient results.
    Keywords: Name entity recognition, Machine learning, Conditional Random Fields, Persian language, Arabic language
  • Afshin Rahimi, Bahram Vazirnezhad, Moharram Eslami Page 87
    In this study the distribution of sonority in syllable structure of Persian language is investigated. According to Sonority Sequencing Principle (SSP) sonority is minimum at the Onset, increases to maximum at the nucleus and decreases to last consonant of Coda. The results show that with some exceptions Persian language generally obeys SSP. The results also show that sonorant consonants are occurred more than they were expected no matter where their positions where. Non-sonorants such as plosives occur as expected in pre-vocal contexts which supports the idea that Perceptual Cue Salience plays an important role in shaping sonority sequencing in syllables. The results support the Licensing by Cue hypothesis.
    Keywords: Sonority Sequencing Principle, Syllable, Persian Language, Phonology
  • Amin Mohammadian, Hassan Aghaeinia, Farzad Towhidkhah Page 95
    This paper examines the performance of facial expression recognition improved by a discriminant analysis method. The proposed method incorporate knowledge of face clustering in linear discriminant analysis to improve it’s performance. Three face clustering approach have been considered. Intra-subject covariance and inter-subject covariance matrix are calculated in each cluster. The new sample is projected by mapping learned by samples in his cluster. Therefore, variation between train and test samples is reduced and the generalization performance of linear discriminant analysis is improved. Experimental results on the CK+ database confirm the efficiency of the proposed method in recognition rate improvement. This approach is applicable for many methods used in large scale facial expression recognition.
    Keywords: Face clustering, facial expression recognition, discriminant analysis
  • Parisa Shirvani, Mehrdad Vatankhah, Khashayar Yaghmaie Page 107
    Text recognition has been one of the growing research topics in recent years. Many of these researches have focused on recognition of letters and sub-words as a basis for identifying larger text structures such as words, phrases and sentences. This thesis presents a new method in which the recognized sub-words are combined in order to provide meaningful words and sentences in Farsi texts. Since there may be more than one meaningful combination, the potential meaningful sentences are filtered using Farsi grammatical rules. In the sub-word recognition stage, a double scan method is exploited while the words are extracted using a database of frequent Farsi words. In the last stage a 2 and 3-gram method as well as Farsi grammatical rules are employed to identify the most meaningful sentence from all potential candidates. Experiments have proved the accuracy of the exploited method to be more than 85 percent.
    Keywords: Text recognition, Persian language modeling, Natural language processing