فهرست مطالب

پردازش علائم و داده ها - سال سیزدهم شماره 4 (پیاپی 30، زمستان 1395)

فصلنامه پردازش علائم و داده ها
سال سیزدهم شماره 4 (پیاپی 30، زمستان 1395)

  • تاریخ انتشار: 1395/12/11
  • تعداد عناوین: 10
|
  • مجتبی بهزاد فلاح پور، حمید دهقانی *، علی جبار رشیدی، عباس شیخی صفحات 3-18
    سامانه های تصویربرداری SAR به عنوان مکملی برای سنجنده های سنجش از دور غیر فعال مطرح می باشند اما از پیچیدگی بالایی در مرحله تشکیل تصویر برخوردارند. به طوریکه تصویر نهایی در این سامانه ها پس از طی سه گام اساسی جمع آوری داده ی خام، تشکیل فضای سیگنالی و تشکیل فضای تصویری بوجود می آید. به علاوه در اطلاعات ثبت شده توسط سامانه های تصویربرداری SAR عوامل مختلف درون سیستمی و برون سیستمی چون رادار، سکو حامل رادار، الگوریتم های پردازشی، ناحیه تصویربرداری و کانال نقش دارند که هرکدام از زیرپارامترهای فراوانی تشکیل شده اند و این موضوع نیز بر پیچیدگی نحوه رفتار SAR می افزاید. لذا با توجه به این پیچیدگی ها ارائه مدل-هایی که نحوه عملکرد سامانه های تصویربرداری SAR را تشریح نماید، بسیار مطلوب است. در این مقاله ابتدا نحوه عملکرد SAR در مرحله تشکیل تصویر و در مد عملکردی Spotlight به صورت تحلیلی مدل سازی می شود. سپس مدل ارائه شده به صورت نرم افزاری پیاده سازی می گردد که این پیاده سازی در برگیرنده هر سه گام اساسی بخش تشکیل تصویر می باشد. به گونه ای که جمع آوری داده ی خام در محیط نرم-افزاری CST و تشکیل فضای سیگنالی و تصویری در محیط نرم افزاری MATLAB انجام می شود. اهمیت این پیاده سازی از آن جهت است که قابلیت های زیادی چون امکان تحلیل اثر پارامترهای مختلف سامانه های تصویربرداریSAR ، تفسیر بهتر این نوع از تصاویر، امکان بررسی صحت راهکارهای مطرح شده در جنگ الکترونیک یا پدافند غیرعامل برای مقابله با سامانه های SAR و... را بوجود خواهد آورد.
    کلیدواژگان: SAR، فضای سیگنالی، فضای تصویری، میدان پراکندگی، مدل عملکردی، پیاده سازی نرم افزاری
  • منصور زینلی، محمدحسن قاسمیان * صفحات 19-28
    تحقیقات مختلفی برای افزایش دقت مکانی تصاویر با هدف تجزیه پیکسل های مخلوط در سنجش از دور انجام شده است. این روش ها و مشکلات پیش رو در این تحقیق بررسی خواهند شد. در ادامه مبحث جدیدی برای افزایش دقت مکانی تصاویر پیشنهاد خواهد شد. در این روش یک تصویر با دقت مکانی کمتر، از تصویر ورودی استخراج می شود که همانند یک جدول جستجو عمل می کند. با تعریف یک معیار برای شباهت بهینه پیکسل ها در دو تصویر، برای هر پیکسل از تصویر ورودی یک پیکسل مشابه در جدول جستجو می یابیم. نشان خواهیم داد که پیکسل های مشابه در دو تصویر، دارای یک ساختار مشابه از زیرپیکسل های تشکیل دهنده آن پیکسل می باشند. با استفاده از این روش هر پیکسل مخلوط به تعدادی زیرپیکسل که اغلب خالص هستند، تجزیه خواهد شد. شبیه سازی های انجام شده بر روی اطلاعات ساختگی و واقعی نشان دهنده بهبود شاخصهای طبقه بندی توسط روش پیشنهادی و تجزیه بهتر پیکسل های مخلوط، نسبت به روش های قابل مقایسه است.
    کلیدواژگان: افزایش دقت مکانی، زیرپیکسل، جدول جستجو، تجزیه پیکسلهای مخلوط
  • مهندس محمدرضا اسماعیلی *، سید حمید ظهیری صفحات 29-42
    طبق مطالعات انجام شده، در حدود یک درصد از مردم دنیا از صرع رنج میبرند. اولین مرحله از درمان صرع، تشخیص صحیح آن است. یکی از راه های تشخیص صرع، آنالیز دقیق الکتروانسفالوگرافی(EEG) است. بدین منظور، روش های مختلفی جهت تشخیص خودکار صرع بوسیله تحلیل سیگنال EEG ارائه شده است. در این مقاله با استفاده از یک الگوریتم هوشمند و ابتکاری جدید به نام الگوریتم بهینه سازی صفحات شیبدار(IPO)، به تشخیص و جداسازی سیگنال EEG آغشته به صرع از سیگنال های افراد سالم پرداخته ایم. به دلیل خاصیت غیرخطی و ناایستای سیگنال EEG، از تبدیل ویولت جهت استخراج ویژگی های سیگنال بهره گرفته شده است سپس با استفاده از ویژگی های استخراج شده توسط تبدیل ویولت و اعمال آن به سیستم مبتنی بر الگوریتم IPO به تشخیص صرع پرداخته شده است. با استناد به پژوهش انجام شده، مشخص شد که الگوریتم ابتکاری IPO توانایی بالایی در تشخیص صحیح صرع در سیگنال EEG دارد.
    کلیدواژگان: الکتروانسفالوگرافی، تشخیص صرع، تبدیل ویولت گسسته، الگوریتم های ابتکاری، الگوریتم بهینه سازی صفحات شیبدار
  • استخراج ویژگی های ساختاری فایل های کامپیوتری مبتنی بر تحلیل و ارزیابی آماری
    مجید وفایی جهان * صفحات 43-62
    فایل ها مهم ترین منبع ارائه اطلاعات به صورت های مختلف از قبیل متن، صوت، تصویر، صفحات وب و غیره هستند؛ تحلیل و آنالیز فایل ها به منظور شناخت و بررسی ویژگی ها و خصوصیات منحصربه فرد آن ها، یکی از مسائل بسیار مهم در زمینه حریم خصوصی، امنیت اطلاعات، شناسایی نوع فایل ها، تحلیل ساختاری کدها و غیره می باشد. در این مقاله با تحلیل و آنالیز آماری بر روی محتوای باینری فایل ها مبتنی بر مدل n-gram، ویژگی ها و خصوصیات مختلف یک فایل مورد بررسی قرار گرفته است. علاوه بر این به منظور کاهش حجم محاسبات و حافظه مورد نیاز مدل n-gram، از خوشه بندی لغات استفاده شده و محتوای هر فایل در دو حالت کامل و بلوک بندی شده مورد تجزیه و تحلیل قرار گرفته است. در حالت کامل ویژگی هایی همچون آنتروپی، فراوانی، TF-IDF، خود همبستگی و در حالت بلوکی، ویژگی هایی همچون نرخ آنتروپی، بعد فرکتال، فاصله و غیره بررسی شده است. نتایج بررسی ها نشان داده ویژگی های استخراج شده در روش اول به خوبی می توانند خصوصیات منحصر به فرد فایل های jpg، mp3، swf و html را منعکس نمایند. ویژگی های استخراج شده در روش دوم نیز به خوبی می توانند خصوصیات فایل های doc، html و pdf را منعکس نمایند.
    کلیدواژگان: فایل های کامپیوتری، مدل n-gram، خوشه بندی لغات، ضریب خود همبستگی، TF-IDF، نرخ آنتروپی، فاصله کانبرا
  • حمیدرضا صابرکاری *، موسی شمسی، محمدحسین صداقی صفحات 63-78
    تخمین دقیق نواحی کدکننده پروتئین در ژن ها با استفاده از ابزارهای پردازش سیگنال، در سال های اخیر به چالشی در بیوانفورماتیک تبدیل شده است. بسیاری از روش های پردازش سیگنال های ژنومیک بر مبنای خاصیت تناوب 3 بازهای موجود در رشته های DNA متمرکز بوده و سپس تحلیل های طیفی به منظور یافتن موقعیت مولفه های متناوب بر روی توالی های عددی DNA اعمال می شود. در این مقاله با استفاده از پنجره با طول متغیر و بر مبنای منحنی Z، الگوریتمی به منظور تعیین نواحی کدکننده پروتئین ارائه می کنیم. منحنی Z، یک منحنی سه بعدی منحصربفرد برای نمایش توالی DNA می باشد که توصیف کاملی از رفتار بیولوژیکی توالی DNA را بدست می دهد. الگوریتم پیشنهادی بدلیل استفاده از پنجره گوسی با طول قابل تنظیم، از رزولوشن و دقت بسیار بالایی در تخمین نواحی ژنی برخوردار بوده و نواحی غیرپروتئینی در آن کاملا حذف می شود. همچنین به منظور استخراج مولفه تناوب 3 از یک فیلتر میانگذر باند محدود با فرکانس مرکزی 2π/3 استفاده می نماییم. الگوریتم پیشنهادی ابتدا بر روی توالی F56F11.4 در C.elegans اعمال و نتایج آن با سایر روش های موجود مقایسه شده و سپس آنرا بترتیب برروی ژن های موجود در دو پایگاه داده HMR195 و BG570 اعمال می نماییم.
    کلیدواژگان: نواحی کدکننده پروتئین، تناوب، 3، DNA، پنجره با طول متغیر، فیلتر باند محدود
  • فرناز ظهورپرواز *، عمادالدین فاطمی زاده، حمید بهنام صفحات 79-92
    فرآیند نگاشت نقاط از یک تصویر به نقاط متناظر آن در تصویر دیگر انطباق تصویر نامیده می شود که تبدیلی مکانی است. روش های انطباق تصویر را می توان به لحاظ ماهیت تبدیل انجام گرفته بر روی تصویر به انطباق صلب و ناصلب طبقه بندی کرد. یکی از راهکارهای انطباق تصویر ناصلب، حل مسئله انطباق بعنوان یک مسئله بهینه سازی است. نمونه ای از این روش ها انطباق بوسیله برش گراف می باشد. اساس این روش بر مبنای ایجاد گرافی اختصاصی شده برای تابع انرژی مورد نظر (که باید بهینه شود) است، به نحوی که برش کمینه روی این گراف منجر به کمینه سازی انرژی نیز بشود. با توجه به اهمیت مسئله زمان در کاربردهای کلینیکی و پزشکی، در این تحقیق با ایجاد تغییراتی در روشی که از برش گراف برای انطباق تصویر استفاده می کند روشی پیشنهاد دادیم که در آن زمان انجام فرآیند انطباق به شدت کاهش می یابد. نتایج حاصل از پیاده سازی روش پیشنهادی ما بر روی تصاویر تشدید مغناطیسی مغز نشان می دهد که سرعت اجرای الگوریتم پیشنهادی نسبت به الگوریتم اصلی در قبال اندکی افزایش خطا (افزایش مقدار متوسط معیار SAD از 7/0 به 1) تقریبا سه برابر می شود.
    کلیدواژگان: انطباق تصویر ناصلب، برش گراف، تصویر تشدید مغناطیسی
  • روح الله دیانت، مرتضی علی احمدی *، یحیی اخلاقی، باقر باباعلی صفحات 93-108
    در این مقاله، یک پیش پردازش روی روش های بازیابی اطلاعات، ارائه می شود که برای بازیابی اطلاعات حاصل از متون بازشناسی شده ی گفتاری، مناسب است. این پیش پردازش، به شکل ترکیبی از اصلاح و گسترش پرس‏ و جو می ‏باشد. ورودی‏ های مسئله، اسناد متنی بدست آمده از بازشناسی گفتار و پرس‏ و جو می باشد و هدف، یافتن اسناد مرتبط با کلمه پرس ‏و جو است. مشکل آن است که متن حاصل از بازشناسی گفتار، همواره دارای درصد خطایی در بازشناسی است که ممکن است منجر به این شود که کلماتی که در واقع مرتبط هستند و به‏ علت وقوع خطای بازشناسی دگرگون شده‏ اند مرتبط تشخیص داده نشوند. ایده ی روش ارائه شده، تشخیص خطای بازشناسی در کلمات و در نظر گرفتن کلمات مشابه برای آن دسته از کلماتی است که به عنوان خطا تشخیص داده شده اند. برای تشخیص کلمه ی خطا، پارامتری به عنوان احتمال خطا در کلمه تعریف می‏ شود که بزرگ بودن آن بیانگر امکان بیشتر وقوع خطا در کلمه است. همچنین برای تشخیص کلمات مشابه، ابتدا با استفاده از معیار فاصله لونشتاین، کلمات مشابه اولیه را پیدا می کنیم. سپس احتمال تبدیل این کلمات مشابه به کلمه پرس ‏و جوی اصلی، محاسبه می شود. کلمات مشابه معنایی، از بین کلماتی که احتمال تبدیل بیشتری دارند، بر اساس یک سطح آستانه انتخاب می شوند. اکنون در الگوریتم بازیابی، علاوه‏ بر کلمه اصلی، کلمات مشابه آن نیز در جستجو، مرتبط در نظر گرفته می‏ شوند. نتایج پیاده‏سازی ها نشان می‏دهد که الگوریتم ارائه شده، معیار F را به میزان حداکثر 30 % بهبود می بخشد.
    کلیدواژگان: بازیابی اطلاعات، بازشناسی گفتار، سند، پرس و جو، فاصله لونشتاین
  • حسین قرایی *، فرید محمدی صفحات 109-120
    حمله کرم چاله یک نوع حمله فعال می باشد که در لایه سوم شبکه از شبکه های اقتضایی رخ می دهد. در این حمله مهاجمین با متقاعد کردن گره فرستنده برای ارسال اطلاعات از یک مسیر جعلی که کوتاه تر و سریع تر از مسیر عادی به نظر می رسد، سعی دارند ارسال بسته ها از تونل ایجاد شده انجام شود تا بتوانند، حملات آنالیز ترافیک، انکار سرویس، رها کردن بسته ها و یا جلورانی انتخابی را انجام دهند. هر پروتکلی که از مقیاس کم ترین تاخیر و کم-ترین تعداد گام برای مسیریابی استفاده کند، در برابر این حمله آسیب پذیر است.در این مقاله یک راه کار جدید برای مقابله با حملات کرم چاله ارائه می-دهیم. در راه حل پیشنهادی هر گره دارای یک وزن است و مجموع وزن ها در شبکه برابر صد خواهد بود. هرگاه گره ای قصد ارسال ترافیک به گره دیگر را داشته باشد، در بسته RREQ حداقل وزن درخواستی برای ایجاد ارتباط را بیان می کند. گره فرستنده با توجه به اهمیت داده هایی که ارسال خواهد کرد مشخص می کند که مجموع وزن گره های شرکت کننده، در فرایند کشف مسیر باید چقدر باشد. روش پیشنهادی را MAODV نامگذاری می کنیم. روش فوق به صورت نرم افزاری بوده و با توجه به این که از تکنیک رمزنگاری استفاده نخواهیم کرد،پیش بینی می کنیم سربار کمتری نسبت به سایر تکنیک ها داشته باشیم، و همچنین به علت عدم استفاده از الگوریتم های سخت، توان گره ها که اتفاقا محدود است، کمتر صرف محاسبات خواهد شد.کارایی الگوریتم پیشنهادی را در محیط ns-2 نشان خواهیم داد.
    کلیدواژگان: شبکه MANET، حمله کرم چاله، پروتکل مسیریابی AODV، ns-2
  • مسعود قیومی * صفحات 121-132
    در این مقاله، به بررسی جایگاه برچسبزنی مقولات دستوری در تجزیه نحوی خودکار جملات فارسی پرداخته خواهد شد. به همین منظور، تاثیر کیفیت برچسبزنی مقولات دستوری و همچنین تاثیرگذاری میزان اطلاعات موجود در مقولات دستوری بر کارایی تجزیه خودکار جملات مورد مطالعه قرار خواهد گرفت. بهمنظور انجام این دو بررسی، سه سناریو برای تجزیه جملات ارائه شده و مقایسه میشود. در سناریو 1، تجزیهگر ابتدا داده ورودی را برچسبزنی کرده و سپس جمله را تجزیه میکند. در سناریو 2، از یک برچسبزن خارج از تجزیهگر و در سناریو 3 از برچسب معیار واژه ها برای تجزیه جملات استفاده میشود. در این بررسی، معیارهای ارزیابی متفاوت مورد استفاده قرار میگیرد تا میزان این تاثیرگذاری از ابعاد مختلف نشان داده شود. نتایج حاصل از آزمایشات نشان میدهد که کیفیت و میزان اطلاعات در مقولات دستوری واژه بر کارایی تجزیهگر تاثیر مستقیم دارد. کیفیت بالای برچسب مقولات دستوری سبب کاهش خطای تجزیهگر و افزایش کارایی آن میگردد. همچنین عدم وجود اطلاعات صرفینحوی تاثیر منفی بسزایی بر کارایی تجزیهگر دارد که این تاثیرگذاری در مقایسه با کیفیت برچسب مقولات دستوری بسیار بیشتر است.
    کلیدواژگان: پردازش زبان فارسی، برچسب مقوله دستوری، تجزیه خودکار
  • احمد رضا جعفریان مقدم *، فرناز برزین پور، محمد فتحیان صفحات 133-145
    سیستم ایمنی مصنوعی (AIS) یکی از مهمترین الگوریتم های متاهیوریستیک به منظور حل مسائل بسیار پیچیده می باشد. از این الگوریتم می توان در تحلیل خوشه بندی داده ها استفاده نمود. علی رغم اینکه AIS قادر است پیکربندی فضای جستجو را به خوبی نمایش دهد اما تعیین خوشه های داده ها به طور مستقیم با استفاده از خروجی آن بسیار مشکل است. بر این اساس در این مقاله الگوریتم دو مرحله ای پیشنهاد شده است. در مرحله اول با استفاده از الگوریتم AIS پیشنهادی، فضای جستجو مورد بررسی قرار گرفته و پیکربندی فضا تعیین می شود و در مرحله دوم با استفاده از روش خوشه بندی سلسله مراتبی، خوشه ها و تعداد آنها مشخص می شود. در انتها الگوریتم پیشنهادی بر روی نمونه واقعی متشکل از داده های زلزله در ایران پیاده سازی و با نتایج الگوریتم مشابه مقایسه شده است. نتایج نشان داد که الگوریتم پیشنهادی توانسته است نقایص موجود در AIS و روش خوشه بندی سلسله مراتبی را پوشش دهد و از طرفی از دقت و سرعت قابل قبولی برخوردار است.
    کلیدواژگان: تحلیل خوشه بندی، سیستم ایمنی مصنوعی (AIS)، خوشه بندی سلسله مراتبی
|
  • Mojtaba Behzad Fallahpour, Hamid Dehghani *, Ali Jabbar Rashidi, Abbas Sheikhi Pages 3-18
    SAR imaging systems are as a complement to passive remote sensing but the process of image formation in this systems is so complex So that the final image in the system is formed after the three basic steps: raw data acquisition, forming the signal space and image space. In addition, various factors within the system and outside the system are involved in the information that recorded by SAR, such as radar, platform, processing algorithm, imaging region and channel that each of them have many sub-parameters and this adds the complexity of the behavior of SAR. So due to the complexity, providing the model that describes how the SAR imaging system is highly important. In this paper, at first, the performance of the SAR image formation in spotlight mode placed on analytical modeling and after that the model comes in a soft implement. The implement includes three basic steps of image formation. So that raw data acquisition is done in CST and the signal and image formation are done in MATLAB software. This implementation provides a lot of abilities. So you can simulate the effect of the affect parameters in SAR images and better interpretation of themes. Also, the validity of the proposed solutions in electronic warfare or passive defense for SAR imaging systems can be studied by it.
    Keywords: SAR, Signal Space, Image space, Scattering field, Functional model, Software Implementation
  • Mansoor Zeinali, Hassan Ghasemian * Pages 19-28
    Different methods have been proposed to increase the image spatial resolution by mixed pixels decomposition. These methods and their problems will be examined in this study. Common methods are reviewed with more emphasis. And finally, a new method for increasing the spatial resolution will be proposed to resolve some of the weaknesses of existing methods. This method uses a proper lookup table, which is derived from input image. By definition a similarity metric function, we obtain a similar pixel for every input pixel. These similar pixels have equal subpixel structures hence an input pixel will be decomposed to a proper set of subpixels. In the high quality images, these subpixels are usually belong to pure classes. Simulation results on artificial and real data show a good subpixel decomposition performance of proposed method relative to those of other comparable methods.
    Keywords: spatial resolution, change the image scale, lookup table, subpixel decomposition
  • Mohammad Reza Esmaeili *, Dr. Seyed Hamid Zahiri Pages 29-42
    About 1% of the people in the world suffer from epilepsy. The first stage of the treatment of epilepsy is the accurate diagnosis. One way to diagnose epilepsy is the precise analysis of EEG signals. Therefore various techniques have been proposed in the literature for the detection of epileptic seizures in EEG signals. In this article, we have distinguished and separated the epileptic EEG signals from the normal EEGs, by using a new intelligent and heuristic algorithm, called Inclined Planes system Optimization. We used wavelet transform for extracting features, because of nonlinear and non-stationary properties of the EEG signals. Then we diagnosed epilepsy, by using extracted features from wavelet transform and implement them on IPO algorithm. According to this study, we found out the IPO has got a high ability to diagnosis epilepsy in complicated and non-stationary EEG signals.
    Keywords: Electroencephalogram(EEG), Epileptic seizure detection, Discrete wavelet transform(DWT), Heuristic algorithm, Inclined planes system optimization algorithm(IPO)
  • Feature Extraction of Computer Files Structure by Statistical Analysis
    Dr Majid Vafaei Jahan* Pages 43-62
    Files are the most important sources of information presentation in various formats such as texts, audio, video, images, web pages, etc. …; (in-depth) analysis of files for the purpose of recognition and investigating their unique properties (or characteristics) is one of the most significant issues in the field of personal security safety, information security, file-type identification, codes structuration analysis etc…. Statistical analytic methodology of working on the binary files contents based on the n-gram model has been opted for in the present paper in order to full investigate all the different aspects of a file’s range of characteristics. Moreover, to reduce down the calculations volume and the n-gram model peculiar to the needed amount of memory, use has been made of word clustering. Later on analysis has been conducted on both files’ contents in two states of “blocking” and “full”: it is to be noted that in the “full” case such characteristics as Chi-square, Auto-correlation, Weighted term frequency-Inverse document frequency (TF-IDF), Fractal dimension etc … have been brought under comprehensive study; while in the “blocking” case, other properties like the entropy rate, the distance, etc … have been delved into. The gained results indicate that the extracted characteristics in the first method could well easily reflect the unique properties belonging to jpg, mp3, swf and html files; and in the second method, are able to clearly well reflect doc, html and pdf files properties.
    Keywords: Files, n-gram model, word clustering, Canberra distance, entropy rate, Fractal dimension
  • Hamidreza Saberkari *, Mosa Shams, Mohamadhoseiin Sedaghi Pages 63-78
    In recent years, estimation of protein-coding regions in numerical deoxyribonucleic acid (DNA) sequences using signal processing tools has been a challenging issue in bioinformatics, owing to their 3-base periodicity. Many digital signal processing (DSP) tools have been applied in order to identification task and concentrated on assigning numerical values to the symbolic DNA sequence and then applying spectral analysis tools such as the discrete Fourier transform (DFT) to locate the periodicity components. Despite of many advantages of Fourier transform in detection of exonic regions, this approach has some restrictions, such as high computational complexity and disability in locating the small length coding regions. In this paper, we improve the performance of the conventional DFT in estimating the protein coding regions utilizing a Gaussian window with variable length. First, the DNA strands are converted to numerical signals via the 3-D Z-curve method. Z curve is a robust, independent, less redundant approach, and has clear biological interpretation which can be regarded as a useful visualization technique for DNA analysis of any length. In the second stage, non-coding regions besides the background noise components are completely suppressed using the Gaussian variable length window. Also, we use a narrow-band band-pass filter in order to extract the period-3 components with central frequency. Performance of the proposed algorithm is tested on F56F11.4 from C.elegans chromosome III, and also two eukaryotic datasets, HMR195 and BG570, and is compared with other state-of-the-art methods based on the nucleotide evaluation metrics such as sensitivity, specificity, approximation correlation, and precision. Results revealed that, the area under the receiver operating characteristic (ROC) curve is improved from 4% to 40%, in HMR195 and BG570 datasets compared to other methods. Furthermore, the proposed algorithm reduces the number of incorrect nucleotides which are estimated as coding regions.
    Keywords: Protein Coding Regions, Period-3, Digital Signal Processing, DNA, Variable Length Window, Band-Limited Filter
  • Farnaz Zohourparvaz *, Emad Fatemizadeh, Hamid Behnam Pages 79-92
    The procedure of mapping points from one image to corresponding points in another image is called Image Registration. It is a spatial transform. By the nature of the image transformation, image registration can be classified into rigid image registration and non-rigid image registration. One approaches of non-rigid image registration is solving the registration problem as an optimization problem. An example of these methods is the graph-cuts based registration. The basic technique is to construct a specialized graph for the energy function to be minimized such that the minimum cut on the graph also minimizes the energy. Given that the time is one of the critical factors in medical applications, it seems that improvement of this method in terms of run time will be helpful for its clinical and medical applications. In order to achieve this goal, in this research we proposed a method that significantly reduces the run time of registration process. The implementation results of our proposed method on the images with artificial deformations shows that the proposed algorithm is about three times faster than the main algorithm, while the average amount of SAD criterion will be increased from 0.7 to 1.
    Keywords: Non-rigid image registration, Graph-cuts, Magnetic resonance images
  • Rouhollah Dianat, Morteza Ali Ahmadi *, Yahya Akhlaghi, Bagher Babaali Pages 93-108
    In this article a pre-processing method is introduced which is applicable in speech recognized texts retrieval task. We have a text corpus that generated from a speech recognition system and a query as inputs, want to search queries in these documents and find relevant documents. The main problem is that the typical speech recognized texts suffer from some percentage of recognition error. This problem causes terms to have erroneously assign to irrelevant documents.
    The idea of our proposed method, is to detect error-prone terms and to find similar words for each term. A parameter is defined which calculate the probability for occurring error in the error-prone words. To recognize similar words for each specific term, based on a criterian which is called average detection rate (ADR) and levenshtein distance criterion, some candidates are chosen as the initial similar words set. Then, a conversion probability is defined based on the conversion rate (CR) and the noisy channel model (NCM) and the words with higher probability based on a threshold level are selected as the final similar words. In the retrieval process, these words are considered in the search step in addition to the base word. Implementation result shows a significant improvement up to 30% in F-measure in information retrieval method with consideration this pre-processing.
    Keywords: Information retrieval, Speech recognition, Document, Query, Levenshtein Distance
  • Hossein Gharaee *, Farid Mohammadi Pages 109-120
    Mobile Adhoc Networks ( MANET) are vulnerable to both active and passive attacks. In Wormhole attacks, one malicious node tunnels packets from its location to the other malicious node. Such wormhole attacks result in a false route with fewer. If source chooses this fake route, malicious nodes have the option of sniff, modify, selectively forward packets or drop them. Existing solution to defend wormhole attacks, such as SECTOR, Packet Leashes, DelPHI, directional antenna. These solutions require special hardware or strict synchronized clocks or cause message overhead, or generate false-positive alarms. A novel approach MAODV: Modified AODV is proposed to defend wormhole attacks, launched in AODV. The proposed approach is based on weight per hop. Each node in network has its own weight, given by administration due to trusty, power capability. Sum of weight will not be exceeded from 100. Whenever a source node want to send a traffic to destination, put its minimum weight in RREQ packet to constitute the route. The destination node is selected the route, that its weight is close to destination announcement weight. Since no special hardware and no encryption technique are used, it will have less overhead and delay compare to other technique. The effectiveness of the propose mechanism is evaluated using ns2 network simulator.
    Keywords: MANET, Wormhole attacks, AODV, NS2
  • Dr. Masood Ghayoomi * Pages 121-132
    In this paper, the role of Part-of-Speech (POS) tagging for parsing in automatic processing of the Persian language will be studied. To this end, the impact of the quality of POS tagging as well as the impact of the quantity of information available in the POS tags on parsing are studied. To reach the goals, three parsing scenarios are proposed and compared. In this study, various evaluation metrics are used to show the impacts from different points of views. The experimental results show that the quality of the POS tagger and the quantity of the information available in the POS tags have a direct effect on parsing performance. The high quality of the POS tags causes error reduction in parsing and also it increases parsing performance. Moreover, lack of morpho-syntactic information in the POS tags has a high negative impact on parsing performance. This impact is more pronounced than the impact of POS tagger performance.
    Keywords: processing of the Persian language, part-of-speech tagging, parsing
  • Ahmad Reza Jafarian-Moghaddam *, Farnaz Barzinpour, Mohammad Fathian Pages 133-145
    Artificial immune system (AIS) is one of the most meta-heuristic algorithms to solve complex problems. With a large number of data, creating a rapid decision and stable results are the most challenging tasks due to the rapid variation in real world. Clustering technique is a possible solution for overcoming these problems. The goal of clustering analysis is to group similar objects.
    AIS algorithm can be used in data clustering analysis. Although AIS is able to good display configure of the search space, but determination of clusters of data set directly using the AIS output will be very difficult and costly. Accordingly, in this paper a two-step algorithm is proposed based on AIS algorithm and hierarchical clustering technique. High execution speed and no need to specify the number of clusters are the benefits of the hierarchical clustering technique. But this technique is sensitive to outlier data.
    So, in the first stage of introduced algorithm using the proposed AIS algorithm, search space was investigated and the configuration space and therefore outlier data are determined. Then in second phase, using hierarchical clustering technique, clusters and their number are determined. Consequently, the first stage of proposed algorithm eliminates the disadvantages of the hierarchical clustering technique, and AIS problems will be resolved in the second stage of the proposed algorithm.
    In this paper, the proposed algorithm is evaluated and assessed through two metrics that were identified as (i) execution time (ii) Sum of Squared Error (SSE): the average total distance between the center of a cluster with cluster members used to measure the goodness of a clustering structure. Finally, the proposed algorithm has been implemented on a real sample data composed of the earthquake in Iran and has been compared with the similar algorithm titled Improved Ant System-based Clustering algorithm (IASC). IASC is based on Ant Colony System (ACS) as the meta-heuristics clustering algorithm. It is a fast algorithm and is suitable for dynamic environments. Table 1 shows the results of evaluation.
    The results showed that the proposed algorithm is able to cover the drawbacks in AIS and hierarchical clustering techniques and the other hand has high precision and acceptable run speed.
    Keywords: Clustering Analysis, Artificial immune system (AIS), Hierarchical Clustering