فهرست مطالب

ماشین بینایی و پردازش تصویر - سال پنجم شماره 1 (بهار و تابستان 1397)
  • سال پنجم شماره 1 (بهار و تابستان 1397)
  • تاریخ انتشار: 1397/06/31
  • تعداد عناوین: 10
|
  • پروین رزاقی * صفحات 1-13
    در این مقاله، روش جدیدی برای بخش بندی معنایی تصاویر در حضور داده های آموزشی نظارتی ضعیف ارائه می گردد. هدف اصلی در بخش بندی معنایی اختصاص برچسب به تمامی پیکسل های تصویر است. در داده های آموزشی نظارتی ضعیف، تنها برچسب های معنایی موجود در تصویر مشخص می گردد و مکان آن ها در تصویر مشخص نمی گردد. نوآوری روش پیشنهادی، استفاده همزمان از اطلاعات سطح شی و سطح متن در تعیین برچسب های معنایی در تصویر می باشد. در روش پیشنهادی، نواحی تصاویری که دارای مجموعه برچسب های یکسانی می باشند، با یکدیگر ترکیب می گردند به گونه ای که در تصاویری که دارای برچسب های مشترک هستند، نحوه ظهور یکسان داشته و موقعیت مکانی آن ها نسبت به دیگر برچسب های معنایی موجود در تصویر نیز یکسان باشد. همچنین برای بهینه کردن تابع هزینه ی پیشنهادی، یک الگوریتم تکرار شونده ارائه شده است که در آن در ابتدا تمامی پیکسل های مجموعه تصاویر، به صورت اولیه برچسب گذاری می گردد. سپس مدل ظهور هر برچسب معنایی و مدل متن آن با استفاده از ماشین بردار پشتیبان آموزش می بیند. در قدم بعد، برچسب پیکسل ها به گونه ای به روزرسانی می گردد که در مجموعه تصاویری که دارای برچسب های یکسانی می باشند، اطلاعات سطح شی و سطح متن مشابه باشند. به روزرسانی برچسب ها تا زمانی ادامه می یابد که در دو دور متوالی، برچسب پیکسل ها تغییر نیابد. برای ارزیابی کارایی روش پیشنهادی از مجموعه داده ی MSRC استفاده شده است. روش پیشنهادی بر روی مجموعه داده ی MSRC، دقت میانگین نرخ شناسایی گروهی 72% را به دست آورده است که در مقایسه با دیگر روش های قابل مقایسه و موفق پیشین 1% افزایش دقت داشته است.
    کلیدواژگان: بخش بندی معنایی نظارتی ضعیف، اطلاعات سطح شی، اطلاعات سطح متن، الگوریتم بسط حرکت
  • سیدمحمد طباطبائی، عبداله چاله چاله * صفحات 15-28
    سیگنال های الکترومیوگرافی (EMG) با استفاده از دستگاه استخراج سیگنال های ماهیچه ای (الکترومیوگراف) و به منظور تشخیص میزان اختلاف پتانسیل به وجود آمده در اثر تحریک عصبی سلول های ماهیچه ای جهت کاربردهای گوناگون استخراج می شوند. یک مرحله ی مهم در پردازش سیگنال های استخراج شده که تاثیر بسیار اساسی در عملکرد کلی سیستم های کنترل ماهیچه ای دارد استخراج ویژگی های موثر از این سیگنال ها است. در این مقاله به منظور بهبود ویژگی های زمانی، فرکانسی و زمان-فرکانسی، روش های استخراج خصوصیات بافت از تصاویر زمان-فرکانس سیگنال با استفاده از توصیف گرهای الگوی دودویی محلی (LBP) و ماتریس هم رخداد (GLCM) مورد بررسی قرار گرفته است. با تحلیل بافت تصاویر طیف سیگنال های ماهیچه ای روابط بین فرکانس های مختلف در زمان های مختلف استخراج می شود. در نتیجه، روابط مابین اطلاعات زمان و فرکانس به صورت توامان به عنوان نماینده سیگنال در نظر گرفته خواهد شد. در این تحقیق، جهت بررسی کارایی این روش استخراج خصوصیات از پایگاه داده ی "سیگنال های ماهیچه ای حرکات فیزیکی"، استفاده شده است. همچنین، جهت دسته بندی بردارهای ویژگی استخراج شده، ماشین بردار پشتیبان در دو حالت کلی و با تفکیک باندهای فرکانسی بکار گرفته شده است. در نتیجه ی آزمایشات، دقت دسته بندی 98/75% با استفاده از روش تفکیک باندهای فرکانسی حاصل شده است که در مقایسه با نتایج به دست آمده از روش های قبلی دقیق تر است.
    کلیدواژگان: تصویر زمان-فرکانس، الگوی دودویی محلی، ماتریس همرخداد، سیگنال ماهیچه ای، ماشین بردار پشتیبان
  • محمد قاسمی شرف، منصور اسماعیل پور * صفحات 29-38
    درزمینه تشخیص و طبقه بندی جانوران همواره مشکلات بسیاری وجود دارد که مانع از به وجود آمدن پیشرفت های سریع و موثر در این حوزه هستند. در سال های اخیر روش های جدیدی که بر شبکه های عصبی مصنوعی و پردازش تصویر مبتنی هستند، پیشنهاد شده اند که می توانند به تشخیص و بازشناسی گونه های پروانه ها بپردازند. در این مقاله به طور خاص، تشخیص گونه های پروانه را با استفاده از پردازش تصویر و روش های طبقه بندی هوشمند بررسی خواهیم نمود و به دنبال بهبود عملکرد از طریق به کارگیری ویژگی های بافت بال پروانه ها هستیم. در این راستا از روش استخراج ویژگی کوانتیزه سازی فاز محلی استفاده شده است که در مقابل محوی موجود در تصاویر پروانه مقاومت نشان می دهد. برای طبقه بندی نیز از دو نوع شبکه عصبی MLP و موجکی استفاده گردید که در بین این دو، شبکه عصبی موجکی موفق به رسیدن به صحت 100% در طبقه بندی 14 گونه پروانه شد.
    کلیدواژگان: بازشناسی، شبکه عصبی مصنوعی، استخراج ویژگی، کوانتیزه سازی فاز محلی و شبکه عصبی موجکی
  • شیما جوانمردی، محمد علی زارع چاهوکی * صفحات 39-52
    فرآیند پالایش شرح گذاری تصاویر، رویکردی موثر در بهبود بازیابی تصاویر مبتنی بر برچسب می باشد. در شبکه های اجتماعی و موتورهای جستجو بسیاری از تصاویر دارای تگ های مبهم، ناقص و بی ارتباط با محتوا هستند. وجود این تگ های غیرقابل اعتماد، موجب کاهش دقت بازیابی تصاویر می شود. از این رو در دهه اخیر، الگوریتم هایی با عنوان پالایش تگ (TR) مطرح شده اند که به رفع نویز و غنی سازی برچسب های تصاویر می پردازند. به منظور دستیابی به نتایج بهینه در TR، استخراج ویژگی هایی از تصویر که توصیف مناسبی از محتوای دیداری تصویر داشته باشند، تاثیر مستقیمی بر دقت فرآیند TR دارد. از جمله چالش های عمده در فرآیند پالایش شرح گذاری تصاویر، رسیدن به توصیفی مناسب و مرتبط با محتوای تصاویر می باشد. بدین منظور با توجه به کارآمدی فرآیند یادگیری عمیق در بسیاری از حوزه های پژوهشی، در این مقاله نیز به منظور استخراج ویژگی های کارآمد در تشابه دیداری تصاویر و ارتباط معنایی تصاویر با هم، از شبکه های عصبی کانولوشنال عمیق (DCNN) استفاده شده است. بهره گیری از فرآیند یادگیری انتقالی استفاده شده در DCNN مبتنی بر تصاویر ImageNet در توصیف و ایجاد ارتباط معنایی در مجموعه تصاویر با مقیاس بزرگ NUS-WIDE، بیانگر موثر بودن این رویکرد در کاربرد پالایش تگ تصاویر است.
    کلیدواژگان: پالایش شرح گذاری تصاویر، شبکه عصبی کانولوشنال عمیق، پالایش تگ، بازیابی تصاویر، یادگیری انتقالی
  • هادی گرایلو * صفحات 53-71
    درجه ی تفکیک مکانی مناسب در بسیاری از انواع تصاویر اهمیت بالایی دارد زیرا دربرگیرنده ی اطلاعات برخی جزئیات مهم می باشد. در عمده ی انواع تصاویر مانند تصاویر متنی، چهره، اثرانگشت و پزشکی کارایی روش های استخراج ویژگی تاحد زیادی به کیفیت تصویر وابسته است. درجه ی تفکیک مکانی بالا یکی از مهمترین عوامل افزایش کیفیت تصویر است اما موجب افزایش حجم حافظه ی ذخیره سازی نیز می شود؛ لذا اهمیت روش های موثر فشرده سازی دوچندان می شود.
    در روش فشرده سازی پیشنهادی در این مقاله، ابتدا ابعاد تصویر ورودی به کمک تبدیل موجک تا حد مشخصی کاهش یافته و سپس تصویر به کمک هر روش کدگذار دلخواهی قابل فشرده سازیاست. در مرحله ی بازسازی، ابتدا تصویر کاهش یافته به کمک کدگشای متناظر، بازسازی شده و سپس ابعاد آن به کمک تخمین زیرباندهای جزئیات در حوزه ی تبدیل موجک، افزایش می یابد.
    در بخش شبیه سازی و ارزیابی، دو نوع تصویر متداول و مهم شامل تصویر متنی و تصویر چهره (نماینده ی تصاویر دارای طیف به ترتیب عمدتا میان گذر و عمدتا پایین گذر) به عنوان مطالعه موردی انتخاب و در هرکدام، کارایی فشرده سازی و بازشناسی تصاویر فشرده شده به کمک ترکیب روش پیشنهادی با سه روش JPEG، JPEG2000 و SPIHT بررسی می شود. نتایج شبیه سازی نشان دهنده ی تاثیر قابل توجه روش پیشنهادی در کاهش حجم ذخیره سازی تصویر فشرده شده و حفظ همزمان کارایی بازشناسی است.
    کلیدواژگان: فشرده سازی تصویر، کاهش، افزایش ابعاد، تخمین زیرباندهای جزئیات، تصاویر متنی، تصاویر چهره، کارایی بازشناسی
  • بهروز بلوریان حقیقی، امیرحسین طاهری نیا * صفحات 73-90
    نشانه گذاری تصاویر رقمی یکی از موضوع های رایج در بحث امنیت اطلاعات و جلوگیری از سوء استفاده از تصاویر در دنیای اینترنت و ارتباطات است. یکی از کاربردهای نشانه گذاری رقمی احراز صحت و بازسازی ناحیه دستکاری شده است. این روش ها قادرند با استفاده از اطلاعاتی که در رسانه تعبیه شده است، پی به صحت و یکپارچگی تصویر دریافت شده ببرند. در این مقاله روشی جهت شناسایی و بازسازی ناحیه دستکاری در تصاویر رنگی و خاکستری ارائه شده است، که با قابلیت تعبیه دوگانه نشانه در تصویر، فرصت دومی جهت بازسازی ناحیه دستکاری فراهم می کند. از طرفی به دلیل بهره گیری از تبدیل کسینوسی گسسته مقاومت خوبی در برابر فشرده سازی دارد. جهت تامین امنیت نشانه تعبیه شده از نگاشت آشوبی با کلید مخفی که همراه با تصویر ارسال می شود، استفاده شده است. در روش پیشنهادی برای جلوگیری از حملات رونوشت مکان، اطلاعاتی که جهت تشخیص بلوک دستکاری در تصویر تعبیه می شود، به کلیدی که مختص همان بلوک است وابسته می باشد. نتایج نشان می دهد که روش پیشنهادی توانایی شناسایی درست ناحیه دستکاری تحت فشرده سازی با ضریب کیفیت بیشتر از30 به معنی کاهش خطا و همچنین بازسازی در صورت تخریب نیمی از تصویر با شاخص شباهت ساختاری حدود 0/99 را دارد.
    کلیدواژگان: نشانه گذاری، تعبیه نشانه، استخراج نشانه، تشخیص دستکاری و بازسازی، تبدیل کسینوسی گسسته
  • عفت یاحقی *، زهره امانی صفحات 91-98
    تصویربرداری پلنار (مسطح) پزشکی هسته ای یکی از روش های مهم تصویربرداری جهت تشخیص ضایعات بافت و عملکرد آن می باشد. تحلیل و تفسیر تصاویر مسطح پزشکی هسته ای نقش بسیار مهمی در تشخیص ایفا می کند. این تصاویر معمولا دارای کنتراست نسبتا کم، نویز زیاد و ابعاد کوچک در محل آسیب دیدگی می باشند. تشخیص ناحیه آسیب در این تصاویر به کیفیت و وضوح آن ها بستگی دارد. به نظر می رسد که حذف مولفه های فرکانسی نویزی با استفاده از الگوریتم های دو دامنه ای، می تواند در کاهش نویز مفید باشد. در این تحقیق برای بهبود کیفیت به 46 تصویر انتخابی از نواحی مختلف بدن، تبدیل دو دامنه ای اعمال شده است. نتایج بدست آمده از مقایسه تصاویر حاصل با تصاویر اولیه نشان می دهد که روش دو دامنه ای با حذف مولفه های فرکانس بالای تصویر در کاهش نویز و افزایش کنتراست موثر است و می تواند به عنوان یکی از بهترین روش ها در بهبود کیفیت تصاویر مسطح پزشکی هسته ای بکار رود. برای ارزیابی نتایج از نظر پزشکان متخصص در زمینه پزشکی هسته ای و فیزیک پزشکی استفاده شده است. نظرات افراد متخصص نشان می دهد که بهبود کیفیت و کنتراست تصاویر بصورت قابل توجهی افزایش یافته است
    کلیدواژگان: تصاویر مسطح پزشکی هسته ای، پردازش تصویر، روش دو دامنه ای
  • پریسا نورس، ناصر آقازاده * صفحات 99-111
    هدف اصلی این مقاله ارائه ی یک روش جدید برای نویزگیری و لبه یابی تصاویر است. ایده ی اصلی این روش استفاده از توابع هار گویا شده است. تا به حال، این توابع برای حل معادلات انتگرال و دیفرانسیل استفاده می شدند. اما در این مقاله از این توابع برای نویزگیری و لبه یابی تصاویر استفاده شده است. در این روش علاوه بر این که اختلاف تصاویر نویزگیری شده با تصاویر اصلی کمتر می شود، شباهت ساختاری تصاویر نویزگیری شده و تصاویر اصلی نیز بیشتر از روش های دیگر حفظ می شود. نتایج تجربی، دقت روش مورد نظر را در نویزگیری و لبه یابی نشان می دهد.
    کلیدواژگان: توابع هار گویا شده، نویزگیری، لبه یابی
  • فاطمه شیخعلیشاهی *، سعید سریزدی، حسین نظام آبادی پور صفحات 113-128
    این مقاله، روش میانگین های غیرمحلی را در حالت سه بعدی برای کاربرد ترمیم ویدئو پیشنهاد می کند. این روش شامل مراحل اولویت بندی پیکسل های هدف و ترمیم آنها می شود. اولویت بندی پیکسل های هدف با توجه به اطلاعات ساختار و بافت وصله پیرامون آن (وصله هدف) انجام می پذیرد. برای دسته بندی وصله به بافت و ساختار از معیار آنتروپی استفاده می شود. الگوریتم پیشنهادی برای تخمین پیکسل های خسارت دیده از چندین وصله غیرمحلی مشابه به جای بهترین وصله منطبق استفاده می کند. نتایج کمی و کیفی آزمایش ها در زمینه حذف شی متحرک از تصویر ویدئو، برتری روش پیشنهادی در مقایسه با روش های مرسوم را تایید می کند.
    کلیدواژگان: ترمیم ویدئو، حذف شی متحرک، میانگین های غیرمحلی، وصله سه بعدی، اولویت بندی پیکسل های هدف
  • محمدرضا یمقانی، فرزاد زرگری * صفحات 129-139
    افزایش روزافزون تولید تصاویر رادیولوژی پزشکی در مراکز درمانی و بیمارستان ها، ایجاد روش های مناسب ذخیره سازی، کلاس بندی، و بازیابی تصاویر پزشکی را ضروری ساخته است. در این مقاله با استفاده از استاندارد کدینگ HEVC، روش نوینی در زمینه ی فشرده سازی و بازیابی تصاویر رادیولوژی مبتنی بر ویژگی بافت در حوزه ی فشرده شرح داده شده است. در روش پیشنهادی ابتدا تصاویر بانک اطلاعاتی که شامل تصاویر رادیولوژی اندام های مختلف بدن است با استفاده از پیش بینی درون فریمی استاندارد HEVC (فریم I) به صورت بدون تلف فشرده سازی می شوند. سپس هیستوگرام حالت های پیش بینی و ابعاد بلاک های PU برای هر تصویر، به عنوان ویژگی محتوایی تصویر استخراج می شود. برای انتخاب تصاویر مشابه در بانک اطلاعاتی با تصویر پرس وجو، ابتدا تصویر پرس وجو با استاندارد HEVC کدگذاری می شود. سپس با بررسی هیستوگرام حالت های پیش بینی و ابعاد بلاک های PU تصویر پرس وجو، تصاویر مشابه از بانک اطلاعاتی براساس معیار شباهت انتخاب و ارایه می شود. نتایج این تحقیق، صحت تشخیص کلاس تصاویر رادیولوژی را به طور متوسط 94/5% و دقت در 35 عمل بازیابی را به طور متوسط 89% نشان می دهد که نسبت به سایر روش ها بهبود داشته است. بنابراین روش فوق می تواند به عنوان روشی کارا هم برای کاهش حجم پایگاه داده ذخیره تصاویر رادیولوژی و هم روشی سریع و کارا برای بازیابی تصاویر پایگاه های داده پزشکی به کار گرفته شود.
    کلیدواژگان: بازیابی تصاویر پزشکی مبتنی بر محتوا، فشرده‎سازی بدون تلف، هیستوگرام حالت های پیش بینی، استاندارد کدینگ ویدئو HEVC
|
  • Parvin Razzaghi * Pages 1-13
    In this paper, a new approach to weakly supervised semantic segmentation is proposed. The main goal in semantic segmentation is to assign a semantic label to each pixel. In weakly supervised setting, each training image is only labeled by the classes they contain, not by their locations. The main contribution of this paper is to simultaneously incorporate the object level and context level information in assigning class label to each pixel of the image. To do this, regions in each image are grouped such that groups of regions in images with the same semantic label have the same appearance and context. To do this, an iterative move-making algorithm is proposed. At first, each pixel of the image is initially labeled and then model of appearance and context for each class label is learned. Then, semantic label of each pixel is updated such that the regions with the same sematic label have the same appearance and context in the set of images. In the next step, appearance and context models for each semantic class are updated. It is repeated until in the two consecutive epochs, labels of the pixels are not changed. To evaluate our proposed approach, it is applied on the MSRC dataset. The obtained results show that our approach outperforms comparable state-of-the-art approaches.
    Keywords: Weakly supervised semantic segmentation, Object level information, Context level information, Expansion move algorithm
  • Sayed Mohamad Tabatabaei, Abdolah Chalechale * Pages 15-28
    Electromyographs are used for electromyography signal extraction from neurologically activated muscle cells. These signals are investigated to extract discriminating patterns to be categorized in the classification stage of myoelectric control systems (MCSs) designed for various applications. Feature extraction is a fundamental step in EMG signal processing which affects the overall performance of MCSs. To improve classification accuracy of MCSs, this paper proposes a novel approach for feature extraction from time-frequency images of EMG signals using local binary patterns and gray level co-occurrence matrices. In contrast to time alone and frequency alone approaches, by textural analysis of EMG signal spectrogram, time-frequency patterns of these signals are revealed, simultaneously. Furthermore, LBP and GLCM expose relational properties of time-frequency patterns which areexploited as the main features for classification. EMG physical action dataset is utilized in this study to evaluate the proposed method. In the classification stage, support vector machine classifiers are used in two segmented and holistic modes. The best classification accuracy of 98.75% is obtained by segmented approach which is superior to the results provided by state of the art methods.
    Keywords: Time-frequency image (TFI), Local Binary Pattern (LBP), Gray Level Co-occurrence Matrix (GLCM), Electromyography (EMG), Support vector machine (SVM)
  • Mohammad Ghasemi sharaf, Mansour Esmaeilpour * Pages 29-38
    In the field of diagnosis and classification of animals there are always many problems which prevents the development of rapid and effective progress in this area. In recent years, the new approaches have been proposed that are based on artificial neural networks and image processing that can detect and recognize the butterfly types. In this article, specifically, we'll scrutiny the butterfly species detecting by using image processing and smart classification methods, also we are looking for the performance improvement by employing texture of butterfly wings features. In this context, the quantization feature extraction method of the local phase is used that resist against the blur in the butterfly pictures. As well as, in order to classification, the MLP and wavelet neural network is used that the result demonstrates, the wavelet neural network achieve 100% classification accuracy in 14 butterfly species.
    Keywords: recognition, Artificial Neural Network, Feature Extraction, Quantization of the Local Phase, Wavelet Neural Network
  • Shima Javanmardi, Mohammad Ali Zare Chahooki * Pages 39-52
    Refining image annotation is an effective approach to improve tag base image retrieval. Many images in social networks and search engines have vague tags, incomplete and irrelevant content.
    However the unreliable tags, reducing the precision of image retrieval, recently some of the tag refinement (TR) algorithms have been suggested as labels noise removal and enrichment of images.
    In order to achieve optimal result in TR, extracting features that have a good description of visual content of images will have direct impact on accuracy of TR process. Achieving the appropriate description and relevant to the content of images, is the major challenges in the refining image annotation. Due to effectiveness of deep learning in research fields, in this paper we will use deep convolutional neural network (DCNN) in order to extract efficient features for computing images visual and semantic similarity. Employing transfer learning based ImageNet image database in DCNN, for large scale NUSWIDE dataset, indicating the effectiveness of this approach in refining image annotation.
    Keywords: Refining image annotation, Deep convolutional neural network, Tag refinement, Image Retrieval, Transfer learning
  • Hadi Grailu * Pages 53-71
    Proper spatial resolution has great importance in many image types since it conveys significant details. Performance of feature extraction methods, in some image types such as textual, facial, and fingerprint ones, highly depend on the image quality. Spatial resolution is one of important factors affecting the image quality; but, high spatial resolution increases the storage memory of the corresponding images, showing the importance of image compression methods.
    In the proposed image compression approach of this paper,dimension of the input image is first decreased based on the wavelet transform and then is compressed using any desired image compression method. In the decompression stage, first, the dimensionally reduced image is reconstructed and then, the initial dimension is restored by our proposed technique of estimating the detail sub-bands in the wavelet domain.
    In the evaluation stage, we chose two image types of textual and facial as two case studies having band-pass and low-pass spectrums respectively. We evaluated the compression and recognition performance of proposed approach by combining it with any of conventional compression methods of JPEG, JPEG2000 and SPIHT.Simulation results showed the noticeable effect of the proposed approach on reducing the storage memory and simultaneously, preserving o the compression/recognition performance.
    Keywords: Image Compression, Image Enlargement, Sub-band Estimation, Textual Image, Face Image, Compression, Recognition Performance
  • Behrouz Bolourian Haghighi, Amir Hossein Taherinia * Pages 73-90
    Digital image watermarking is a common topic in the field of information security and image abuse prevention on the internet and communication areas. One of the applications of digital watermarking is authentication and recovery tampered region. These methods can discover correctness and integrity of the received image by using information which is embedded.In this paper, a method is proposed to identify and recover tampered regions in both color and grayscale images. The proposed method provides a second chance for recovery of tampered region, based on the ability of dual watermark embedding in the image. In addition, due to use of discrete cosine transform, it improves robustness against compression. In order to guarantee the security of embedded watermark, a chaotic map is used with a secret key which is transferred with the image. In this proposed method, to prevent copy-move attack, the information which is embedded for detection of tampered block depends on its own key. The experimental results show that the proposed method can correctly identify the tampered region under a compression with a quality factor of more than 30. This means the reduction of the false-positive error, and also the recovery of the tampered regions where half of the image is destroyed with structuralsimilarity index about 0.9.
    Keywords: watermarking, Embed Watermark, Extract Watermark, Tamper Detection, Recovery, Discrete Cosine Transform
  • Effat Yahaghi *, Zohreh Amani Pages 91-98
    Nuclear medicine planar imaging is the most important medical imaging methods in detecting of lesions and abnormality of tissues and their functions. Analysis and interpretation of the nuclear medicine images plays an important role in diagnostic medicines. The images usually have low contrast, high noise and small sizes in the injury region. Abnormal region identifications are depended to images quality and resolution. In this research, the dual domain method is used and tried to improve the quality of nuclear medicine planar images. In nuclear medicine, noise usually has a high-frequency component and it seems that removing the frequency components with other contrast enhancement algorithms can be useful in noise removal. For 46 chosen images from kidney and other part of body, the dual domain method was applied. The images were very noisy that the contrast was improved by the method. Comparisons between the images show that the dual domain method by eliminating high frequency component of image can be considered as one of the most important methods for noise removal of nuclear medicine planar images. Also, the contrast enhancement method is effective for some images. For evaluation, the opinions of nuclear medicine physicians and medical physics were used. The experts’ opinions show that the quality and contrast of images have been improved significantly.
    Keywords: Nuclear medicine planar imaging, image processing, Dual domain method
  • Parisa Noras, Nasser Aghazadeh * Pages 99-111
    The aim of the present paper is to give an efficient scheme for denoising and edge detection of images. The main idea is based on rationalized Haar functions. Up to now, these functions were being used in solving integral equations and differential equations. But in this paper, we have used rationalized Haar functions for denoising and edge detection of the standard images. Experimental results show the accuracy of using rationalized Haar functions in edge detection and denoising.
    Keywords: Rationalized Haar functions, Denoising, Edge detection
  • Fatemeh Sheykhalishahi *, Saeid Saryazdi, Hossein Nezamabadipour Pages 113-128
    This paper proposes a 3-D non-local means (NLMs) method for the application of video inpainting. To do this, first it assigns to the target pixels a priority and then restores them. The priority assignment of the target pixels is done based on structure and texture information of their neighbors’ pixels. To determine the type of each patch, which can be either texture or structure, the entropy criterion is used. The proposed method, to estimate damaged pixels, uses several non-local patches instead of the best matched patch. The subjective and objective experiments confirm the superiority of proposed method in the application of video inpainting and removing moving objects from the video in comparison with state-of-the-art methods.
    Keywords: video inpainting, moving object deletion, non-local means, 3D patch, prioritizing of target pixels
  • Mohammadreza Yamaghani, Farzad Zargari * Pages 129-139
    Ever increasing number of radiology images makes their storage and classification a challenging issue. In this paper a new method for compression and retrieval of radiology images in HEVC compressed domain is introduced. In this method the radiology images are coded as I-frames in HEVC standard. The prediction mode histogram along with PU size histogram of the coded images are used for classification and retrieval of radiology images. Experimental results indicate that the proposed method achieves in average 95% accuracy in classification and P@35 of 89% for radiology images which are superior to the other methods.
    Keywords: Content based medical image retrieval, Lossless compression, prediction modes histogram, HEVC video coding standard