فهرست مطالب

ماشین بینایی و پردازش تصویر - سال دوم شماره 2 (پاییز و زمستان 1394)
  • سال دوم شماره 2 (پاییز و زمستان 1394)
  • تاریخ انتشار: 1394/08/30
  • تعداد عناوین: 6
|
  • حسین ایزدی*، جواد صدری، نصرت آقا مهران صفحات 1-13
    جداسازی خودکار کانی های موجود در مقاطع نازک با استفاده از روش های پردازش تصویر، یکی از موضوعاتی است که در سال های اخیر مورد توجه زمین شناسان قرار گرفته است. سنگ ها اصلی ترین منبع اطلاعاتی زمین شناسان می باشند، و یکی از روش های متداول مطالعه سنگ ها، تهیه مقاطع نازک از آن ها و بررسی این مقاطع با استفاده از میکروسکوپ های انکساری قطبی کننده نور است. همچنین جداسازی کانی های موجود در مقاطع نازک، پیش نیاز انجام مطالعات بعدی مانند شناسایی و بررسی اندازه کانی ها در مقاطع است. در این مقاله، رویکردی جدید در جداسازی خودکار کانی های موجود در مقاطع نازک با استفاده از الگوریتم های پردازش تصاویر و خوشه بندی مبتنی بر ویژگی های رنگی ارائه شده است. به منظور جداسازی کانی های موجود در مقاطع نازک، از آن ها در نورهای معمولی و قطبی تصاویر دیجیتال تهیه شده و با استخراج ویژگی های رنگی و بکارگیری الگوریتم خوشه بندی افزایشی، کانی ها جداسازی خواهند شد. در الگوریتم پیشنهادی، ابتدا ویژگی های رنگی هر پیکسل در فضاهای رنگی RGB و HSI از تصاویر استخراج شده، سپس با استفاده از الگوریتم خوشه بندی، پیکسل های تصاویر تفکیک شده و در نهایت منجر به جداسازی کانی ها خواهد شد. نتایج الگوریتم پیشنهادی در مرحله آزمون بر روی 83 مقطع نازک متشکل از 16 کانی آذرین متداول، نشان دهنده میزان درستی 32/87%در جداسازی کانی ها می باشد. نتایج آزمایشگاهی، نشان دهنده جداسازی موفقیت آمیز کانی ها به ویژه مقاطع دگرسان شده و هوازده میباشد. کاربرد اصلی الگوریتم پیشنهادی در زمین شناسی سر چاه نفت، آموزش کانی شناسی و اکتشافات سطحی سازمان فضایی ایالات متحده آمریکا در سیاره مریخ (NASA Mars Explorations) است که تمامی آن ها نیازمند جداسازی آنی کانی ها می باشند.
    کلیدواژگان: جداسازی کانی ها، مقاطع نازک، خوشه بندی رنگی، پردازش تصاویر دیجیتال، فضاهای رنگی RGB و HSI
  • سحر ایروانی *، مهدی ازوجی صفحات 15-24
    در این مقاله، برای بهبود وفقی کنتراست به ارائه و حل یک مساله ی بهینه سازی در فضای هیستوگرام های دوبعدی پرداخته شده است. برای جلوگیری از بروز اثرات نامطلوب ناشی از دست کاری هیستوگرام تصویر، در بیان ریاضی مساله در این مقاله همانند روش های مشابه دیگر، از یک سو هیستوگرام بهینه ی خروجی از روی هیستوگرامی دوبعدی که بیشترین شباهت را به هیستوگرام دوبعدی تصویر ورودی و نیز توزیع یکنواخت داشته باشد به دست می آید و از سویی دیگر برخلاف دیگر روش ها، با وزن دهی وفقی، اطلاعات محلی مناسبی را نیز در این جستجو در نظر می گیرد. نگاشت مناسب با حل این مساله ی بهینه-سازی به دست آمده و آزمایش های گوناگونی که بر روی تصاویر گوناگون انجام شده است، درستی مدل بهینه سازی را نشان می دهد. به کارگیری الگوریتم پیشنهادی بر روی تصاویر متعدد، در مقایسه با روش مرجع به صورت میانگین به بهبود 75 درصدی و 3 درصدی معیارهای AMBE_N و DE_N منجر شده است.
    کلیدواژگان: بهبود کنتراست، هیستوگرام دوبعدی، هموارسازی هیستوگرام
  • هادی گرایلو* صفحات 25-38
    در روش فشرده سازی پیشنهادی در این مقاله، با بهره گیری از ویژگی دوحالته بودن تصاویر اثرانگشت، از تکنیک پیشنهادی تغییر مقیاس جهت افزایش کارایی فشرده سازی کدگذار SPIHT و از برخی تکنیک های پیشنهادی جهت حذف اثرنشتی حاصل از فشرده سازی در نرخ بیتهای پایین و افزایش کارایی بازشناسی روش فشرده سازی پیشنهادی استفاده شده است. همچنین، اثرات فشرده سازی روی بازشناسی بررسی شده و در این بررسی، یک معیار برحسب نقطه ی شکست و شیب افت منحنی دقت بازشناسی جهت ارزیابی روش های بازشناسی تصاویر اثرانگشت پیشنهاد شده است.
    نتایج نشان می دهد که تکنیک پیشنهادی کاهش محدوده ی تغییرات تصویر موجب کاهش نقطه ی شکست به اندازه ی 05/0bpp و تکنیک های بهسازی موجب افزایش دقت بازشناسی (تا 5 درصد در نقاط بالاتر از نقطه ی شکست) و کاهش شیب افت دقت بازشناسی (در نقاط پایین تر از نقطه ی شکست) شده اند. همچنین، کارایی متوسط PSNR در روش پیشنهادی در مقایسه با روش های JPEG2000 و WSQ به طور متوسط تا 8/0 dB افزایش یافته است.
    کلیدواژگان: تبدیل موجک، کدگذار SPIHT، فشرده سازی، تصاویر اثرانگشت، بهسازی، کارایی بازشناسی
  • سکینه اسدی امیری*، حمید حسن پور صفحات 39-49
    روش های فشرده سازی تصویر را می توان به دو دسته با اتلاف و بی اتلاف تقسیم بندی نمود. کدگذار پیشگو مبنای بسیاری از روش های فشرده سازی بی اتلاف تصویر است. این کدگذار با توجه به مقدار پیکسل های همسایه، مقداری را برای هر پیکسل از تصویر پیشگویی می نماید. تفاضل مقدار واقعی هر پیکسل از مقدار پیشگویی شده، مقدار خطا تلقی می شود و این مقادیر خطا کد می گردند. در این مقاله، روش پیش پردازشی پیشنهاد شده است که چیدمان تصویر را طوری تغییر می دهد تا مقادیر پیکسل های همسایه، همبستگی بیشتری با هم داشته باشند. با افزایش همبستگی بین پیکسل های همسایه، کدگذار پیشگو می تواند مقدار دقیق تری را برای هر پیکسل پیشگویی نماید، در نتیجه آنتروپی در تصویر خطا کاهش می یابد. طبق نظریه اطلاعات هر چه آنتروپی تصویر کمتر باشد، قابلیت کدگذار آنتروپی در فشرده سازی آن افزایش می یابد. در روش پیشنهادی به کمک الگوریتم ژنتیک، تبدیلات هندسی چرخش و انعکاس مناسبی بر روی هر بلوک از تصویر اعمال می شود تا چیدمان تصویر طوری تغییر یابد که همبستگی پیکسل های مجاور تصویر افزایش یابد. در این مقاله دو روش فشرده سازی JPEG بی اتلاف و CALIC که مبتنی بر کدگذار پیشگو هستند مورد بررسی قرار گرفت. نتایج ارزیابی روش پیشنهادی بر روی تصاویر متعدد نشان می دهد پیش پردازش پیشنهادی نرخ فشرده سازی این دو روش را بهبود می بخشد.
    کلیدواژگان: فشرده سازی تصویر، JPEG بی اتلاف، CALIC، تبدیلات هندسی، کدگذار پیشگو
  • سید جلال الدین موسوی راد*، حسین ابراهیم پور کومله صفحات 51-62
    آستانه گذاری تصاویر یک از محبوب ترین روش های قطعه بندی تصاویر است. در این روش، برای مشخص کردن مقادیر آستانه از هیستوگرام استفاده می شود. در این مقاله، یک روش آستانه گذاری چندسطحی برای قطعه بندی تصاویر مبتنی بر هیستوگرام با استفاده از الگوریتم بهینه سازی مبتنی بر یادگیری و تدریس ارائه شده است. این الگوریتم یک الگوریتم جمعیت گرای جدید است که از تاثیری که یک استاد بر دانش آموزان خود دارد الهام گرفته است. تابع هزینه مورد استفاده در این پژوهش، معیار بیشینه سازی آنتروپی کاپور بوده است. کارایی روش پیشنهادی بر روی 5 تصویر استاندارد مورد بررسی قرار گرفته است. همچنین کارایی آن با سه الگوریتم ژنتیک (GA)، بهینه سازی ذرات (PSO) و تکامل تفاضلی (DE) مقایسه شده است. نتایج نشان می دهد که الگوریتم بهینه سازی مبتنی بر یادگیری و تدریس نتایج بهتری در توابع برازندگی، مقدار PSNR، SSIM و پایداری فراهم آورده است. زمان یافتن مقادیر آستانه برای این الگوریتم نیز نسبت به الگوریتم PSO بیشتر اما نسبت به GA و DE کمتر است.
    کلیدواژگان: قطعه بندی تصاویر، آستانه گذاری چند سطحی تصاویر، الگوریتم بهینه سازی مبتنی بر یادگیری و تدریس، هیستوگرام، آنتروپی کاپور
  • علی سلمانی*، مرتضی خادمی صفحات 63-77
    پردازش چهره در اکثر کاربردهای بینایی ماشین موضوعی مهم به شمار می رود. این پردازش می تواند شامل مباحثی مثل آشکارسازی چهره، ردیابی چهره، شناخت حالات چهره و شناخت افراد شود. از میان این موارد، آشکارسازی چهره پایه ای ترین و کاربردی ترین شاخه پردازش چهره است. علت این موضوع، کاربردهای متفاوتی است که آشکارسازی چهره داراست. برای عملی کردن این کاربرد ها در ابتدا نیازمند یک الگوریتم سریع و دقیق برای آشکارسازی چهره می باشیم. روش های زیادی برای افزایش سرعت اجرای الگوریتم آشکارسازی چهره ارائه شده اند. اما معمولا این روش ها دقت نهایی سیستم را کم می کنند. در سوی مقابل روش هایی که به دنبال افزایش دقت بوده اند، با تحمیل بار محاسباتی به سیستم، میزان سرعت را پایین آورده اند. در سال های اخیر با توجه به ارزان شدن و در دسترس عموم قرار گرفتن دوربین های دریافت عمق، امکان این که بتوان در یک دقت ثابت، سرعت الگوریتم را افزایش داد، فراهم شده است. در این تحقیق ما به دنبال ایجاد یک هم جوشی مناسب بین داده های عمق و رنگ برای غلبه بر مشکلات گذشته هستیم. بدین ترتیب که از ویژگی های داده های عمق به عنوان یک کاهنده فضای جستجو استفاده کرده تا بتوان سرعت مشخص سازی ناحیه چهره را در عین حفظ دقت، افزایش داد. نتایج شبیه سازی روش پیشنهادی نشان می دهد که با استفاده از این روش، سیستم آشکارسازی چهره با حفظ دقت، حدود 2.74 برابر سریع تر نسبت به الگوریتم ویولاجونز اجرا خواهد شد. این در حالی است که آخرین روش های همه جانبه موجود به حدود 2.5 برابر افزایش سرعت رسیده اند.
    کلیدواژگان: آشکارسازی چهره، همجوشی داده های رنگ و عمق، کینکت
|
  • Hossein Izadi *, Javad Sadri, Nosrat Agha Mehran Pages 1-13
    Mineral segmentation in thin sections based on image processing algorithms is one of the popular research topics geosciences. Rocks are the main information resource for geological studies, and mounting thin section from rocks is the most popular method for studying them. Mineral segmentation in thin sections is also the pre-step for further studying on thin sections such as mineral identification and measuring the size of minerals. In this paper, a new method for mineral segmentation based on image processing and clustering algorithms is proposed for mineral segmentation in thin sections. In order to segment minerals, using a polarizer microscope, two images in plane and cross polarized lights are captured from each thin sections, and by extracting the color features from the images, minerals inside each thin section are segmented. Therefore, initially, the color features including RGB and HSI components are extracted for each pixels for both images, and then using image processing and clustering algorithms the pixels are clustered and each cluster is related to a segmented mineral. Experimental results indicate that the proposed algorithm produces accurate and reliable results, especially for those thin sections containing altered minerals. The proposed algorithm can be used in such applications as petroleum geology, mineralogy training and NASA mars exploration.
    Keywords: Mineral segmentation, Thin sections, Color clustering, Digital image processing, RGB, HSI color spaces
  • Sahar Iravani*, Mehdi Ezoji Pages 15-24
    In this paper, an adaptive image contrast enhancement algorithm based on an optimization problem in two dimensional histogram domain is presented. To reduce the unwanted effects of the histogram adjustment, through this optimization-similar to the other methods- the 2D histogram of enhanced image is found in close proximity to input image histogram and uniform distribution, simultaneously. In addition, different from the other methods, by adaptive adjusting the components of a weight matrix, local information is counted. Experimental results in the quantitative and qualitative assessments on a wide range of images demonstrate the performance of the proposed method. Tests have shown that with the addition of the adaptive adjusting the weights, the average performance in contrast enhancement increases 75 and 3 percent from the viewpoint of the AMBE_N and DE_N, respectively.
    Keywords: Contrast Enhancement, 2, Dimensional Histogram, Histogram Equalization
  • Hadi Grailu* Pages 25-38
    In this paper we propose a fingerprint image compression method based on the wavelet transform and SPIHT coder. The proposed method employs the proposed technique of dynamic range reduction which benefits from the bimodality of fingerprint images in order to improve the compression efficiency. In addition, we utilized some image enhancement techniques to alleviate the leakage effect as well as further improve the compression efficiency. We have investigated the impacts of compression on recognition efficiency of compressed images. In this investigation we proposed two new measures of breakdown point and downfall slope based on the recognition accuracy curve versus compression bit rate, in order to evaluate the fingerprint image compression approaches more sophisticatedly.
    Experimental results show that the proposed technique of dynamic range reduction decreased the breakdown point by 0.05 bpp in average. The proposed image enhancement techniques improved the recognition accuracy up to 5% at all compression bit rates higher than the breakdown point. It also decreased the downfall slope. Regarding the PSNR performance, the proposed method outperformed the JPEG2000 and WSQ approaches by 0.8 dB, in average.
    Keywords: Fingerprint image compression, SPIHT, verification performance, compression performance, image enhancement
  • Sekine Asadi Amiri *, Hamid Hassanpour Pages 39-49
    Image compressiontechniquescan bedividedinto two categoriesoflossyandlossless. Predictiveencoder isthe basis of many losslessimagecompression methods. Thisencoder predictsthe valuesofimage pixelsusing theirneighboringpixelsvalues. The difference betweenthe actual valueand thepredictedvalue of each pixelis consideredthe errorandthese error valuesarecoded.In this paper, a pre-processingmethodis proposed tochangethe image content arrangementsothatthe correlations between the neighboring pixelsincrease.By increasing the correlation between neighboring pixels, predictive encoder can more accurately predict the value of each pixel, as a result, entropy is reduced in the error image. According toinformation theory, thelower the imageentropy leads to the higher the capability of theentropy encoderinitscompression.In the proposed method,using the genetic algorithm, an appropriate geometrictransformationof rotationandreflectionis appliedoneach blockofthe image to strengthen the correlation between neighboring pixels.Inthispaper, twocompression methods,losslessJPEG andCALIC that are based on predictivecodingareevaluated.The evaluation results ofthe proposed methodonmultiple imagesshow thattheproposedpre-processingmethodimprovesthecompressionrate of these two methods.
    Keywords: Image compression, Lossless JPEG, CALIC, Geometric transform, Predictive encoder
  • Seyed Jalaleddin Mousavirad *, Hossein Ebrahimpour, Komleh Pages 51-62
    Image thresholding is a popular method for image segmentation. Histogram is used for image segmentation in image thresholding. In this paper, a multilevel image thresholding is proposed based on teaching-learning-based optimization (TLBO). TLBO is a new population-based metaheuristic inspired by learners and teacher in a classroom. The optimal thresholds are found by maximizing Kapur’s (entropy criterion) thresholding function. The performance of TLBO is explained by considering five images. In addition, the performance is compared with three well known population-based metaheuristics: particle swarm optimization(PSO), genetic algorithm (GA), and differential evolution (DE). Results show that TLBO presents the better performance in terms of fitness value, peak signal to noise ratio (PSNR), Structural-Similarity index (SSIM), and stability.
    Keywords: image segmentation, multilevel image thresholding, teaching, learning, based optimization, histogram, Kapur's entropy
  • Ali Salmani *, Morteza Khademi Pages 63-77
    Face detection is an important part of many computer vision systems and has several applications in areas, such as face tracking, visual surveillance, video conferencing, face recognition, intelligent human-computer interfaces and content-based information retrieval. For use of face detection in this applications, need a fast and precise face detection algorithm. But Detection speed of traditional face detection method based on AdaBoost algorithm is slow since an exhaustive search in image. Over the past few years, the availability of color images with corresponding depth data has increased due to the popularity of low-cost RGB-Depth cameras, notably Kinect. The complementary nature of the depth and visual information provided by the Kinect sensor opens up new opportunities to solve fundamental problems in face detection with intelligently constraining search over the image. In this paper, utilize additional depth data to reduce the computational cost of face detection. Leveraging the additional depth images from a Kinect camera, and use of Recurring in nature idea, we are able to accelerate the Viola-Jones face detector by 270%.
    Keywords: Face Detection, Data Fusion, Kinect, Depth Data