فهرست مطالب

ماشین بینایی و پردازش تصویر - سال هفتم شماره 2 (پاییز و زمستان 1399)

نشریه ماشین بینایی و پردازش تصویر
سال هفتم شماره 2 (پاییز و زمستان 1399)

  • تاریخ انتشار: 1399/12/28
  • تعداد عناوین: 12
|
  • محمدجواد فدایی اسلام* صفحات 1-11
    در این مقاله روشی دو مرحله ای برای هم بخش بندی مبتنی بر تجزیه تصویر به ماتریس مرتبه کم و پراکنده ابداع شده است. در مرحله اول که مشابه روش SMD است ابرپیکسل‎های نقشه برجسته به عنوان ماتریس پراکنده در نظر گرفته می شوند و اجزای زمینه به عنوان ماتریس با رتبه کم. در این حالت ابرپیکسل هایی که با اطمینان بالا، زمینه خوشه بندی شده اند حذف می شوند. در مرحله بعد تمام ابرپیکسل های باقی مانده از تمام تصاویر باهم در نظر گرفته می شوند. پس از وزن دهی جدید به ساختار درخت و ادغام اطلاعات، روش SMD دوباره بر روی داده های جدید اعمال می شود. در این مرحله به علت کثرت ابرپیکسل های باقی مانده از قسمت نقشه برجسته تصاویر، اعمال روش تجریه ماتریسی باعث قرار گرفتن ابرپیکسل های نقشه برجسته در ماتریس با مرتبه کم خواهد شد. به عبارتی در روش پیشنهادی با وزن دهی مناسب به نمایش درختی ابرپیکسل ها، اطلاعات همسایگی و مشابهت درون یک تصویر و بین تصاویر در روش تجزیه ماتریسی نهادینه شد، تا از طریق آن نتایج هم بخش بندی بهبود یابد. نتایج به دست آمده از به کارگیری روش پیشنهادی بر روی پایگاه تصاویر مرتبط با این حوزه، حاکی از توانمندی این روش هستند.
    کلیدواژگان: هم بخش بندی، شناسایی نقشه برجستگی، تجزیه ماتریس، درخت همسایگی
  • سعید رمضانی، رضا حسن زاده* صفحات 13-24
    امروزه روش های ارزیابی غیرمخرب (NDE)برای تشخیص خرابی در قطعات صنعتی از سه مرحله تشخیص، مکان یابی و تعیین مشخصات خرابی تشکیل می گردند. اما علی رغم اینکه تکنیک های مبتنی بر NDE موجود در صنعت دارای نتایج نسبتا قابل قبول در آشکارسازی وجود خرابی و تعیین محل آن هستند، اما تشخیص دقیق شکل، ابعاد و عمق خرابی هنوز به عنوان یک چالش باقی مانده است. در این مقاله روشی برای تخمین قابل اعتماد از مشخصات خرابی در قطعات فلزی با استفاده از سیستم اندازه گیری برپایه آزمون جریان گردابی (ECT) و سیستم پس پردازش مبتنی بر تکنیک یادگیری عمیق ارایه شده است. به این صورت که از یک روش یادگیری عمیق به منظور تعیین مشخصات خرابی موجود در یک قطعه فلزی، از طریق تصاویر C-scan حاصل از میدان مغناطیسی سطح قطعه که بوسیله یک حسگر مغناطومقاومت ناهمسانگر (AMR)اخذ شده اند، استفاده شد. در این خصوص، پس از مراحل طراحی و تنظیم شبکه عصبی پیچشی عمیق (DCNN) و اعمال آن به تصاویر C-scan اخذ شده از سیستم اندازه گیری، روش یادگیری عمیق ارایه شده با روش های شبکه های عصبی مصنوعی (ANNs) متداول مانند پرسپترون چند لایه (MLP) و تابع پایه شعاعی (RBF) بر روی تعدادی از نمونه های فلزی با خرابی مختلف مشخص مقایسه گردید. نتایج نشان دهنده برتری روش پیشنهادی برای تخمین مشخصات خرابی در مقایسه با سایر روش های آموزش محور کلاسیک می باشد.
    کلیدواژگان: اندازه گیری میدان مغناطیسی، شبکه عصبی عمیق، مغناطومقاومت ناهمسانگر، یادگیری عمیق، یادگیری ماشین
  • محمدرضا محمدی * صفحات 25-34

    یادگیری عمیق در صورت استفاده از مجموعه داده آموزشی متناسب می‏تواند دقت قابل توجهی را نتیجه دهد. با این وجود، آماده‏سازی مجموعه داده بزرگ با حاشیه‏نویسی دقیق فرآیندی پرهزینه است. به همین دلیل، الگوریتم‏های یادگیری با نظارت ضعیف در سال‏های اخیر مورد توجه بسیاری از پژوهشگران قرار گرفته‏اند. در رویکرد یادگیری با نظارت ضعیف، مجموعه داده بزرگ اما با حاشیه‏نویسی ساده جمع‏آوری می‏شود تا هم نیازمندی شبکه‏های عمیق به داده‏های زیاد برآورده شود و هم هزینه حاشیه‏نویسی زیاد نباشد. در این مقاله، یک الگوریتم یادگیری با نظارت ضعیف برای شناسایی شماره پلاک خودرو با استفاده از شبکه‏های همگشتی عمیق پیشنهاد می‏شود. در فاز آموزش، تنها کاراکترهایی که در تصاویر پلاک وجود دارند مشخص می‏شود و الگوریتم پیشنهادی قادر است علاوه بر شناسایی وجود هر کاراکتر، مختصات آنها را نیز آشکارسازی نماید. بنابراین، در فاز آزمون شماره پلاک به صورت کامل قابل شناسایی است. به منظور ارزیابی عملکرد الگوریتم پیشنهادی، یک پایگاه داده شامل 1397 تصویر پلاک ایرانی جمع‏آوری شده است. نتایج آزمایش‏ها نشان می‏دهد 95.6% از پلاک‏ها و 99.1% از کاراکترها به درستی شناسایی شده‏اند.

    کلیدواژگان: شماره پلاک خودرو، یادگیری عمیق، شبکه‏های همگشتی عمیق، یادگیری با نظارت ضعیف
  • ویدا حسن زاده، مهدی ازوجی* صفحات 35-44
    در این مقاله، روشی برای بهبود کنتراست در تصاویر ماموگرام مبتنی بر طراحی وفقی فیلتر چندجمله ای غیرخطی ارایه شده است. اگر چه روش های پایه بهبود کنتراست مانند متعادل سازی هیستوگرام و ویرایش های گوناگون آن در برابر تصاویر طبیعی کارایی خوبی دارند، ولی در بهبود تصاویر ماموگرام که کنتراست پایینی دارند، دچار چالش می شوند. زیرا تاکید بر افزایش کنتراست در تصاویر پزشکی مانند ماموگرام ها، می تواند به بروز اشباع شدگی در نواحی روشن ضایعه و تضعیف الگوی مرزی آن گردد. در این مقاله، طراحی فیلتر غیر خطی به گونه ای انجام شده تا ضمن بهبود کنتراست این تصاویر، از بروز چنین تغییراتی که می تواند تشخیص را تحت تاثیر قرار دهد، جلوگیری شود. در این مقاله، برخلاف روش های دیگر، ضرایب فیلتر غیرخطی به صورت وفقی متناظر با هر تصویر ورودی و طی تعاملی با الگوریتم مطرح بهبود کنتراست یعنی CLAHE تنظیم می شود. ارزیابی کمی و کیفی این روش در آزمایش های گوناگون بر روی تصاویر متعدد از مجموعه دادگان MIAS، نشان می دهد که روش پیشنهادی در این مقاله، از کارایی قابل قبولی برخوردار است.
    کلیدواژگان: ماموگرام، بهبود کنتراست، فیلترهای چندجمله ای، فیلتر غیرخطی، تنظیم وفقی
  • حمزه حسن نیا، مهدی چهل امیرانی، مرتضی ولی زاده* صفحات 45-55
    ماموگرافی رایج ترین و موثرترین روش غربالگری برای تشخیص سرطان پستان است. در این تحقیق، یک سیستم کمکی برای طبقه بندی  تومورهای خوش خیم و بدخیم در تصاویر ماموگرافی دیجیتال ارایه شده است. در این روش ابتدا فیلتر میانه برای حذف نویز استفاده شده و سپس مصنوعات و ماهیچه ی پکتورال در صورت وجود حذف می شوند. برای ناحیه بندی ماموگرام و استخراج ناحیه های موردنظر ابتدا یک الگوریتم جدید برای افزایش تباین نواحی مشکوک ارایه شده است که از تفاضل بهبود یافته تصویر اصلی و مکمل آن بهره می برد، سپس الگوریتم خوشه بندی C میانگین فازی بر مبنای هیستوگرام به تصویر اعمال شده و ناحیه های موردنظر با دقتی مناسب استخراج می شوند. در مرحله ی بعد ویژگی های بافت و هندسی استخراج می شوند و در نهایت طبقه بندهای ماشین بردار پشتیبان خطی و درخت تصمیم برای دسته بندی ناحیه های موردنظر به دو کلاس خوش خیم و بدخیم، استفاده می شوند. سیستم پیشنهادی بر روی تصاویر پایگاه های داده ی MIAS و DDSM آزمایش شده است. نتایج به دست آمده نشان گر این است که دقت سیستم پیشنهادی در مقایسه با تحقیقات پیشین امیدوار کننده است.
    کلیدواژگان: سرطان سینه، ماموگرافی، افزایش تباین، ناحیه بندی، استخراج ویژگی
  • مهدی جم پور، ملیحه جاویدی* صفحات 57-69
    در این مقاله، یک مدل معماری مشترک برای بهره مندی از ویژگی های استخراج شده توسط شبکه عصبی عمیق و ویژگی های صریح استخراج شده به روش کلاسیک برای مساله بازشناسی امضاء ارایه شده است. معماری پیشنهادی، شکل توسعه یافته مدل رزنت 18 لایه می باشد که طی آن یک مدل معماری دو مسیره تعریف شده است که در یک مسیر ویژگی های استخراج شده توسط شبکه عصبی عمیق رزنت و در مسیر دوم ویژگی های سراسری به روش کلاسیک با یکدیگر ترکیب می شوند. همچنین برای استخراج ویژگی ها به روش کلاسیک، یک ایده ابتکاری سراسری ارایه شده است که در آن، توصیفگر، نسبت به برخی تغییرات متداول در نمونه های امضاء مانند دوران و بزرگنمایی پایدار است. ارزیابی های متنوعی بر روی روش ارایه شده انجام شده است بطوریکه از سه پایگاه داده مشهور تصاویر امضاء CEDAR, UTsig و GPDS برای تحلیل روش پیشنهادی و مقایسه با روش های مشابه استفاده شده است. نتایج ارزیابی ها، حاکی از بهبود دقت بازشناسی امضاء به وسیله معماری مدل مشترک ارایه شده نسبت به مدل پایه می باشد همچنین مقایسه روش پیشنهادی با بهترین نتایج موجود نشان می دهد در اغلب موارد دقت روش پیشنهادی، بهتر از بهترین نتایج منتشر شده است.
    کلیدواژگان: معماری یادگیری عمیق دو مسیره، ترکیب ویژگی ها، شبکه عصبی عمیق رزنت، ویژگی های کلاسیک، معماری مشترک
  • عباس بی نیاز*، رضا آقایی زاده ظروفی صفحات 71-91

    آندوسکوپی روشی است که با کمترین مداخله ی تهاجمی رویت بخش های درونی بدن بیمار را برای پزشک تسهیل می کند. در سال های اخیر پژوهش های بسیاری در زمینه ی پردازش و مطالعه ی سیگنال های اکتسابی از دوربین آندوسکوپی و جراحی متمرکز شده اند. در پژوهش حاضر مروری جامع بر انواع تکنیک های پردازش تصاویر آندوسکوپی انجام خواهد شد و یک دسته بندی کلی از این روش ها ارایه می شود. به این منظور از پژوهش های موجود در پایگاه های اطلاعاتی از قبیل IEEE، Science Direct، Pub Med، SPIE ، Springer و Medical Physics استفاده شده است. در بخش ابتدایی این پژوهش، به منظور ایجاد نگرشی از مطالعات انجام شده، مقدمه ای بر آندوسکوپی و انواع روش های آندوسکوپی در پردازش تصاویر پزشکی نیز ارایه می شود؛ با توجه به تحقیقات و بررسی های انجام شده در این پژوهش، چشم اندازهای موجود در پردازش تصاویر آندوسکوپی را به چهار رویکرد کلی تقسیم می کنیم: روش های مبتنی بر ارتقا کیفیت تصویر، روش های مبتنی بر پردازش بلادرنگ، روش های مبتنی بر ارزیابی کیفیت و روش های مبتنی بر مدیریت تصاویر؛ این دسته بندی یک دسته بندی نهایی نیست و هر کدام از این گروه ها، دارای زیرشاخه هایی هستند که ممکن است در مواردی بین آنها هم پوشانی نیز وجود داشته باشد.

    کلیدواژگان: پردازش تصاویر و ویدیوهای آندوسکوپی، رویکردهای با کمترین مداخله ی تهاجمی، انواع روش های تصویربرداری حوزه ی آندوسکوپی، کاربردهای کلینیکی آندوسکوپی
  • مریم امیرمزلقانی*، علیرضا سلیمی صفحات 93-104
    تصاویر رادارهای دهانه ترکیبی  SAR (Synthetic Aperture Radar) کاربردهای فراوانی در زمینه های گوناگون دارند. اما وجود نویز ضرب شونده ای به نام نویز لکه ای  پردازش این تصاویر را با مشکل مواجه می کنند. لذا کاهش نویز لکه ای از گام های ضروری پردازش تصاویر SARاست. در این مقاله، روش بیزین نوینی به منظور  کاهش نویز لکه ای تصاویر SARدر حوزه موجک ارایه می شود که بر مبنای استفاده از مدلسازی توام است. در روش پیشنهادی، ابتدا تبدیل لگاریتم و سپس تبدیل موجک به تصاویر SAR اعمال می گردد. سپس مدلسازی ضرایب موجک با استفاده از توزیع گوسی معکوس نرمال NIG (Normal Inverse Gaussian) توامان انجام می شود. با توجه به اهمیت دقت مدلسازی آماری و  وجود وابستگی میان ضرایب موجک، در مدل آماری ارایه شده وابستگی های ضرایب موجک درون یک زیر باند در نظر گرفته شده و توزیع چند متغیره ضرایب موجک استفاده می شود. سپس به منظور حذف نویز تصاویر SAR، تخمین گر بیزین کمترین خطای مربعات MMSE (Minimum Mean Square Error) بر مبنای استفاده از مدل پیشنهادی طراحی می گردد. نتایج آزمایشات روی تصاویر شبیه سازی شده و تصاویر SAR واقعی حاکی از کارایی بالای روش پیشنهادی است.
    کلیدواژگان: تصاویر رادارهای دهانه ترکیبی، تخمین کمترین مربعات، مدلسازی آماری توام، تبدیل موجک، نویز لکه ای
  • سمیرا لویمی، میر حسین دزفولیان، محرم منصوری زاده* صفحات 105-117

    در دنیای امروز پزشکی توسعه روزافزون ابزار تولید تصاویر رادیولوژی پزشکی در مراکز درمانی، ایجاد سیستم های سبک، قابل حمل و دقیق جهت تحلیل و آنالیز تصاویر و استخراج اطلاعات تخصصی از این تصاویر را ضروری ساخته است. در بسیاری موارد تصاویر پزشکی فاقد برچسب یا حاشیه نویسی با اطلاعات تخصصی و کلینیکال هستند. ازاین رو طراحی سیستم هایی برای تولید اطلاعات تخصصی در مورد محتوای تصاویر یکی از چالش های مطرح است. در این پژوهش سیستم تولید گزارش رادیولوژی ساخت یافته مبتنی بر روش های حاشیه نویسی ارایه شده است. ازجمله چالش های اساسی در این زمینه استخراج ویژگی ها و توصیفگرهای مناسب از تصاویر به منظور مدل سازی مفاهیم و محتوای تصاویر است. بدین منظور با توجه به کارآمدی فرایند یادگیری عمیق و قابلیت آن در استخراج ویژگی متناسب با هدف، در این مقاله از شبکه های عمیق موبایل نت به دلیل سبک و دقیق بودن، استفاده شده است. همچنین با توجه به کم بودن داده های آموزشی در حوزه های تخصصی پزشکی علاوه بر بهره گیری از روش های کاهش بیش برازش در شبکه موبایل نت، روش ترکیبی مبتنی بر توصیفگرهای عمیق و الگوی دودویی محلی ارایه شده است. نتایج بیانگر موثر بودن روش پیشنهادی هیبریدی در بهبود دقت سیستم بوده و دقت نهایی سیستم 91.4% است.

    کلیدواژگان: یادگیری عمیق، موبایل نت، الگوی دودویی محلی، حاشیه نویسی تصاویر، گزارش رادیولوژی، تصاویر سی تی
  • سمانه ایلانی، نرگس طباطبائی مشهدی*، قاسم صادقی بجستانی، بهزاد برازنده صفحات 119-136

    اندازه گیری و ارزیابی ضخامت لایه های مختلف قرنیه برای تشخیص و درمان بیماری های قرنیه بسیار مهم و ضروری است. توموگرافی انسجام نوری (OCT) می تواند بصورت غیرتهاجمی و غیرتماسی از قرنیه چشم تصاویر مقطعی در مقیاس میکرون تولید کند. از آنجایی که ناحیه بندی دستی این تصاویر برای تعیین لایه های قرنیه، وقت گیر است، قطعه بندی خودکار و حتی نیمه خودکار تصاویر، مطلوب پزشکان است. در این مقاله به بررسی روش های مهم قطعه بندی لایه های مختلف قرنیه در تصاویر OCT پرداخته شده است. این روش ها در سه بخش پیش پردازش، قطعه بندی و تولید نقشه ضخامت، مقایسه و تشریح شدند. هدف پیش پردازش ها حذف نویز و آرتیفکت در این نوع تصاویر بود. بررسی ها نشان داد روش های مبتنی بر تبدیل هاف، که با ساختار قوسی قرنیه هماهنگ است، در مقایسه با روش های مبتنی بر گراف و آستانه، قادر است با سرعت پردازش مناسبی مرزهای دقیق را استخراج کند. با این وجود، رویکرد جدید هوش مصنوعی و یادگیری عمیق در قطعه بندی، افق های تازه ای را در تحلیل این نوع تصاویر باز کرده است. هدف پژوهش ها ارایه بهینه اطلاعات تصاویر برای کمک به چشم پزشکان در تشخیص بهتر و درمان آسیب های قرنیه است؛ بنابراین می توان گفت تولید نقشه ضخامت لایه ها، که نیازمند پردازش خودکار مجموعه ای از تصاویر سطح مقطع است، خروجی مهمی است که در پژوهش های کمتری به آن پرداخته شده است.

    کلیدواژگان: توموگرافی انسجام نوری (OCT)، قطعه بندی تصاویر OCT قرنیه، تشخیص لایه های قرنیه، تعیین مرز لایه های قرنیه، پردازش تصاویر قرنیه چشم، نقشه ضخامت لایه های قرنیه
  • سینا لبافی، علیرضا زاهدی* صفحات 137-148
    یکی از عوامل مهم در رشد ریزجلبک ها مقدار نمک لازم برای تغذیه آن ها است. طبق این پژوهش،محیط کشت برای ریزجلبک نانوکلروپسیس، در غلظت های مختلف نمکی آماده شده و در هر شبانه روز میزان رشد ریزجلبک های فعال به کمک فناوری ماشین بینایی بررسی گردید. حداکثر و حداقل تراکم سلول های ریزجلبک در روز هفتم پرورش به ترتیب 105×0.38±104×286.23(در غلظت 35 میلی گرم برلیتر) و 105×0.48±104×168.58(در غلظت 100 میلی گرم برلیتر) سلول در هر میلی لیتر به دست آمد. در تحلیل سیستم رشد، الگوریتم رگراسیون خطی ساده (با کمترین خطا)، رگراسیون خطی، پرسپترون چندلایه و پردازش گوسین (با بیشترین خطا) که به ترتیب دارای ضرایب همبستگی 0.9095، 0.9039، 0.8623 و 0.7335 بودند، نتایج خوبی را نشان دادند. همچنین سامانه توسط شبکه عصبی مصنوعی در محدوده 4 تا 20 نرون ارزیابی شد. بررسی داده ها نشان داد دیدگاه بیوسیستمی به کشت ریزجلبک به کمک پردازش تصویر ضمن دقت بالاتر و هزینه و وقت کمتر تخمین موفقیت آمیزی از روند رشد در غلظت های مختلف نمکی در مقایسه با دیگر روش های کنترل رشد به دست می دهد.
    کلیدواژگان: کشت ریزجلبک، غلظت نمکی، نانوکلروپسیس اوکولاتا، ماشین بینایی، شبکه عصبی
  • سمیرا دانایی، عبدالحسین فتحی* صفحات 149-159
    سیستم تشخیص هویت بر اساس شبکیه چشم یک سیستم بیومتریک پایدار و قابل اعتماد است که اشکالاتی مانند فراموشی، لو رفتن، گم شدن و جعل شدن را ندارد. در این مقاله یک روش جدید با دقت عملکرد بالا ارایه می گردد که برخلاف سایر روش های مبتنی بر شبکیه در مقابل چرخش و جابجایی عروق مقاوم است. این سیستم شامل سه مرحله اصلی پیش پردازش، استخراج ویژگی و تطبیق ویژگی می باشد. استخراج عروق با روش تبدیل موجک پیوسته مختلط انجام می شود. در مرحله استخراج ویژگی با استفاده از عملگر تشخیص الگوی محلی رگ علاوه بر تشخیص نقاط ویژه انشعاب و تقاطع در شبکه عروق، ویژگی های این نقاط مانند تعداد شاخه، کوچکترین زاویه و نوع نقاط (انشعاب و تقاطع) استخراج می گردد. در مرحله تطبیق ویژگی، از تعداد نقاط ویژه منطبق در کنار میزان شباهت توپولوژی گراف حاصل از اتصال نقاط ویژه تصویر ورودی و تصاویر مرجع استفاده شده و در نهایت هویت فرد احراز می گردد. روش ارایه شده روی پایگاه داده های DRIVE، VARIA، DIARET و STARE اجرا شده اند که دقت تشخیص هویت در این پایگاه های داده به ترتیب 100%، 81/99 %، 7/99 % و 100 % بوده است.
    کلیدواژگان: بیومتریک، تشخیص هویت، تشخیص هویت بر اساس شبکیه چشم، توپولوژی گراف
|
  • Mohammad Javad Fadaeieslam * Pages 1-11
    In this paper, a two stage co-segmentation method,based on matrix decomposition,has been proposed. In the first step, each image is segmented into some super-pixels and then salient parts of each image are extracted via structured matrix decomposition (SMD) method. The low-rank matrix represents image background and the sparse matrix contains salient objects. In this step, the super-pixels that are partitioned as background with high confidence will be removed. In the second step, all remaining super-pixels are considered all together and the tree structure is rearranged and then the SMD method is applied again to this new data. Parts of the common salient object compose the low-rank matrix due to the large number of them in the remaining super-pixels. In other words, the proposed approach has embedded intra-image adjacency information and inter-images similarity information into the matrix decomposition method via proper weighting of the tree structure.iCoseg dataset has been used to evaluate its performance. The results demonstrate its effectiveness and superiority.
    Keywords: Co-segmentation, salient object detection, matrix decomposition, adjacency tree
  • Saeed Ramezani, Reza PR Hasanzadeh * Pages 13-24
    Nowadays, nondestructive evaluations (NDE) techniques for the diagnosis of defects in the industrial components follow three steps: detection, location, and Determination of defect profile. Despite the fact that the NDE techniques available in the industry have fairly acceptable results for defect detection and localization, but accurate diagnosis of the shape, dimensions, and depth of the defect still remained a challenging task. In this paper, a method for reliable estimation of defect profile in conductive materials is presented using an eddy current testing (ECT) based measurement system and a post-processing technique based on deep learning approach. Accordingly, a deep learning method is used for defect characterization in metallic structures through magnetic field C-scan images which have been obtained by an anisotropic magneto-resistive (AMR) sensor. In this regards, after modeling and regulating the deep convolutional neural network (DCNN) to apply to the obtained C-scan images, the performance of the proposed deep learning method is compared with the conventional artificial neural networks (ANNs) such as multi-layer perceptron (MLP) and Radial based function (RBF) on a number of specimens with different known defects. Results confirm the superiority of the proposed approach relative to other conventional methods for defect profile estimation.
    Keywords: Magnetic Field Measurement, Deep Neural Network, Anisotropic Magneto-resistive, Deep Learning, Machine Learning
  • Mohammad Reza Mohammadi * Pages 25-34

    Deep learning, if used by an appropriately large dataset, can result in considerable accuracy. However, preparing a large dataset with accurate annotation is a costly process. For this reason, weakly supervised learning algorithms have attracted many researchers in recent years. In a weakly supervised learning approach, a large dataset is gathered with weak annotation to meet both the need of large dataset for deep learning, and reduce the cost of annotations. In this paper, a weakly supervised learning algorithm is proposed to recognize vehicle license plates using deep convolutional neural networks. In the training phase, only the characters existed in the plate images are labeled, and the proposed algorithm can recognize the presence of each character in addition to their coordinates. Therefore, in the test phase, the license plate is fully recognizable. In order to evaluate the performance of the proposed algorithm, a dataset containing 1397 plate images has been collected. The results of the experiments show that 95.6% of the plates and 99.1% of the characters are correctly recognized.

    Keywords: Vehicle license plate, Deep Learning, Convolutional Neural Networks, Weakly supervised learning
  • Vida Hasanzade, Mehdi Ezoji * Pages 35-44
    In this paper, a method for enhancing the contrast of mammogram images based on the design of a nonlinear polynomial filter is presented. Mammograms suffer from low contrast and also basic contrast enhancing techniques such as Histogram Equalization and its modifications, which have good performance against natural images- are challenged when faced with mammograms. Because increasing the contrast of medical images such as mammograms leads to saturation in bright regions and weakens marginal pattern of tumor. In this work, the design of non-linear filter is done such that shape of the potential tumor -that plays an important role in diagnosing it- are preserved. In this paper, unlike other methods, the nonlinear filter coefficients are adjusted to each input image through a support of the well-known contrast enhancement algorithm, i.e. CLAHE. Quantitative and qualitative evaluations of this method in various experiments and on several images from MIAS dataset show that the proposed method has acceptable performance.
    Keywords: Mammogram images, Contrast Enhancement, Polynomial Filters, Non-linear Filters, Adaptive Adjustment
  • Hamzeh Hassannia, Mehdi Chehel Amirani, Morteza Valizadeh * Pages 45-55
    Mammography is the most common and effective screening method for breast cancer detection. In this paper a computer aided system for classification of benign and malignant tumors in digital mammogram is presented. First, a median filter is used for noise reduction, and then artifacts and pectoral muscle are removed to make the mammogram ready for segmentation. For segmentation of mammogram, a new contrast enhancement method is presented which employs the difference of two complement enhanced images and then a histogram based fuzzy C-means (HFCM) clustering are used for region-of-interest (ROI) extraction. Then, some geometrical and textural features are extracted, and finally linear support vector machine and decision tree classifier are used to classify the region of interest into benign and malignant classes. The proposed algorithm is validated on the MIAS and DDSM databases. The experimental results showed that the performance of the proposed method is promising compared to the other methods evaluated.
    Keywords: breast cancer, mammography, computer-aided diagnosis system, HFCM clustering, Geometrical Features
  • Mahdi Jampour, Malihe Javidi * Pages 57-69
    In this paper, we have proposed a new joint architecture using Deep Neural Network (DNN) and a traditional descriptor for feature extraction towards signature identification. The proposed approach is an extended version of ResNet-18, which is enhanced using our two paths architecture. In the first path, we explore features using a deep convolutional neural network, and in the second path, we discover global features using a traditional heuristic approach. Our traditional approach extracts global features that are stable with rotation and scaling. For evaluation, we performed extensive experiments on accessible datasets of CEDAR, UTsig, and GPDS through the proposed approach. Our results show that the proposed joint approach outperformed the baseline ResNet-18 and demonstrate our approach superiority. Also, the comparisons with the related works show that our approach results are better or in par with state of the art.
    Keywords: Two-path DNN architecture, Feature concatenation, ResNet, Traditional features, Joint architecture
  • Abbas Biniaz *, Reza Aghaeizadeh Zoroofi Pages 71-91

    Endoscopy is a technique that facilitates the visualization of the internal parts of the patient's body with minimal non-invasive intervention. In recent years, many studies have focused on analyzing acquired signals from the endoscopic and surgical camera. In the present study, a comprehensive overview of the types of endoscopic image processing techniques will be presented and a general classification of these methods will be presented. This paper uses research from databases of IEEE, Science Direct, Pub Med, SPIE and Medical Physics. In order to create an outlook of this research, an introduction to endoscopy and a variety of endoscopic methods in medical image analysis is presented. According to the researches and studies investigated in this study, we categorize the perspectives in the process of endoscopic images into four general approaches: methods based image improvement and enhancement, real-time processing methods, image quality evaluation methods, and image-based management methods. Subcategories of these groups may overlap each other in some cases.

    Keywords: endoscopy image, video analysis, minimally invasive intervention approaches, endoscopic imaging techniques, endoscopy clinical applications
  • Maryam Amirmazlaghani *, Alireza Salimi Pages 93-104
    Synthetic Aperture Radar (SAR) images have many applications in different fields. But, the existence of multiplicative noise called speckle is a problem in processing SAR images. So, speckle suppression is an essential step in processing SAR images. In this paper, a novel Bayesian wavelet domain speckle suppression method is proposed that is based on joint modeling. In the proposed method, first logarithm and then wavelet transform are applied to the SAR images. Normal Inverse Gaussian (NIG) distribution is used for statistical modeling of wavelet coefficients. Due to the importance of precise statistical modeling and the existence of dependency between wavelet coefficients, proposed method captures the dependencies of wavelet coefficients using joint modeling. Then, based on using the proposed model, a minimum mean square error (MMSE) estimator is designed to denoise SAR images. Experimental results using synthetic and real SAR images demonstrate the efficiency of the proposed method.
    Keywords: Synthetic Aperture Radar (SAR) images, Minimum mean square error (MMSE) estimator, Joint modeling, wavelet transform, speckle
  • Samira Loveymi, Mirhossein Dezfoulian, Muharram Mansoorizadeh * Pages 105-117

    In today’s modern medicine, with the spreading use of radiological imaging devices in medical centers, the need to accurate, reliable, and portable medi cal image analysis and understanding systems has been increasing constantly. Since usually the images are not accompanied by the required clinical anno tation, automatic tagging and captioning systems are among the most desired applications. This research proposes an automatic structured radiology report generation system that is based on annotation methods. Extracting useful and descriptive image features to model conceptual contents of the images is one of the main challenges in this regard. Considering the ability of deep neural networks in soliciting informative and effective features as well as lower reso urce requirements, MobileNets are employed as the main building block of the proposed system. Furthermore due to the lack of large labeled medical data for training the network and risk of over-fitting, a joint descriptor is induced from the deep features and local bina ry patterns. Experimental results confirm the efficiency of the proposed hybrid approach with accuracy 91.4%, as compared to the end-to-end deep networks and classic annotation methods.

    Keywords: Deep Learning, MobileNet, Local binary pattern, Image Annotation, CT scan Radiology Report
  • Samane Ilani, Narges Tabatabaey-Mashadi *, Ghasem Sadeghi Bajestani, Behzad Barazandeh Pages 119-136

    Thickness evaluation and analysis of corneal layers are important for diagnosis and treatments considering corneal disease. Optical Coherence Tomography (OCT) can produce micron-scaled cross-sectional images in a non-invasive and non-contacting manner. Since manual segmentation and layer detection within such images are time-consuming, physicians prefer automatic/semi-automatic methods. This paper reviewed main and important methods of corneal layer segmentationsapplied to OCT images. The methods are compared and described in three categories: preprocessing, segmentation, and thickness mapping (layers’ topography). The purpose of preprocessing was to remove noise and artifacts from such OCT images. Studies show that methods based on Hough transform, which are consistent with the corneal arc structure when compared to graph and threshold methods, are able to extract accurate boundaries in a reasonable time. Meanwhile, artificial intelligence and the deep learning approach has opened new horizons in segmentation and analysis of such images. In studies, generally the aim was to extract and present OCT image information in a form that would help ophthalmologists better diagnose and treat corneal abnormalities; therefore it can be concluded thatlayer topography and its related issues that require automatic processing of a set of cross-sectional images, isan important output that is not addressed in many research.

    Keywords: Optical Coherence Tomography (OCT), OCT Corneal Image Segmentation, Corneal layer detection, Corneal layer boundary detection, Corneal image Processing, Thickness map of the cornea layers (cornea layer topography)
  • Sina Labbafi, Alireza Zahedi * Pages 137-148
    One of the important factors in growth of microalgae is the amount of salt needed to feed them. In this study, the culture medium for microalgae, Nannochloropsis Oculata, was prepared at different concentrations of salt and the growth of active microalgae was investigated with the help of state machine technology on every day. The maximum and minimum concentration of microalgae on the seventh of the breed were obtained286.23 × 104 ± 0.38 × 105 cells per ml at 30 mg per liter and a minimum salinity of 100 mg per liter with the density treatments density 168.58 × 104 ± 0.48 × 105 cells per ml, respectively. In the growth system analysis, the simple linear regression algorithm (with the lowest error), linear regression, Multilayer Perceptron algorithms (MLP) and Gaussian process (with the greatest errors) with a resolution of 0.9095, 0.9039, 0.8623 and 0.7335 was achieved. Among the results, minimal error, 54.32, was belong to linear regression algorithm simple and the greatest error, 70.79, was related to MLP algorithm. In the assessment section by Artificial Neural Network (ANN) with a different number of neurons (4 to 20) was also studied. According to the evaluation data, it was concluded that image processing techniques to estimate the growth of Nannochloropsis at different salty levels were generally successful
    Keywords: Microalgae, Nannochloropsis oculata, Salty concentration, Machine Vision, Neural Network
  • Samira Danaee, Abdolhossein Fathi * Pages 149-159
    Retina-based identification system is a stable and reliable biometric system that does not have problems like oblivion, being exposed, lost, and forgery. In this paper, a new method with high precision performance is presented which, unlike other retina-based methods, is resistant to rotation and displacement of the vessels. The system consists of three main stages of pre-processing, extraction of features and matching of features. Extraction of vessels is carried out using mixed continuous wavelet transform method. At the extraction stage, using local pattern detection operator, the characteristic of the special points of the vessels, such as the number of branches, the smallest angle and the type of points (branch and intersection), is identified. In the matching of features step, the number of special matching points and the degree of similarity of the topology of the graph resulting from the connection of the feature points of the input image and the reference image are calculated and ultimately the identity of the individual will be detected. The proposed method has been implemented on the DRIVE, VARIA, DIARET and STARE databases, which it’s accuracy was100% , 99.81%, 99.7% and 100% respectively.
    Keywords: biometric, Identification, Retina-based identification, graph topology