فهرست مطالب

نشریه پژوهش های نظری و کاربردی هوش ماشینی
پیاپی 1 (بهار و تابستان 1402)

  • تاریخ انتشار: 1401/10/01
  • تعداد عناوین: 12
|
  • امین هاشمی، محمدباقر دولتشاهی* صفحات 1-13

    الگوریتم های یادگیری چندبرچسبی به دلیل حجم و ابعاد بالای داده های چندبرچسبی و همچنین وجود نویز در آنها، با چالش های فراوانی مواجه هستند. انتخاب ویژگی یک تکنیک موثر برای برطرف کردن این چالش ها است. در این مقاله یک روش انتخاب ویژگی مبتنی بر یک رویکرد شورایی برای داده های چندبرچسبی ارایه شده است. در روش پیشنهادی، سه ماتریس تصمیم مختلف بر اساس معیار های ارزیابی ویژگی مختلف با درنظرگرفتن همگرایی ویژگی ها با برچسب های کلاس و همچنین افزونگی ویژگی ها نسبت به هم در فرایند انتخاب ویژگی موثر هستند. این سه ماتریس تصمیم در نهایت بر اساس یک رویکرد شورایی مبتنی بر مفهوم انتگرال فازی با هم ترکیب می شوند تا ارزیابی ویژگی ها بر اساس مقدار تجمیع شده صورت گیرد. برای ارزیابی عملکرد الگوریتم پیشنهادی، مقایساتی با چندین الگوریتم مشابه بر روی چند مجموعه داده مختلف صورت گرفته است. نتایج به دست آمده از آزمایش ها انجام شده، نشان دهنده عملکرد مناسب الگوریتم پیشنهادی در مقایسه با سایر الگوریتم ها است.

    کلیدواژگان: انتخاب ویژگی، یادگیری چندبرچسبی، انتگرال فازی، رویکرد شورایی
  • حمید حسن پور*، سید ابراهیم حسینی صفحات 14-21

    در بکارگیری سیستم های شناسایی چهره روش های مختلف تقلب نظیر استفاده از ماسک پوششی و بکارگیری عکس شخص معتبر دو مشکل اساسی هستند که کاربردهای آن ها را محدود می کنند. براساس بررسی های انجام شده روش-هایی برای تشخیص تقلب در شناسایی چهره معرفی شده اند که بعضا مداخله کننده هستند، یعنی شخص را وادار به انجام حرکتی می کنند تا بتوانند چهره واقعی را از تقلبی تمییز دهند. استفاده از روش های مداخله کننده اغلب نارضایتی کاربران را به همراه دارد. در این مقاله با ارایه روشی غیرمداخله کننده و براساس ویژگی هایی مانند انعکاس نور یا وجود نویز متناوب اقدام به شناسایی تصاویر واقعی از تقلبی می کنیم. در این روش ابتدا با بهره گیری از الگوی دودویی محلی لبه ها و بافت تصویر برجسته می شوند. سپس جهت طبقه بندی تصاویر واقعی و غیرواقعی، ویژگی های تصویر توسط مدل یادگیری عمیق متشکل از سه لایه پیچش استخراج می شوند. نتایج نشان دهنده مقاومت روش پیشنهادی در برابر پوشش چشم است. به منظور ارزیابی روش پیشنهادی مجموعه داده CASIA در این تحقیق مورد استفاده قرار گرفته است. نتایج حاکی از دقت 98 درصدی روش پیشنهادی در این مجموعه داده است که در مقایسه با روش های موجود دقت بالاتری دارد.

    کلیدواژگان: شناسایی چهره، کشف تقلب، یادگیری عمیق، الگوی دودویی محلی، نویز متناوب
  • فریبا تقی نژاد، محمد قاسم زاده* صفحات 23-33

    برچسب گذاری اجزای واژگانی کلام موضوع تحقیقاتی مهمی در حوزه ی پردازش زبان طبیعی است و پایه ی بسیاری از دیگر مباحث مطرح در این حوزه است. در این مقاله یک روش نوین برچسب گذاری اجزای واژگانی کلام به کمک شبکه های عصبی عمیق معرفی می گردد. هدف اصلی مدل پیشنهادی، استخراج چسب های عمیق و سطح بالا از متون و سپس طبقه بندی این ویژگی های سطح بالا می باشد. روش پیشنهادی متکی بر این ایده است که از شبکه ای عصبی عمیق کوچک می توان برای یافتن ویژگی های عمیق و تولید خروجی مطلوب بهره برد. روش موردنظر با استفاده از کتابخانه های تخصصی Tensorflow و Keras API در پایتون پیاده سازی و عملکرد آن بر روی مجموعه های داده استاندارد coNLL2000 ارزیابی گردید. نتایج آزمایش حاکی از آن است که روش پیشنهادی قابلیت استخراج ویژگی های سطح بالای واژگان زبان طبیعی را داشته و قادر است به ازای برچسب های پرتکرار و پرکاربرد به دقت قابل توجهی برسد. میانگین دقت مدل پیشنهادی به ازای برچسب های مختلف برابر 80.26% بوده است. بعلاوه، این روش قابلیت استفاده در محیط های متنوع و بر روی دستگاه های مختلف را نیز دارد.

    کلیدواژگان: برچسب گذاری، اجزای واژگانی کلام، پردازش زبان طبیعی، شبکه های عصبی عمیق، شبکه های عصبی کانولوشن
  • مریم الله یاری، فاطمه جمشیدی* صفحات 34-45

    اسکیزوفرنی یک ناهنجاری در مغز است که در آن افراد واقعیت را غیر طبیعی تفسیر می کنند. این اختلال روانی با علایم رفتاری مانند توهم و بی نظمی گفتار مشخص می شود. سیگنال الکتروانسفالوگرام (EEG) اختلالات مغزی را نشان می دهد و به طور گسترده برای مطالعه بیماری های مغزی استفاده می شود. هدف این مقاله تشخیص خودکار اسکیزوفرنی از روی سیگنال EEG است. روش متداول در پژوهش ها، استخراج دستی ویژگی ها از سیگنال EEG است. از آنجا که الگوریتم های یادگیری عمیق توانایی استخراج خودکار ویژگی های مهم و طبقه بندی آنها را دارند، در این پژوهش به منظور استخراج ویژگی های مفیدتر، سیگنال EEG به یک شبکه عصبی عمیق بازگشتی کانولوشنی یازده لایه اعمال شده است. سیگنال های EEG جمع آوری شده در انیستیتو ورشو از 14 فرد سالم و 14 بیمار اسکیزوفرنی، در اینجا مطالعه شده است. مقدار میانگین معیارهای ارزیابی درستی مدل شامل Accuracy، Sensitivity، Specificity و PPV برای مدل پیشنهادی به ترتیب برابر 98.79%، .98.73%، 98.86%و 99.06% به دست آمد که بهبود عملکرد مدل پیشنهادی برای طبقه بندی بیماران اسکیزوفرنی و افراد سالم را در مقایسه با مدل های قبلی تایید می کند. مدل ارایه شده می تواند به عنوان یک ابزار تشخیصی به پزشکان برای تشخیص مراحل اولیه اسکیزوفرنی کمک کند

    کلیدواژگان: اسکیزوفرنی، الکتروانسفالوگرام، شبکه های عصبی عمیق، یادگیری عمیق
  • فاطمه سعادت جو*، سهیل اقبالی، علیرضا پورسلیمان صفحات 46-59
    از آنجا که تمام ویژگی های داده ها برای یافتن دانشی که در داده ها نهفته است مهم و حیاتی نیستند؛ کاهش ابعاد داده یکی از مباحث بااهمیت است. ازاین رو در این مقاله روشی جدید با استفاده از الگوریتم سینوس کسینوس با رویکرد بهینه سازی چندگانه در حوزه انتخاب ویژگی ارایه می شود. روش پیشنهادی در مدل انتخاب ویژگی رپر ارایه شده است و دو مرحله دارد که شامل مرحله انتخاب ویژگی با استفاده از الگوریتم سینوس کسینوس چندگانه و مرحله طبقه بندی جواب های ممکن در الگوریتم سینوس کسینوس با روش نزدیک ترین همسایه توسعه یافته، است. روش پیشنهادی بر روی مجموعه داده استاندارد UCI در مجموعه داده هایی با ابعاد مختلف آزمایش شده است.مقایسه روش پیشنهادی با روش های بهینه سازی چندگانه و تک گانه، نشان می دهد که این روش نسبت به روش های بهینه سازی تک گانه، دارای کارایی بالاتری بوده (یعنی با دقت بیشتری به مجموعه ویژگی بهینه می رسیم) و نسبت به روش های بهینه سازی چندگانه نیز با اختلاف کمی، نتایج بهتری در انتخاب بهترین مجموعه ویژگی به صورت چندگانه را داشته است.
    کلیدواژگان: الگوریتم سینوس کسینوس، انتخاب ویژگی، بهینه سازی چندگانه، انتخاب ویژگی رپر
  • سولماز عباسی، مهدی رضاییان* صفحات 60-72

    در سال های اخیر، ردیابی شی در محیط های مختلف با اشیا متنوع، اهمیت قابل توجهی یافته است. یک ویژگی بسیار مهم، ردیابی سریع، بدون نیاز به سخت افزار خاص و پیش آموزش است. ردیاب های مبتنی بر فیلتر همبستگی متمایزکننده، نتایج مثبتی را از نظر سرعت و دقت ارایه داده اند. اگرچه در بسیاری از این ردیاب ها، موقعیت شی در هر فریم بر اساس انتقال و مقیاس های هرمی تخمین زده می شود، در الگوریتم تبدیل شباهت، انتقال، مقیاس و چرخش برای یافتن موقعیت شی برآورد می شوند. در این الگوریتم، ویژگی هیستوگرام گرادیا ن های جهت دار استخراج شده است. در مقاله ی پیش رو، دو رویکرد متفاوت جهت استخراج ویژگی در این الگوریتم اتخاذ شده است. روش اول از تصاویر مقیاس بندی شده با استفاده از محدود سازی حداقل واریانس استفاده می کند. سپس با روش تغییر مقیاس در ماتریس های هم رخداد، ویژگی ها به سطح دیگری نگاشت می شوند. رویکرد دوم، ترکیبی از ویژگی های الگوی دودویی محلی رنگی متضاد و ویژگی مقاوم تسریع یافته ارایه می دهد. مجموعه داده ی مورد ارزیابی OTB-2015 شامل 100 دنباله ی ویدیویی است. هر دو رویکرد، نتایج کلی مقاله ی پایه را تا حدود 3 درصد بهبود داده اند. روش اول در چالش رزولوشن پایین تا 7 درصد و روش دوم در چالش چرخش تا 4 درصد، نتایج را افزایش داده اند.

    کلیدواژگان: ردیابی خودکار شی، تبدیل شباهت، محدود سازی حداقل واریانس، الگویی دودویی محلی رنگی متضاد، ویژگی مقاوم تسریع یافته
  • راضیه شیخ پور* صفحات 73-87
    در برخی از کاربردهای دنیای واقعی، داده هایی با ابعاد بالا وجود دارند که چالش های محاسباتی زیادی را ایجاد کرده اند. یکی از تکنیک های موثر برای کاهش ابعاد داده ها، انتخاب ویژگی است که با انتخاب زیرمجموعه مناسبی از ویژگی ها باعث سادگی مدل و بهبود کارایی آن می شود. در بسیاری از این کاربردها، برچسب زدن داده ها امری زمان بر و پرهزینه است که باعث می شود داده های برچسب دار کمی وجود داشته باشند و حجم عظیمی از داده های بدون برچسب در دسترس باشند. در چنین کاربردهایی، روش های انتخاب ویژگی نیمه نظارتی می توانند با استفاده از اطلاعات برچسب داده های برچسب دار و اطلاعات توزیع و ساختار هندسی داده های برچسب دار و بدون برچسب، فرایند انتخاب ویژگی را انجام دهند. در اکثر روش های انتخاب ویژگی نیمه نظارتی، با ایجاد یک گراف همسایگی، ویژگی های مناسب از طریق بررسی توانایی آن ها در حفظ ساختار هندسی گراف ارزیابی می شوند. در روش های کلاسیک انتخاب ویژگی نیمه نظارتی مبتنی بر گراف، ویژگی ها به صورت جداگانه ارزیابی می شوند و همبستگی بین ویژگی ها در هنگام انتخاب ویژگی در نظر گرفته نمی شود. روش های انتخاب ویژگی تنک با در نظر گرفتن همبستگی بین ویژگی ها، ماتریس انتقال بهینه تنک برای انتخاب ویژگی را محاسبه می نمایند. در این مقاله با بررسی روش های یادگیری نیمه نظارتی، مروری بر روش های انتخاب ویژگی نیمه نظارتی تنک مبتنی بر گراف انجام می شود که با استفاده از عبارت تنظیم مبتنی بر مدل های تنک و با ایجاد گراف همسایگی، ویژگی های مناسب را انتخاب می کنند. این روش ها ضمن برطرف کردن مشکل روش های انتخاب ویژگی کلاسیک، با ایجاد یک گراف همسایگی از داده ها ماتریس انتقال بهینه تنک برای انتخاب ویژگی را محاسبه می نمایند.
    کلیدواژگان: انتخاب ویژگی نیمه نظارتی، یادگیری نیمه نظارتی، مدل های تنک، گراف، لاپلاسین گراف
  • محمد قدیریان، نوشین بیگدلی* صفحات 88-101
    خوشه بندی، ابزاری پرکاربرد جهت تحلیل اطلاعات شبکه های پیچیده ‏است که برای مدل سازی سامانه های پیچیده بکار می رود. پیمانگی ، ‏معیاری پایه و فراگیر جهت ارزیابی و صحت سنجی خوشه بندی شبکه ها ‏است که دارای چالش هایی چون ان پی-سخت بودن مسیله و عدم‎ ‎امکان ‏استفاده از دانش اولیه در خوشه بندی می باشد. لذا، خوشه بندی مبتنی بر ‏معیار پیمانگی، قابلیت تعمیم به خوشه بندی های نیمه نظارتی را ندارد. از ‏طرفی، یکی از روش های خوشه بندی نیمه نظارتی، روش خوشه بندی مبتنی ‏بر تجزیه نامنفی ماتریسی (‏NMF‏) می باشد. اما این روش، ویژگی های ‏خاص شبکه ها را در نظر نمی گیرد. در این مقاله، برای غلبه بر چالش های ‏نام برده و با ارایه ی اثباتی جدید، برای خوشه بندی مبتنی بر معیار پیمانگی، ‏ساختاری مشابه با خوشه بندی مبتنی بر تجزیه نامنفی ماتریسی نامتقارن ‏ارایه می شود که در آن، امکان بهره گیری از دانش اولیه و حل به روش ‏تکراری میسر می گردد. سپس، روش خوشه بندی نیمه نظارتی نوینی به نام ‏تجزیه نیمه نظارتی نامنفی ماتریس های متقارن مبتنی بر معیار پیمانگی ‏‏(‏SSNMF-Q‏) با بهره گیری از مزیت دانش اولیه و روش حل تکراری، ‏به جای حل مسیله ان پی-سخت ارایه می گردد. برای ارزیابی روش ‏پیشنهادی، از پنج مجموعه داده واقعی استفاده شده که نتایج، بیانگر عملکرد ‏بهتر‎ SSNMF-Qدر مقایسه با سایر خوشه بندی های نیمه نظارتی مبتنی بر ‏NMF‏ می باشد.‏
    کلیدواژگان: تجزیه نامنفی ماتریسی، گروه بندی گراف، گروه بندی نیمه نظارتی، معیار پیمانگی
  • محمد زینالی عظیم*، سعید علیخانی صفحات 102-108

    درختان، یکی از اساسی ترین کلاس ها در گراف ها هستند. آن ها نه تنها نقش کلیدی در نظریه گراف و ترکیبیات دارند، بلکه در بسیاری از زمینه های دیگر ریاضیات و همچنین در سایر علوم مانند زیست شناسی، شیمی و علوم کامپیوتر نیز ظاهر می شوند. در این مقاله به بررسی خلاصه کاربردهای درختان در شیمی، زیست شناسی و کامپیوتر می پردازیم. درختان، یکی از اساسی ترین کلاس ها در گراف ها هستند. آن ها نه تنها نقش کلیدی در نظریه گراف و ترکیبیات دارند، بلکه در بسیاری از زمینه های دیگر ریاضیات و همچنین در سایر علوم مانند زیست شناسی، شیمی و علوم کامپیوتر نیز ظاهر می شوند. در این مقاله به بررسی خلاصه کاربردهای درختان در شیمی، زیست شناسی و کامپیوتر می پردازیم. درختان، یکی از اساسی ترین کلاس ها در گراف ها هستند. آن ها نه تنها نقش کلیدی در نظریه گراف و ترکیبیات دارند، بلکه در بسیاری از زمینه های دیگر ریاضیات و همچنین در سایر علوم مانند زیست شناسی، شیمی و علوم کامپیوتر نیز ظاهر می شوند. در این مقاله به بررسی خلاصه کاربردهای درختان در شیمی، زیست شناسی و کامپیوتر می پردازیم.

    کلیدواژگان: درخت، گراف، الگوریتم، علوم کامپیوتر
  • نرجس چاوش، سیما عمادی* صفحات 108-115

    امروزه به دلیل وجود حجم انبوه نظرات منتشرشده توسط افراد در فضای مجازی، تحلیل احساسات نقش اساسی را در استخراج اطلاعات بازی می-کند. یکی از تکنیکهای نوین براساس مطالعات انجام شده به منظور تعیین دقیق تر قطبیت جمله در تحلیل احساسات مبتنی بر الگوریتم های یادگیری عمیق است. در این تحقیق به منظور تعیین قطبیت نظرات متنی از الگوریتم یادگیری عمیق LSTM و RNN استفاده شده است تا با بررسی و مقایسه این دو الگوریتم بتوان الگوریتم مناسب برای تحلیل احساسات را انتخاب نمود. همچنین در روش پیشنهادی برای تعیین روابط معنایی بین کلمات از روش تعبیه گذاری کلمات از پیش آموزش داده شده ی Wordtovec استفاده شد تا دقت روش پیشنهادی افزایش یابد. روش پیشنهادی بر روی دو مجموعه داده airline-tweet و IMDB ارزیابی شد. نتایج ارزیابی نشان می دهد که روش پیشنهادی بر روی مجموعه داده airline-tweet در صورت استفاده از تعبیه گذاری Wordtovec دقت 78/0 دارد. همچنین روش پیشنهادی بر روی مجموعه داده IMDB در صورت استفاده از تعبیه گذاری Wordtovec دقت 84/0 دارد.

    کلیدواژگان: تجزیه و تحلیل احساسات، یادگیری عمیق، RNN، LSTM، تعبیه گذاری کلمات
  • مهدی نوشیار*، علی فهمی جعفرقلخانلو، محمد قیامی، مجید رستمی مقدم صفحات 116-128
    بخش بندی چهره نقش خیلی مهمی در کاربردهای آنالیز چهره مانند شناسایی هویت، آنالیز حالات چهره، انیمیشن چهره و آنالیز بیماری های پوست چهره ایفا می کند. در این مقاله، یک روش جدید هیبریدی مبتنی بر بهینه سازی ازدحام ذرات کوانتومی (QPSO) و گرگ خاکستری (GWO) جهت بهینه کردن عمل کرد خوشه بند K-Means رایه می شود. در این مطالعه، دو الگوریتم با هم ترکیب شده و در روش پیشنهادی عمل کرد استخراج در الگوریتم QPSO با قابلیت اکتشاف در الگوریتم GWO بهبود داده می شود. اندازه گیری تشابه نقش اساسی در فرآیند خوشه بندی ایفا می کند. جهت اندازه گیری تشابه، 4 معیار فاصله ی اقلیدسی، مینکوفسکی، ماهالانوبیس و بلوک شهری در بهینه سازی الگوریتم K-Means به-کار گرفته شده است. روش پیشنهادی در مقایسه با سایر الگوریتم های فرا ابتکاری شامل الگوریتم ژنتیک (GA)، PSO، QPSO، GWO، بهینه سازی خفاش، جستجوی کلاغ عمل کرد بهتری در بخش بندی و سرعت همگرایی دارد. همچنین، نتایج نشان می دهند که فاصله ی مینکوفسکی عمل کرد بهتری در محاسبه ی تشابه داشته و بهینه سازی الگوریتم K-Means با فاصله ی مینکوفسکی نتیجه ی بهتری در بخش بندی دارد. براساس نتایج به دست آمده، ترکیب این دو الگوریتم رسیدن به جواب بهینه را تضمین کرده و از مسیله ی کمینه مکانی نیز جلوگیری می کند.
    کلیدواژگان: بخش بندی پوست چهره، بهینه سازی ازدحام ذرات کوانتومی، بهینه سازی گرگ خاکستری، تصاویر رنگی چهره
  • سید رضا سید نژاد فهیم*، فاطمه غلامی گلسفید صفحات 129-144

    شناسایی و حذف گلوگاه های توان عملیاتی، ابزاری کلیدی برای افزایش توان عملیاتی و بهره وری در سیستم های تولید است. با این حال، به دلیل پیچیدگی و پویای کارخانه، حذف گلوگاه های توان عملیاتی یک چالش بزرگ تلقی می شود. پژوهشگران سعی کرده اند ابزارهایی را برای کمک به شناسایی و حذف این گلوگاه ها توسعه دهند. از لحاظ تاریخی، تلاش های تحقیقاتی بر توسعه رویکردهای مدل سازی برای شناسایی گلوگاه ها در سیستم های تولید متمرکز شده اند. با این حال، با ظهور دیجیتالی سازی صنعتی و هوش مصنوعی، محققان راه های مختلفی را بررسی کردند که در آن ها می توان از هوش مصنوعی برای از بین بردن گلوگاه ها استفاده نمود. در این پژوهش نقش هوش مصنوعی در شناسایی و حذف گلوگاه ها بیان شده و تلاشهای صورت گرفته در زمینه گلوگاه های توان عملیاتی به چهار دسته (1) شناسایی، (2) تشخیص، (3) پیش بینی و (4) تجویز طبقه بندی می شوند. همچنین توصیه های عملی و جهت گیری پژوهش های آینده ارایه شده است که می تواند به بهبود استفاده عملی و نظری هوش مصنوعی در صنایع کمک نماید.

    کلیدواژگان: گلوگاه های توان عملیاتی، هوش مصنوعی، سیستم های تولیدی
|
  • Amin Hashemi, Mohammad Bagher Dowlatshahi* Pages 1-13

    Multi-label learning algorithms face many challenges due to the high volume and dimensions of multi-label data and the existence of noise. Feature selection methods are an effective technique for addressing these challenges. This paper presents a feature selection method based on an ensemble approach for multi-label data. In this approach, three different decision matrices based on various feature evaluation criteria, taking into account the relevancy of features with class labels and their redundancy relative to each other, are effective in the feature selection process. These three decision matrices are finally combined based on an ensemble approach using the concept of fuzzy integral to evaluate the features according to the aggregate value. Comparisons have been made with several similar algorithms to illustrate the performance of the proposed method.

    Keywords: Feature selection, Multi-label learning, Fuzzy integral, Ensemble approach
  • Hamid Hassanpour *, Seyed Ebrahim Hosseini Pages 14-21

    In the use of face recognition systems, various fraud, such as the use of a mask and a photo of a genuine person, are two major problems that limit their applications. Studies have shown a number of methods for detecting fraud in face recognition, which are sometimes intrusive, enforcing the person to make a move in order to distinguish the real face from the fake one. The use of intrusive methods often leads to user dissatisfaction. In this article, we present a non-intrusive method using features such as light reflection or the presence of periodic noise to distinguish real images from the fake one. In this method, the edges and texture of the image are highlighted by a local binary pattern to better detect fraud. Then, by extracting the image feature using a deep learning technique with three layers of convolution, it will be able to distinguish between real and fake face images. This method is resistant to covering the eyes and face. In order to evaluate the proposed method, the CASIA dataset was used in this research. The results show 98% accuracy of the proposed method on this dataset. Among the existing methods, we see an increase in accuracy.

    Keywords: face recognition, forgery detection, Deep learning, local binary pattern, periodic noise
  • Fariba Taghinezhad, Mohammad Ghasemzadeh * Pages 23-33

    Part of speech tagging is an important issue in natural language processing and is the base of many other major subjects in this field. In this article, a new method have been introduced for part of speech tagging using deep neural networks. The purpose of this method is solving problems that common other methods are facing with which are extract deep features from texts and classifying these features. The proposed method is based on that we can find deep features and product optimal output by using small deep neural networks. This method was implemented using Tensorflow's specialized libraries and Keras API in python and was evaluated on coNLL2000 standard dataset. The experimental results show that the proposed method is capable to extract high level features from natural language's words and is able to achieve considerable accuracy for repetitive tags. In addition, this method is able to be used in variant environments and on different devices.

    Keywords: part of speech tagging, natural language processing, Deep neural networks, convolution neural networks
  • Maryam Alahyari, Fatemeh Jamshidi * Pages 34-45

    Schizophrenia is a disorder of the brain in which people misinterpret reality. This mental disorder is characterized by behavioral symptoms such as hallucinations and speech disorders. Electroencephalogram (EEG) signal indicates brain disorders and is widely used to study brain diseases. The aim of this article is to automatically detect schizophrenia based on the EEG signal. A common method in research is the manual extraction of features from the EEG signal. Because deep learning algorithms have the ability to automatically extract important features and classify them, in this study, in order to extract more useful features, the EEG signal was applied to an eleven-layer convolutional deep recursive neural network. The EEG signals collected at the Warsaw Institute from 14 healthy individuals and 14 patients with schizophrenia are studied here. The mean values of the accuracy evaluation criteria of the model including Accuracy, Sensitivity, Specificity and PPV for the proposed model were 98.79%, 98.73%, 98.86% and 99.06%, respectively, which improved the performance of the proposed model for classifying schizophrenic patients and approves healthy people compared to previous models. The proposed model can be used as a diagnostic tool to help physicians diagnose the early stages of schizophrenia.

    Keywords: Schizophrenia, Electroencephalogram, Deep neural networks, Deep learning
  • Pages 46-59
    One of the problems with high-dimensional data is choosing the best features, because all the features of the data to find the knowledge that the data lies are not important and vital. For this reason, reducing the size of the data is one of the important issues. Hence in This research has tried a new method using sine cosine algorithm with multiple optimization approach in the Feature selection field. In fact, the innovation of this research is in providing a way to obtain the whole set of appropriate features, which for the first-time sine cosine algorithm has been improved.The proposed method is presented in the wrapper feature selection model and has two steps, which include the feature selection step using the multimodal sine cosine algorithm and the classification step of possible solutions obtained from sine cosine algorithm by the extended nearest neighbor classification method.The proposed method was tested on data sets from uci with different dimensions. The results of the proposed method along with the results of other methods including multimodal optimization and single optimizations are compared and it is observed that the proposed method compared to the single optimization methods, has higher efficiency and compared to multimodal optimization methods, it had better result with a slight difference.In general, the proposed method has been able to reduce the number of features by more than 5% compared to other methods and the average accuracy of the classification compared to the best results of other methods has improved by an average of 2%.
    Keywords: Sin Cosine Algorithm, Feature selection, Multimodal Optimization, Wrapper Method
  • Solmaz Abbasi, Mehdi Rezaeian* Pages 60-72

    Visual object tracking in arbitrary environments with arbitrary objects has gained considerable importance in recent years. A very significant feature, which makes a tracker useful, is real time tracking without needing GPU and pre-train algorithms. In the recent decade, the trackers, which function on the basis of discriminative correlation filters, have promised positive results in terms of both speed and accuracy. Although, in most of such methods, the estimation of the position of the object in each frame is computed based on transformation and pyramid scales, in Large Displacement Estimation of Similarity transformation algorithm, translation, scale and rotation are estimated in each frame. In this paper, the Histogram of Oriented Gradient is considered as feature extraction. Here, we adopt two different approaches. The first approach uses scaled images as a feature matrix by applying minimum variance quantization. The second approach, uses a combination of opposite color local binary patterns and Speeded-Up Robust Features. By using these two methods, we are able to extract helpful and fast features, and therefore improve the results of tracking against challenging attributes. The OTB-2015 dataset is utilized for evaluating tracker. The results show precision of trackers improve 3%. Additionally, the first tracker increase the result about 7% against low resolution and the second one can be helpful about 4% in facing rotation challenge.

    Keywords: Visual Object Tracking, Similarity Transformation, Minimum Variance Quantization, Opposite Color Local Binary Patterns, Speeded-Up Robust Features
  • Pages 73-87
    In some real-world applications, there is high-dimensional data which has led to many computational challenges. Feature selection is an effective technique for data dimensionality reduction, which simplifies the model and improves its performance by selecting the appropriate subset of features. In many of these applications, labeling of data is costly and time consuming, leaving little labeled data available and large amounts of unlabeled data available. In such applications, semi-supervised feature selection methods perform the feature selection process using the information of labeled data, and the distribution and geometric structure of labeled and unlabeled data. In most semi-supervised feature selection methods, a neighborhood graph is created and the importance of features is evaluated via their ability to maintain the geometric structure of the graph. In classical graph-based semi-supervised feature selection methods, the features are evaluated one by one and the correlation between features is not considered in feature selection process. To overcome this problem, sparse feature selection methods have been presented which consider the correlation between features, and calculate the optimal sparse transformation matrix for feature selection. In this paper, we investigate the semi-supervised learning methods, and review the graph-based semi- supervised sparse feature selection methods which select the appropriate features using the graph created by the labeled and unlabeled data, and the sparse regularization term. These methods solve the problem of classical semi-supervised methods by considering the correlation between features, create a neighborhood graph using the labeled and unlabeled data, calculate the graph Laplacian matrix, and compute the optimal sparse transformation matrix for feature selection.
    Keywords: Semi-supervised feature selection, Semi-supervised learning, Sparse models, Graph Laplacian
  • Mohammad Ghadirian, Nooshin Bigdeli * Pages 88-101
    Clustering or community detection is a powerfrul tool for ‎analayzing complex networks which is widely used for ‎modeling complex systems. Modularity is a ‎comprehensive criterion for evaluating the quality of ‎clusters (or communities). However, it has some ‎limitations and challenges such as being a NP-hard ‎problem and not using prior information. So, Modularity-‎based community detection cannot be extended as a ‎semi-supervised community detection method. On the ‎other hand, one of the most common semi-supervised ‎methods which can use prior knowledge for clustering is ‎community detection based on non negative matrix ‎factorization (NMF). But, this method is not able to ‎consider the features of the networks. Therefore, in this ‎paper to overcome the mentioned limitations and ‎challenges and by presenting a new proof, a structure ‎similar to community detection based on NMF is ‎presented for modularity-based community detection ‎which can employ prior knowledge and iterative ‎solution. Therefore, a novel semi-supervised community ‎detection based on modularity (SSNMF-Q) criteria is ‎developed by utilizing prior information and iterative ‎solution instead of solving a NP-hard problem. To ‎evaluate SSNMF-Q, five real world networks are used ‎and it is shown that the SSNMF-Q had better ‎performance compared to other semi-supervised ‎community detection methods based on NMF.‎
    Keywords: Non-negative matrix factorization, community detection, semi-supervised clustering, modularity criterion
  • Mohammad Zeynali Azim* Saeid Alikhani Pages 102-108

    Trees are one of the most basic classes in graphs. They not only play a key role in the theory of graphs and combinatorics, but also in many other fields of mathematics, as well as in other sciences such as biology, chemistry, and computer science. In this article, we review the applications of trees in chemistry, biology, and computers.

    Keywords: Tree, Chemistry, Computer, Decision
  • Narjes Chavosh, Sima Emadi* Pages 108-115

    Today, due to the large volume of opinions published by people in cyberspace, sentiment analysis plays a key role in extracting information. One of the new techniques based on studies has been done to determine the exact polarity of the sentence in sentiment analysis is deep learning algorithms. In this research, two deep learning algorithms, namely RNN and LSTM, has been used to determine sentence polarity in order to achieve more accurate results. Moreover, in the proposed technique, pre-trained word embedding algorithm, namely Wordtovec, was used to determine the semantic relationships between words to increase the accuracy of the proposed method. The proposed method was evaluated on two data sets; airline-tweet and IMDB. The evaluation results show that on the airline-tweet dataset, the proposed method has an accuracy of 0.78 and accuracy of 0.84 on the IMDB data set.

    Keywords: Sentiment Analysis, Deep learning, RNN, LSTM, Word Embedding, Word2vec
  • Pages 116-128
    Facial skin segmentation plays an important role in applications such as identification, facial expression analysis, facial animation, and skin disease analysis. Clustering is one of the most common methods for image segmentation. In this paper, a new hybrid method based on Quantum Particle Swarm Optimization and Grey Wolf Optimization is presented to optimize the performance of the K-Means clustering. By Combination of two algorithms, the exploitation performance of the QPSO algorithm is improved by the exploration capability of the GWO algorithm. To measure the similarity, four distance criteria including Euclidean, Minkowski,  Mahalanobis, and City-Block distances have been used to optimize the K-Means algorithm. The proposed method has a better performance in segmentation and convergence speed compared to other meta-heuristic algorithms such as Genetic Algorithm, GWO, PSO, QPSO, Bat Optimization, Crow Search Algorithm. The experimental results show that Minkowski distance has a better performance in calculating similarity and optimization of K-Means algorithm. Based on the obtained results, the proposed method ensures the achievement of the optimal solution and prevents the problem from falling to a local minimum.
    Keywords: Distance Criterion Types, Facial Skin Segmentation, Quantum Particle Swarm Optimization, Gray Wolf Optimization, Facial Color Image
  • Seyed Reza Seyed Nezhad Fahim *, Fatemeh Gholami Gelsefid Pages 129-144

    Identifying and eliminating throughput bottlenecks is a key tool to increase throughput and productivity in production systems. However, due to the complexity and dynamics of factory, eliminating throughput bottlenecks is considered a major challenge. Researchers have tried to develop tools to help identify and eliminate these bottlenecks. Historically, research efforts have focused on developing modeling approaches to identify bottlenecks in manufacturing systems. However, with the advent of industrial digitization and artificial intelligence, researchers have explored various ways in which artificial intelligence can be used to eliminate bottlenecks. In this research, the role of artificial intelligence in identifying and eliminating bottlenecks is stated and the efforts made in the field of operational throughput bottlenecks are classified into four categories: (1) identify, (2) diagnose, (3) predict and (4) prescribe. Also, practical recommendations and future research topics have been provided, which can help to improve the practi c a l a n d t h e o r e t i c a l u s e o f a r t i f i c i a l i n t e l l i g e n c e i n i n d u s t r i e s .

    Keywords: Throughput Bottlenecks, Artificial intelligence, Manufacturing Systems