فهرست مطالب

  • سال پانزدهم شماره 2 (پیاپی 36، 1397)
  • تاریخ انتشار: 1397/06/31
  • تعداد عناوین: 10
|
  • حسام عمرانپور*، فهیمه آزادیان صفحات 3-16
    در این پژوهش، یک روش بهینه سازی پیش بینی فازی جدید مبتنی بر سری های زمانی فازی مرتبه بالا ارائه می شود که درآن از تابع بهینه سازی ازدحام ذرات برای بهینه کردن الگوریتم محاسبه ویژگی استفاده شده است. هدف روش پیشنهادی، پیش بینی سری زمانی فازی مرتبه بالا است و عملکرد بهتری را برای رفع مشکلات پیش بینی سری های زمانی فازی مرتبه بالا، ارائه می دهد؛ بدین منظور روش این پژوهش بدین صورت است که پس از فازی سازی سری زمانی و ایجاد روابط منطقی فازی، با استفاده از حد پایین بازه عنصر مورد پیش بینی و بازه پس از آن و اختلاف حاصل از عناصر متوالی، محاسبات خاصی را انجام داده و مجموعه ای از ویژگی ها به دست می آید؛ سپس با استفاده از تابع بهینه سازی ازدحام ذرات بهترین پارامترها انتخاب می شود. در همین راستا تابع شایستگی در روش پیشنهادی دو بخش دارد: یک بخش به صورت کلی (میانگین تمام مرتبه ها) و یک بخش به صورت جزئی (تک تک ستون مرتبه ها) است. یافته ها و نتایج تجربی حاکی از این است که: ویژگی های به دست آمده توسط روش پیشنهادی، داده های پرت و زائد کمتری دارد که این خود سبب پیش بینی نزدیک تر، با خطای کمتر می شود و در نهایت غیرفازی انجام می شود. عدد حاصل، مقدار صحیح پیش بینی شده عنصر مورد نظر است. روش پیشنهادی با استفاده از داده های سری زمانی ثبت نام دانشگاه آلاباما که شامل تعداد ثبت نام سالانه در این دانشگاه - از سال 1971 تا سال 1992 میلادی- انجام شده و با سایر روش ها، توسط میانگین مجذور خطا و میانگین خطا، برای تعیین نرخ دقت پیش بینی، مورد مقایسه قرار گرفت؛ به گونه ای که در مقایسه با سایر روش ها، شاهد خطای کمتری بودیم.
    کلیدواژگان: پیش بینی، سری زمانی، بهینه سازی، منطق فازی، سری زمانی فازی مرتبه بالا، فازی سازی، غیرفازی سازی
  • حجت باقرزاده، احد هراتی*، زهرا امیری، رجبعلی کامیابی گل صفحات 17-30
    از روش های معمول در بهره برداری از نظام مندی ها و ویژگی های هندسی در سیگنال های چندبعدی می توان به استفاده از اتساع ناهمسان گرد [1] و مقیاس بندی سهموی [2] اشاره کرد که اساس تبدیلاتی همانند قیچک [3] و پیچک [4] را شکل می دهند. در چنین تبدیل هایی تحلیل کاملی از سیگنال ورودی صورت می پذیرد که با رشد تعداد ابعاد [5] داده، افزونگی آن به صورت نمایی زیاد شده و امکان پیاده سازی و استفاده عملی از آن ها را به شدت محدود می کند. در مقابل تبدیل های جدایی پذیر هر بعد داده ورودی را جداگانه مورد پردازش قرار می دهند که منجر به نادیده گرفته شدن نظام مندی های چندبعدی آن خواهد شد. با توجه به برتری نسبی تبدیل قیچک در مواجهه با داده های گسسته و برای چیره شدن بر مشکلات پیچیدگی زمانی و افزونگی [6] تبدیل قیچک کلاسیک در تحلیل داده های چندبعدی، در این مقاله ویرایش جدیدی از تبدیل قیچک گسسته با قابلیت کنترل افزونگی ارائه می شود. به بیان دیگر با رویکرد جدید، به دنبال امکان برقراری مصالحه بهتر بین افزونگی و پیچیدگی زمانی تبدیل از یک سو با میزان کامل بودن تحلیل و بهره برداری آن از نظام مندی های ورودی از سوی دیگر هستیم. در این راستا ماتریس اتساع به صورت قطری قطعه ای کاهش داده می شود که به معنای عملکرد مستقل تحلیل حاصل در زیرفضاهای متناظر با قطعه های مجزا خواهد بود. بدین ترتیب، شیوه تجزیه ماتریس اتساع به زیرقطعه ها، ابزار کنترلی مناسبی برای میزان افزونگی و پیچیدگی محاسباتی تبدیل حاصل به دست می دهد. به عنوان یک نمونه از کاربرد عملی رویکرد پیشنهادی، در این مقاله روشی برای رفع نوفه [7] ویدئو با استفاده از تبدیل قیچک قطعه ای ارائه شده و با تبدیل قیچک کلاسیک دو و سه بعدی مقایسه می شود. نتایج حاکی از آن است که رویکرد پیشنهادی با مصرف جزئی از زمان و حافظه تبدیل سه بعدی افزایش کیفیت قابل توجهی نسبت به تبدیل دوبعدی می تواند ارائه کند.
    کلیدواژگان: ماتریس اتساع ناهمسانگرد، تبدیل پیچک، تبدیل قیچک چندبعدی، ماتریس اتساع قطری قطعه ای، رفع نویز ویدئو
  • عیسی حضرتی، نگین دانشپور * صفحات 31-44
    امروزه تصمیم گیری سریع، اهمیت زیادی در محیط کسب و کار دارد. بنابراین مدیران سعی دارند تا از داده های موجود در پایگاه داده تحلیلی برای پیش بینی و تصمیم گیری درست استفاده کنند. برای داشتن داده های مناسب، باید تغییرات ایجاد شده در منابع، با کم ترین تاخیر در پایگاه داده تحلیلی اعمال شوند. برای رسیدن به این هدف، الگوریتم های متعددی ارایه شده است که از آن جمله به الگوریتم X-HYBRIDJOIN می توان اشاره کرد. در این الگوریتم برای انتخاب پارتیشنی از لوح سخت که در حافظه اصلی بارگزاری می شود از روش مناسبی استفاده نشده است. در این مقاله الگوریتم جدیدی ارائه می شود که در آن تغییراتی در نحوه انتخاب پارتیشن یادشده، ایجاد شده است. بدین صورت که برای هر پارتیشنی از R که بر روی لوح سخت قرار دارد، تعداد رکوردهای موجود از آن پارتیشن در حافظه اصلی، شمارش شده و در آرایه ای ثبت می‎شود. با استفاده از آرایه به دست آمده، هر بار پارتیشنی را می توان انتخاب کرد که شامل بیشترین رکورد برای پیوست است. برای شمارش تعداد رکوردهای هر پارتیشن، در هنگام ورود جریان داده، بررسی می شود که جریان داده ورودی مربوط به کدام پارتیشن است. نتایج حاصل از اجرای الگوریتم جدید نشان می دهد که زمان پیوست و فضای مصرفی کاهش یافته است.
    کلیدواژگان: پایگاه داده تحلیلی نیمه آنی، پیوست، جریان داده، تصمیم گیری
  • عباس کریمی*، لیلا سادات حسینی صفحات 45-54
    سرطان ها گروهی از بیماری ها هستند که به صورت رشد بی رویه و خارج از کنترل تعدادی از سلول ها، ایجاد می شوند و حدود دویست نوع مختلف دارند. سرطان لوسمی (خون) یکی از انواع این سرطان هاست. تشخیص سرطان خون در بیمارستان ها و مراکز درمانی با تهیه لام از بافت خون و قراردادن زیر میکروسکوپ و توسط یک متخصص پاتولوژی صورت می گیرد. پاتولوژیست ها با توجه به شکل و تعداد گلبول های موجود در خون نوع بیماری را مشخص می کنند. هدف از این مقاله ارائه مدلی هوشمند با استفاده از الگوریتم FCM [1] به منظور خوشه بندی و شبکه عصبی برای انتخاب ویژگی هاست؛ همچنین در آن از الگوریتم ژنتیک در مرحله بهبود الگوهای تشخیصی استفاده شده است. با استفاده از این مدل به تشخیص زود هنگام سرطان لوسمی حاد لنفوبلاست و سپس دسته بندی ALL [2] به سه زیر شاخه مورفولوژیکی (L1، L2 وL3) می توان اقدام کرد. در این پژوهش نمونه هایی از 38 بیمار سرطانی لوسمی حاد لنفوییدی تهیه شد. این مطالعه بر روی 68 تصویر میکروسکوپی و با در نظر گرفتن پانزده ویژگی هندسی و آماری انجام شد که نتیجه آن حاکی از حساسیت، ویژگی و دقت بالاتر برای ده ویژگی نسبت به سایر ویژگی ها بود. بر اساس ویژگی های استخراج شده، این روش با سه روش مشابه اخیر مقایسه شد. ارزیابی ها نشان داد که روش پیشنهادی به طور میانگین پارامترهای حساسیت، ویژگی و دقت را به میزان 15/85%، 17/98% و 53/96% به دست آورد. 1 Fuzzy C-means Clustering
    2 Acute Lymphoblastic Leukemia
    کلیدواژگان: سرطان خون، الگوریتم FCM، شبکه عصبی، الگوریتم ژنتیک، خوشه بندی
  • علی قنبری سرخی*، منصور فاتح، حمید حسن پور صفحات 55-68
    با پیشرفت روزافزون اینترنت و رسانه های تحت وب، توزیع و اشتراک منابع اطلاعاتی نظیر تصویر در حال افزایش است. اشتراک این منابع علاوه بر مزایای بسیار، خطرات و مشکلاتی نظیر دسترسی به تصاویر نامتعارف دارد که به نوبه خود تهدیدی برای فرهنگ جوامع مختلف، به خصوص نوجوانان و جوانان است. امروزه بسیاری از افراد، عضو سایت های اجتماعی از جمله اینستاگرام و فیسبوک هستند. به دلیل عدم وجود فیلترینگ هوشمند مناسب، حتی وجود درصدی اندک از تصاویر نامتعارف، فیلتر شدن کلی سایت های اجتماعی را به همراه دارد که برای کاربران، احساس نارضایتی را به ارمغان می آورد. به همین منظور، در این مقاله به تحلیل و بررسی روشی برای دسته بندی تصاویر نامتعارف و فیلترینگ هوشمند آن ها پرداخته شده است. یکی از مشکلات این نوع از سامانه ها، حجم بالای داده های موجود در شبکه های تحت وب و استخراج ویژگی های معنادار در این حجم از داده ها است. در این راستا، در این مقاله روشی جدید، بر پایه شبکه های عصبی عمیق به منظور تشخیص هوشمند تصاویر نامتعارف ارائه شده است. این نوع از شبکه ها ، مفاهیم سطح بالا را از روی ویژگی های سطح پایین استخراج می کنند و با این استخراج مفاهیم، به دقت مناسبی در دسته بندی اطلاعات دست می‎یابند. در این پژوهش، معماری جدیدی برای شناسایی تصاویر نامتعارف پیشنهاد شده است. نتایج به دست آمده بر روی مجموعه داده به نسبت بزرگ آزمایش شده است. این آزمایش ها نشان می‎دهد که روش پیشنهادی دو درصد دقت بیشتری نسبت به روش های جدید مطرح شده در شناسایی تصاویر نامتعارف دارد.
    کلیدواژگان: فیلترینگ هوشمند، تصاویر نامتعارف، شبکه عصبی عمیق، شبکه عصبی کانولوشن
  • مینا محمدی دشتی، مجید هارونی * صفحات 69-88
    در این مقاله، آشکارسازی حالات لبخند و خنده چهره با رویکرد توصیف و کاهش بعد نقاط کلیدی ارائه شده است. اساس کار در این پژوهش بر مبنای دو هدف استخراج نقاط محلی کلیدی و ویژگی ظاهری آن‎ها، و همچنین کاهش وابستگی سامانه به آموزش نهاده شده است. برای تحقق این اهداف سه سناریوی مختلف استخراج ویژگی ارائه شده است. ابتدا اجزای یک صورت توسط الگوریتم الگوی دودویی محلی آشکار می شود؛ سپس در سناریوی نخست، با توجه به تغییرات همبستگی پیکسل های مجاور بافت محدوده لب، مجموعه نقاط کلیدی محلی بر پایه گوشه یاب هریس استخراج می شود. در سناریوی دوم، کاهش بعد نقاط مستخرج سناریوی نخست با بهبود الگوریتم تحلیل مؤلفه های اصلی انجام می شود؛ و در سناریوی آخر با مقایسه مختصات نقاط مستخرج از سناریوی نخست و توصیف گر بریسک مجموعه نقاط بحرانی استخراج می شود. در ادامه بدون آموزش سامانه، با مقایسه شکل و فاصله هندسی نقاط محلی محدوده لب حالات چهره آشکار می شود. برای ارزیابی روش پیشنهادی، از پایگاه داده های استاندارد و شناخته شده Cohn-Kaonde،CAFE، JAFFE و Yale استفاده شده است. نتایج به دست آمده از سناریوهای مختلف به ترتیب بیان گر بهبود 33/6 و 46/16 درصدی متوسط نرخ دقت بازشناسی سناریوی دوم نسبت به نخست و سناریوی سوم نسبت به دوم است. همچنین نتایج کلی آزمایش ها، کارایی قابل قبول بالای 90 درصد روش پیشنهادی را نشان می دهد.
    کلیدواژگان: استخراج نقاط کلیدی محلی، آشکارسازی حالات چهره، گوشه یابی، الگوریتم توصیف گر، کاهش بعد
  • محسن نجف زاده، سعید راحتی قوچانی*، رضا قائمی صفحات 89-102
    با معرفی وب 2. 0 و 3. 0 تعاملات کاربران در فضای مجازی، منجر به ایجاد انبوهی از نظرات ارزشمند شده است. با توجه به دشواری یا عدم امکان تحلیل و بررسی دستی این نظرات، تحلیل احساس متن و یا نظرکاوی به عنوان یکی از زیرمجموعه های پردازش زبان طبیعی مطرح شد. تلاش های محدودی در نظرکاوی فارسی نسبت به سایر زبان ها صورت گرفته است. در این مقاله برای نخستین بار، یک چارچوب نیمه نظارتی برای نظرکاوی فارسی ارائه شده است. درضمن، ازآنجاکه یکی از آخرین پیشرفت های علمی در نظرکاوی زبان فارسی الگوریتمی بر اساس استخراج الگوهای حسی وفقی (حساس به مجموعه داده) مبتنی بر خبره انسانی است، در این پژوهش ضمن ارتقای الگوریتم یادشده، تعیین برچسب های حاوی احساس به کمک یک لغت نامه خودساخت (بدون نیاز به خبره انسانی) وفقی انجام می گیرد؛ همچنین کاربرد دسته بند مدل مخفی مارکوف خودناظر بر روی خصیصه های یادشده در کنار قوانین مبتنی بر معیار شباهت برای فرآیند نظرکاوی بررسی شده است. در راستای خودآموزسازی هوشمند، روشی برای ارزیابی قابلیت اطمینان بالای خروجی، ارائه شده است که خودآموزی به شرط وجود آن انجام می پذیرد. روش پیشنهادی با اجرا بر روی دادگان مبنا نرخ صحت نود درصد (باوجود عدم نیاز به خبره انسانی) را که در مقایسه با روش های نظارتی و نیمه نظارتی مستقل از خبره موجود برتری قابل ملاحظه ای دارد، خروجی می دهد؛ همچنین این الگوریتم نیمه نظارتی هنگام استفاده از مجموعه آموزش کوچک با نسبت مجموعه دادگان آموزش/آزمون ده به نود نیز بررسی و با نرخ صحت 80% قابلیت اطمینان آن به اثبات رسید.
    کلیدواژگان: نظرکاوی، یادگیری خودناظر، لغت نامه خودساخت، مدل مخفی مارکوف، لغت نامه وفقی
  • مهدی یعقوبی*، مرتضی زاهدی، علیرضا احمدی فرد صفحات 103-118
    سامانه های مدیریت فرایندهای کسب وکار (BPMS) ، سامانه های پیچیده اطلاعاتی هستند که جهت رقابت در بازار جهانی و افزایش بهره وری اقتصادی، استفاده از آن ها در هر سازمانی، امری حیاتی و ضروری است. ایجاد تعادل بارکاری منابع در BPMS، یکی از چالش هایی است که از دیرباز مورد مطالعه و بررسی پژوهش گران قرار گرفته است. تعادل بارکاری منابع، باعث افزایش پایداری سامانه، افزایش کارایی منابع و افزایش کیفیت محصولات می شود. در این مقاله، مسئله تنظیم هم روندی در BPMS به عنوان یک مسئله کاربردی در جهت بهبود تعادل بارکاری منابع و یک نواختی در بارکاری هر منبع معرفی می شود و برای حل این مسئله، در ابتدای هر فرایند یک عنصر تاخیردهنده در نظر گرفته می شود و هدف مسئله تنظیم مقدار تاخیر در ابتدای هر فرایند است. برای این منظور یک الگوریتم بهینه سازی پویا ارائه و سرعت اجرای الگوریتم پویای پیشنهادشده نسبت به الگوریتم جستجوی فضای حالت و الگوریتم تکاملی PSO مقایسه می شود. مقایسه انجام شده نشان می دهد سرعت الگوریتم پیشنهادی نسبت به الگوریتم جستجوی فضای حالت به صورت 37 ساعت به 8/5 سال است؛ درحالی‎که الگوریتم POS همین مسئله را درسه دقیقه حل می کند. آزمایش انجام شده روی یک پایگاه داده واقعی 64/21 درصد بهبود را در عملکرد الگوریتم پیشنهادی نشان می دهد.
    کلیدواژگان: سامانه مدیریت فرایندهای کسب وکار، تنظیم هم روندی فرایندها، تعادل بارکاری، بهینه سازی پویا، پیچیدگی زمانی
  • منیره حسینی*، مقصود نصرالهی، علی بقایی صفحات 119-132
    موفقیت سامانه‎های تجارت‎ الکترونیکی و تراکنش‎های کسب‎وکار برخط، به‎طور قابل توجهی وابسته به طراحی مؤثر سازوکار توصیه محصولات است. فراهم‎کردن توصیه‎های باکیفیت برای سامانه‎های تجارت ‎الکترونیکی بسیار مهم است تا بدین‎ترتیب به کاربران در تصمیم‎گیری مؤثر میان انتخاب‎های متعدد کمک کند. پالایش‎گروهی یک روش برای تولید توصیه‎ها بر اساس رتبه‎های کاربران مشابه است که به‎صورت وسیعی مورد قبول واقع شده است. این روش دارای چندین مشکل ذاتی مانند کم‎پشتی داده‎ها، شروع سرد و مقیاس‎پذیری است. حل این مشکلات و بهبود کارایی پالایش‎گروهی از چالش‎های مطرح در این زمینه است. در این مقاله یک سامانه ترکیبی جدید که شبکه اعتماد و خوشه‎بندی دوجهته را برای افزایش کارایی پالایش‎گروهی به کار می‎بندد، پیشنهاد شده است. نتایج تجربی بر روی زیرمجموعه‎ای از مجموعه‎داده‎های epinions، اثربخشی و کارایی سامانه پیشنهادی در مقابل روش‎های پالایش‎ گروهی مبتنی بر کاربر و پالایش‎ گروهی ترکیبی با اعتماد را تایید می‎کند.
    کلیدواژگان: سامانه‎های توصیه‎گر، پالایش‎گروهی، اعتماد، خوشه‎بندی دوجهته، سامانه توصیه‎گر ترکیبی
  • مرضیه نظام زاده * صفحات 133-147
    شدت واقعی سیگنال استخراج شده از تصاویر MRI به دلیل اصلاح نوفه در محاسبات مربوط به مقدار بزرگی (magnitude) سیگنال در پیکسل های کم شدت، همواره با نوفۀ رایسین همراه است. این مسئله به ویژه برای تصویربرداری های MRI با نسبت سیگنال به نوفۀ بسیار کم (SNR<3. 0) مانند دیفیوژن MRI، در مقادیر بزرگ مشهور به b- value (حاصل کاربرد گرادیآن های مغناطیسی پرقدرت در زمآن های طولانی) نیز صادق است. در این پژوهش روشی برای حذف نوفۀ رایسین از پیکسل های تصاویر حاصل از مقدار بزرگی در MRI ارائه و یک معادلۀ خطی با عبارت تصحیح نوفه پیشنهاد شده که می تواند نوفۀ بایاس شده را به پیکسل ها بطور منفرد حذف کند. در صورت مشخص بودن مقدار متوسط و واریانس تابع دانسیتهء شدت هر پیکسل، این تصحیح نوفه مطلوب و کامل است، اما در صورت عدم دسترسی دقیق به این اطلاعات برای هر تک پیکسل، میانگین گیری از نزدیک ترین پیکسل های مجاور در تصویر معادلۀ تصحیح نوفه به کارگرفته می شود. انتخاب تعداد پیکسل های مجاور با رساندن خطا به کمترین مقدار تقریبی انجام می شود. طبق محاسبه در این روش، به کارگیری دست کم 9 پیکسل همسایه برای سیگنال به نوفه معادل0/1 SNR=1. 0)) مقدار تقریبی تا زیر 10 % خطا می دهد. روش کاهش نوفۀ رایسین ارائه شده در این مقاله برتری قابل ملاحظه ای را در حذف نوفه از سیگنال دیفیوژن MRI در مقادیر بزرگ b-نسبت به روش های ارائه شده تا زمان حاضر نشان می دهد.
    کلیدواژگان: تصویر رزنانس مغناطیسی، توزیع احتمال، نوفه رایسین، سیگنال دیفیوژن MRI
|
  • Hesam Omranpour*, Fahime Azadian Pages 3-16
    It is difficult to apply the real world’s conceptions due to their uncertainty. Generally, time series are known to be non-linear or non-stationary. Regarding these two features, a system should be sensitive enough to apply the unity of time series and repeat this sensitiveness in the prediction. A predict system can exactly scrutinize the hidden features of time series and also can have high predicting runs. Lots of statistical tools such as regression analysis, gradient average, exponential gradient average and auto regression gradient average are used in traditional predictions. One of the biggest challenges of these approaches is the necessity of greater observations and the avoidance of linguistic variables or subjective experts’ ideas. Also these methods are limited to linear being assumptions. In order to dominate the limitations of traditional methods, many researchers have utilized soft computations like fuzzy logic, fuzzy neural networks, evolutionary algorithms and etc.
    In this paper, we proposed a new fuzzy prediction novel based on the high order fuzzy time series. Our proposed model is based on the higher order fuzzy time series prediction computational approach. In this method a group of features are evaluated, by adding the value of the preceding element of predicting element to the result of the series’ differences. At that, particle swarm optimization is used to optimize Calculation algorithm features, which renders a better performance in order to solve the problems of higher order fuzzy time series. Then by choosing the best features, a result can be inferred as the predicting value.
    The performance of the approach is presented in which after the fuzzification of time series and creating the logical fuzzy relations, by using the lower limit of the predicting element’s range and its consecutive range, and the resulted difference of sequential elements, some specific computations are done and a set of features are gained. Then, using the particle swarm optimization function, the best parameter is selected. The fitness function in the proposed method has two parts: a general section (the average of all orders) and a partial (Every columns orders). In general section, the overall average of error is shown. In Every columns orders section each column individually considered. For the second to tenth order (9 PSO separate) the answer is checked. The method is as follow; we used two parameters b and d for the feature calculation algorithm. The amount of d was manually and randomly between 3 – 1000, but PSO find the amount of b.
    Properties obtained by this method, have less outliers data and waste, which it causes predicted closer, with less error.
    Finally, defuzzification is performed. The yielded score is the predicted integer value of considered element.
    In order to decide the precision of the prediction’s rate, we compare the proposed model to other methods using the mean square error and the average error. In order to show the efficiency of the proposed approach, we have implemented this method on the Alabama University’s enrollment database. It can be observed that the suggested method provides better results compared to the other methods and also renders a lower error.
    Keywords: Predict, Time series, Optimization, Fuzzy logic, High-order fuzzy time series, Fuzzification, Defuzzification
  • Hojjat Bagherzadeh , Ahad Harati*, Zahra Amiri , RajabAli KamyabiGol Pages 17-30
    Parabolic scaling and anisotropic dilation form the core of famous multi-resolution transformations such as curvelet and shearlet, which are widely used in signal processing applications like denoising. These non-adaptive geometrical wavelets are commonly used to extract structures and geometrical features of multi-dimensional signals and preserve them in noise removal treatments. In discrete setups, it is shown that shearlets can outperform other rivals since in addition to scaling, they are formed by shear operator which can fully remain on integer grid. However, the redundancy of multidimensional shearlet transform exponentially grows with respect to the number of dimensions which in turn leads to the exponential computational and space complexity. This, seriously limits the applicability of shearlet transform in higher dimensions. In contrast, separable transforms process each dimension of data independent of other dimensions which result in missing the informative relations among different dimensions of the data.
    Therefore, in this paper a modified discrete shearlet transform is proposed which can overcome the redundancy and complexity issues of the classical transform. It makes a better tradeoff between completeness of the analysis achieved by processing full relations among dimensions on one hand and the redundancy and computational complexity of the resulting transform on the other hand. In fact, how dilation matrix is decomposed and block diagonalized, gives a tuning parameter for the amount of inter dimension analysis which may be used to control computation complexity and also redundancy of the resultant transform.
    In the context of video denoising, three different decompositions are proposed for 3x3 dilation matrix. In each block diagonalization of this dilation matrix, one dimension is separated and the other two constitute a 2D shearlet transform. The three block shearlet transforms are computed for the input data up to three levels and the resultant coefficients are treated with automatically adjusted thresholds. The output is obtained via an aggregation mechanism which combine the result of reconstruction of these three transforms. Using experiments on standard set of videos at different levels of noise, we show that the proposed approach can get very near to the quality of full 3D shearlet analysis while it keeps the computational complexity (time and space) comparable to the 2D shearlet transform.
    Keywords: anisotropic dilation matrix, curvelet transform, multidimensional shearlet transform, block diagonal dilation matrix, video denoising
  • Isa Hazrati Mr., Negin Daneshpour Dr. * Pages 31-44
    Near-real time data warehouse gives the end users the essential information to achieve appropriate decisions. Whatever the data are fresher in it, the decision would have a better result either. To achieve a fresh and up-to-date data, the changes happened in the side of source must be added to the data warehouse with little delay. For this reason, they should be transformed in to the data warehouse format. One of the famous algorithms in this area is called X-HYBRIDJOIN. In this algorithm the data characteristics of real word have been used to speed up the join operation. This algorithm keeps some partitions, which have more uses, in the main memory. In the proposed algorithm in this paper, disk-based relation is joined with input data stream. The aim of such join is to enrich stream. The proposed algorithm uses clustered index for disk-based relation and join attribute. Moreover, it is assumed that the join attribute is exclusive throughout the relation. This algorithm has improved the mentioned algorithm in two stages. At the first stage, some records of source table which are frequently accessible are detected. Detection of such records is carried out during the algorithm implementation. The mechanism is in the way that each record access is counted by a counter and if it becomes more than the determined threshold, then it is considered as the frequently used record and placed in the hash table. The hash table is used to keep the frequently used records in the main memory. When the stream is going to enter in to join area, it is searched in this table. At the second stage, the choice method of the partition which is going to load in the main memory has been changed. One dimensional array is used to choose the mentioned partition. This array helps to select a partition of source table with highest number of records for the join among all partitions of source table. Using this array in each iteration, always leads to choose the best partition loading in memory. To compare the usefulness of the suggested algorithm some experiments have been done. Experimental results show that the service rate acquired in suggested algorithm is more than the existing algorithms. Service rate is the number of joined records in a time unit. Increasing service rate causes the effectiveness of the algorithm.
    Keywords: Near Real Time Data Warehouse, Join, Data Stream, Decision Making
  • Abbas Karimi*, Leila Sadat Hoseini Pages 45-54
    Cancer is type of disease caused by irregular, uncontrollable growth of blood cells in bone marrow. The process of generating three main blood cells including pallets, red and white blood cells, is started from a progenitor cell called as blast. Blast generates a considerable number of immature cells which are developed affected by differentiation factors. If any interruption occurs during this process, leukemia may be initiated.
    Diagnosis of leukemia is performed at hospitals or medical centers by examination of the blood tissue smeared across a slide and under a microscope by a pathologist. Processing the digital images of blood cells, in order to improve the quality of the image or highlighting the malicious segments of the image, is important in early stages of the disease.
    There are four types of leukemia consisting acute or chronic and myeloid or lymphocytic. Acute lymphocytic (or lymphoblastic) leukemia (ALL) is concentrated in this study. ALL is caused by continuous generation of immature, malignant lymphocytes in bone marrow which are speeded by blood circulation to other organs.
    In this research, fuzzy C-means (FCM) algorithm is applied to blood digital images for clustering purpose, neural networks for feature selection and Genetic Algorithm (GA) for optimization. This model diagnoses ALL at early stages and categorizes it into three morphological subcategories (i.e., L1, L2, and L3).
    For performance evaluation of the proposed method, 38 samples of patients with ALL were collected. It was performed on 68 microscopic images in terms of 15 features and yielded to higher percentage of sensitivity, specificity, and accuracy for 10 out of 15 features. The proposed method was compared to three recent methods. The evaluations showed that the sensitivity, specificity and accuracy reached to 85.15%, 98.17% and 96.53%, respectively.
    Keywords: leukemia, FCM algorithm, neural network, genetic algorithm, clustering
  • Ali Ghanbari sorkhi*, Mansour Fateh , Hamid Hassanpour Pages 55-68
    Currently vast improvement of internet access and significant growth of web based broadcasters have resulted in distribution and sharing of informative resources such as images worldwide. Although this kind of sharing may bring many advantages, there are certain risks such as access of kids to porn images which should not be neglected. In fact, access to these images can be a threat to the culture of any society where kids and adults are included. However, many of internet users are members of social websites including Facebook or Instagram and without an appropriate intelligent filtering system, presence of few unconventional images may result in total filtering of these websites causing unpleasant feeling of members. In this paper, an attempt was made to propose an approach for classification and intelligent filtering of unconventional images. One of the major issues on these occasions is the analysis of a large scale of data available in the websites which might be a very time consuming task. A deep neural network might be a good option to resolve this issue and provide a good accuracy in dealing with huge databases. In this research, a new architecture for identifying unconventional images is proposed. In the proposed approach, the new architecture is presented with a combination of AlexNet and LeNet architecture that uses convolutional, polling and fully-connected layers.
    The activation function used in this architecture, is the Rectified Linear Unit (ReLU) function. The reason of using this activation function is the high speed of convergence in deep convolution networks and simplicity in implementation. The proposed architecture consists of several parts. The first two parts consist of convolutional layers, ReLUs and pooling. In this section, convolution is applied to the input image with different dimensions and filters. In the next section, the convolutional layer with ReLU is used without pooling. The next section, like the first two parts, includes convolutional layers, ReLU and pooling. Finally, the last three parts include the fully-connected layers with ReLU. The output of the last layer is the two classes, which specifies the degree of belonging of each input to the class of unconventional and conventional images. The results are tested on a large-scale dataset. These tests show that the proposed method is more accurate than the other methods recently developed for identifying unconventional images.
    Keywords: Intelligent filtering system, unconventional images, deep neural network, conventional neural network
  • Mina Mohammadi Dashti , Majid Harouni * Pages 69-88
    In this paper, a smile and laugh facial expression is presented based on dimension reduction and description process of the key points. The paper has two main objectives; the first is to extract the local critical points in terms of their apparent features, and the second is to reduce the system’s dependence on training inputs. To achieve these objectives, three different scenarios on extracting the features are proposed. First of all, the discrete parts of a face are detected by local binary pattern method that is used to extract a set of global feature vectors for texture classification considering various regions of an input-image face. Then, in the first scenario and with respect to the correlation changes of adjacent pixels on the texture of a mouth area, a set of local key points are extracted using the Harris corner detector. In the second scenario, the dimension reduction of the extracted points of first scenario provided by principal component analysis algorithm leading to reduction in computational costs and overall complexity without loss of performance and flexibility; and in the final scenario, a set of critical points is extracted through comparing the extracted points’ coordinates of the first scenario and the BRISK Descriptor, which is utilized a neighborhood sampling strategy of directions for a key-point. In the following, without training the system, facial expressions are detected by comparing the shape and the geometric distance of the extracted local points of the mouth area. The well-known standard Cohn-Kaonde, CAFÉ, JAFFE and Yale benchmark dataset are applied to evaluate the proposed approach. The results shows an overall enhancement of 6.33% and 16.46% for second scenario compared with first scenario and third scenario compared with second scenario. The experimental results indicate the power efficiency of the proposed approach in recognizing images more than 90 % across all the datasets.
    Keywords: Local key points extraction, facial expression detection, corner detector, descriptor algorithm, dimension reduction
  • Mohsen Najafzadeh , Saeed Rahati Quchan*, Reza Ghaemi Pages 89-102
    With the appearance of Web 2.0 and 3.0, users’ contribution to WWW has created a huge amount of valuable expressed opinions. Considering the difficulty or impossibility of manually analyzing such big data, sentiment analysis, as a branch of natural language processing, has been highly considered. Despite the other (popular) languages, a limited number of research studies have been conducted in Persian sentiment analysis. In this study, for the first time, a semi-supervised framework is proposed for Persian sentiment analysis. Moreover, considering that one of the most recent studies in Persian, is an algorithm based on extracting adaptive (dataset-sensitive) expert-based emotional patterns. In this research, extraction of the same state-of-the-art emotional patterns is proposed to be performed automatically. Moreover, application of the HMM classifier, by utilizing the mentioned features (as its states) is analyzed; and additionally, HMM-based sentiment analysis is upgraded by being combined with a rule-based classifier for the opinion assignment process. In addition, toward intelligent self-training, a criterion for evaluating, the high reliability of output is presented by which (assuming satisfaction of the criterion) the self-training process is performed in “lexicon-extraction” and “classifier,” as learning systems. The proposed method, by being applied on the basis dataset, provides 90% of accuracy (despite its expert-independent lexicon generation nature), which in comparison with the supervised and semi-supervised methods in the state-of-the-art has a considerable superiority. Moreover, this semi-supervised method is evaluated by a 10/90 ratio of train/ test and its reliability is demonstrated by providing 80% of accuracy.
    Keywords: Opinion Mining, Self-training, Self-constructed Lexicon, Hidden Markov Model, Adaptive Dictionary
  • Mehdi Yaghoubi*, Morteza Zahedi , Alireza Ahmadyfard Pages 103-118
    Business process management systems (BPMS) are vital complex information systems to compete in the global market and to increase economic productivity. Workload balancing of resources in BPMS is one of the challenges have been long studied by researchers. Workload balancing of resources increases the system stability, improves the efficiency of the resources and enhances the quality of their products. Workload balancing of resources in BPMS is considered as an important factor of the performance and the stability in systems. Setting the workload of each source at a certain level increases the efficiency of the resources.
    The main objectives of this research are the concept of resource workload balance and uniformity of the workload for each source at a specified level. To optimize the balance workload and uniformity of each source, the ​​setting multi-process concurrency was offered and studied. Also, the regulation of multi-process concurrency was mentioned as an optimization problem. In this paper, tuning concurrency of the business process is introduced as a problem in BPMS, which is an application issue to improve at workload balance of resources and uniformity in the workload of each resource.
    To solve this problem, a delay vector is defined, each element of delay vector makes the synthetic delay at the first of each business process, then a dynamic optimization algorithm is presented to compute delay vector and the speed of the proposed algorithms is compared with and state-space search algorithm and evolutionary algorithm of PSO. The comparison shows that the speed of the proposed algorithm is 37 hours to 5.8 years compared to the state-space search algorithm, while the POS algorithm solves the same problem in just 3 minutes. The experimental results on a real dataset show 21.64 percent improvement in the performance of the proposed algorithm.
    Keywords: Business process management systems, tuning concurrency of business processes, workload balancing, dynamic optimization, time complexity
  • Monireh Hosseini*, Maghsood Nasrollahi , Ali Baghaei Pages 119-132
    In the present era, the amount of information grows exponentially. So, finding the required information among the mass of information has become a major challenge. The success of e-commerce systems and online business transactions depend greatly on the effective design of products recommender mechanism. Providing high quality recommendations is important for e-commerce systems to assist users in making effective selection decisions from a plethora of choices. Recommender systems have been developed in order to respond this problem in order to customize the required information for users.
    So far, several types of recommender systems have been developed such as collaborative filtering recommender systems, content-based recommender systems and knowledge-based recommender systems. Each of these systems has advantages and disadvantages. Most of the recommender systems are based on collaborative filtering; Collaborative filtering is a widely accepted technique to generate recommendations based on the ratings of like-minded users. In fact, the main idea of this technique is to benefit from the past behavior or existing beliefs of the user community to predict products that are likely to be liked by the current user of the system. In collaborative filtering, we use the similarity between users or items to recommend products. However, this technique has several inherent problems such as cold start, sparsity and scalability.
    Since the collaborative filtering system is considered to be the most widely used recommender system, solving these problems and improving the effectiveness of collaborative filtering is one of the challenges raised in this context. None of the proposed hybrid systems have ever been able to resolve all of the collaborative filtering problems in a single and desirable manner; in this paper, we proposed a new hybrid recommender system that applies trust network as well as bi-clustering to improve the effectiveness of collaborative filtering. Therefore, the objectives of this research can be summarized as follows: sparsity reduction, increasing the speed of producing recommendations and increasing the accuracy of recommendations.
    In the proposed system, the trust between users is used to fill the user-item matrix which is a sparse matrix to solve the existing problem of sparsity. Then using bi-clustering, the user-item matrix is subdivided into matrices to solve the problem of scalability of the collaborative filtering and then the collaborative filtering is implemented for each sub matrix and the results from the implementation of the collaborative filtering for the sub-matrices are combined and recommendations are made for the users.
    The experimental results on a subset of the extended Epinions dataset verify the effectiveness and efficiency of our proposed system over user-based collaborative filtering and hybrid collaborative filtering with trust techniques.
    Improve sparsity problem
    Experimental results showed that our proposed system solves some of the sparsity problems which is due to the using the trust in the hybrid recommender system. By using trust, we can predict many uncertain ratings. Thus, transforming the user-item sparsity matrix into a half-full matrix.
    Improve scalability problem
    The results show that the proposed system has a higher speed compared with the user-based collaborative filtering algorithm and hybrid collaborative filtering with trust, and increasing the volume of data has little effect on increase online computing time. The reason can be summarized as a using of bi-clustering. Bi-directional clusters are made offline and break down the matrix of rankings into smaller subsets. Implementing the collaborative filtering on these smaller sets has led to increased computing speed.
    Improve the new user problem
    This system can provide accurate results for the new users due to the use of trust, because product collections viewed by new user can increase with the trust between the users. This system can predict the similarity between the new user and other users. So, the results are more accurate than the results of the user-based collaborative filtering and hybrid collaborative filtering with trust.
    Keywords: Recommender systems, Collaborative filtering, Trust, Bi-clustering, Hybrid recommender systems
  • Marzieh Nezamzadeh * Pages 133-147
    The true MR signal intensity extracted from noisy MR magnitude images is biased with the Rician noise caused by noise rectification in the magnitude calculation for low intensity pixels. This noise is more problematic when a quantitative analysis is performed based on the magnitude images with low SNR(<3.0). In such cases, the received signal for both the real and imaginary components will fluctuate around a low level (e.g. zero) often producing negative values. The magnitude calculation on such signals will rectify all negative values to produce only positive magnitudes, thereby artificially raising the average level of these pixels. The signal thus will be biased by the rectified noise. Diffusion MRI using high b-values (using strong magnetic gradients) is one the most important cases of biased Rician noise. A technique for removing this bias from individual pixels of magnitude MR images is presented in this study. This method provides a bias correction for individual pixels using a linear equation with the correction term separated from the term to be corrected (i.e. the pixel intensity). The correction is exact when the mean and variance of the pixel intensity probability density functions are known. When accurate mean values are not available, a nearest neighbor average is used to approximate the mean in the calculation of the linear correction term. With a nine pixel nearest neighbor average (i.e. one layer of nearest neighbors) the bias correction for individual pixel intensities is accurate to within 10% error for signal to noise ratios SNR=1.0. Several different noise correction schemes from the literature are presented and compared. The new Rician bias correction presented in this work represents a significant improvement over previously published techniques. The proposed approach substantially removes the Rician noise bias from diffusion MR signal decay over an extended range of b-values from zero to very high b-values.
    Keywords: magnitude signal, Diffusion MRI, probability distribution function, Rician bias