فهرست مطالب

رایانش نرم و فناوری اطلاعات - سال هفتم شماره 2 (پاییز و زمستان 1397)

مجله رایانش نرم و فناوری اطلاعات
سال هفتم شماره 2 (پاییز و زمستان 1397)

  • تاریخ انتشار: 1397/10/01
  • تعداد عناوین: 7
|
  • ابوالقاسم صادقی نیارکی*، مریم برزگر، مریم شاکری صفحات 1-15
    چکیده- تجربه مکانی، توانایی افراد برای درک روابط بین اشیای دنیای واقعی، فضاها و مناطق است که پس از سال ها یادگیری و تجربه توسط افراد خبره بدست می آید. این تجربه که منجر به تولید دانش مکانی می شود در اخذ تصمیمات سازمانی با دقت بالا، واقع بینانه و هماهنگ با واقعیت کمک می کند. از این رو، استفاده از روش هایی برای ذخیره سازی و استفاده مجدد از این تجربه و جلوگیری از خارج شدن آن از سازمان-ها، امروزه به امری مهم و ضروری تبدیل شده است. در این پژوهش روش های مختلف مدلسازی تجربیات از جمله استفاده از شبکه های معنایی، قانون، منطق و آنتولوژی بررسی می شوند و به دلیل برتری روش آنتولوژی نسبت به روش های دیگر، این روش به عنوان روش مدلسازی انتخاب و الگوریتمی مبتنی بر آنتولوژی برای ذخیره سازی تجربیات مکانی ارائه و در مسیریابی شهری استفاده می گردد. بدین منظور، ابتدا یک مدل آنتولوژی با استفاده از داده های مربوط به مسیرهای تاکسی شهر تهران ایجاد گردید. سپس این مدل آنتولوژی برای مسیریابی استفاده شد و نتایج آن با الگوریتم کوتاه ترین مسیر دایجسترا از نظر طول مسیر و زمان سفر برای زمان اوج ترافیک، مقایسه گردید. نتایج حاصل نشان داد با این که طول سفر روش مسیریابی مبتنی بر آنتولوژی تجربیات رانندگان، نسبت به الگوریتم کوتاه ترین مسیر دایجسترا، بیشتر است، اما زمان سفر آن کمتر است و در برخی مسیرها اختلاف زمان سفر آن با الگوریتم کوتاه ترین مسیر دایجسترا، به 10 دقیقه نیز می رسد.
    کلیدواژگان: آنتولوژی، تجربیات مکانی، مسیریابی، مدلسازی
  • رمضان هاونگی* صفحات 16-28
    فیلتر ذره ای یکی از مهمترین فیلترها در تخمین سیستم های غیر خطی/غیر گوسی که در کاربردهای زیادی استفاده شده است. در فیلتر ذره ای استاندارد، از آنجایی که تابع چگالی پسین مشترک حالت با استفاده از نمونه برداری پراهمیت بازگشتی تقریب زده می شود، ابعاد تابع چگالی پسین مشترک در هر لحظه از زمان رشد می کند. این موجب می شود که الگوریتم سریعا" تباهیده شود. بنابراین استفاده از استراتژی نمونه برداری مجدد به منظور تضمین یک تقریب منطقی از تابع چگالی احتمال پسین روی کل مسیر لازم می شود. با وجود این، در پیاده سازی فیلتر ذره ای، نمونه برداری مجدد روی فضای حاشیه ای انجام می شود. از آنجایی که سیستم ممکن است دارای رفتار فراموشی نمایی از خطاهای گذشته اش نباشد، با تعداد ذره محدود فرآیند نمونه برداری مجدد روی فضای حاشیه ای یک تخمین ناسازگار بوجود می آورد. برای رفع این مشکل، در این مقاله فیلتر ذره ای بهبود یافته مبتنی بر محاسبات نرم پیشنهاد شده است. در این فیلتر برخلاف فیلتر ذره ای، نمونه برداری بر روی توزیع حاشیه ای انجام می شود و ابعاد نمونه برداری با زمان افزایش نمی یابد. بعلاوه، نمونه برداری با استفاده از الگوریتم تکامل تفاضلی(DE) بهبود داده شده است. روش پیشنهادی با استفاده از شبیه سازی های کامپیوتری مورد ارزیابی قرار گرفته است. نتایج نشان می دهند روش پیشنهادی دارای عملکرد بهتری نسبت به فیلتر ذره ای استاندارد است.
    کلیدواژگان: فیلتر ذره ای، نمونه برداری مجدد، الگوریتم تفاضل تکاملی
  • مجید اسماعیل زاده، سید تیمور سیدی، محمدرضا سراجیان* صفحات 29-42
    تصاویر ابرطیفی به عنوان یک منبع مفید اطلاعاتی، کاربردهای مختلفی را در حوزه های مختلف ازجمله شناسایی اهداف، طبقه بندی، آشکارسازی تغییرات، شناسایی آنامولی در محیط های شهری و غیرشهری ارائه می کنند. نویز به عنوان یک بخش اجتناب ناپذیر از یک سیگنال است که باعث محدودیت استفاده از این تصاویر در برخی از کاربردها می شود. حذف اثر نویز در تصاویر ابرطیفی یکی از مهم ترین مراحل پیش پردازشی این تصاویر است. بدین منظور، جهت حذف نویز تصاویر ابرطیفی، داده ها نیاز به پیش پردازش دارند تا از تاثیر آن در تصاویر ابرطیفی کاسته شود. ابعاد بالای این تصاویر در مقایسه با تصاویر چندطیفی سنجش ازدوری، امکان پردازش و تحلیل این داده را پیچیده تر می کند. مکعب تصاویر ابرطیفی دارای سه بعد می باشند که بعد اول و دوم آن مربوط به حیطه مکانی و بعد سوم آن مربوط حیطه طیفی که شامل چند صد باند است. اغلب روش های حذف نویز در حیطه طیفی عمل می کنند در حالی که در این مقاله روشی نوین به منظور کاهش نویز تصاویر ابرطیفی ارائه شده است. این روش در دو حیطه مکانی و طیفی، از دو الگوریتم مجزا بر روی دو تصویر متفاوت ابرطیفی استفاده می کند. این تصاویر شامل تصویر ماهواره ای سنجنده هایپریون و تصویر سنجنده هوابرد اویریس است. به منظور کاهش نویز در حیطه مکانی از الگوریتم نوسانات کلی و در حیطه طیفی از الگوریتم موجک استفاده می شود. پس از پیاده سازی این روش-ها، نتایج در سطح پیکسل به صورت وزن دار ادغام شدند. جهت ارزیابی کارایی روش پیشنهادی، نتایج به دو صورت کمی و کیفی با سایر الگوریتم ها مقایسه شد. به منظور ارزیابی نتایج کمی از شاخص های متفاوتی استفاده شد که نتایج به دست آمده، دقت بالای روش پیشنهادی را نسبت به سایر روش ها نشان می دهد به طوری که عدد شاخص CEI برای داده سنجنده هایپریون 421/1 و برای داده اویریس 0022/0 است، علاوه بر آن شاخص PSNR برای داده هایپریون 519/33 و برای داده اویریس 371/22 است.
    کلیدواژگان: کاهش نویز، ادغام، تصاویر سنجش از دوری ابرطیفی، تبدیل موجک، مدل نوسانات کلی
  • عبدالله چاله چاله*، سارا خسروی صفحات 43-57
    در این مقاله روش جدیدی برای بازشناسی برون خط کلمات فارسی دست نویس ارائه شده است. روش پیشنهادی شامل معرفی ویژگی جدید و قدرتمند کد زنجیره ای فریمن دنباله مرکز جرم (CSFCC)، در کنار استفاده از ویژگی های ریخت شناسی و همچنین استفاده از طبقه بند ماشین بردار پشتیبان (SVM) بهبود یافته می باشد. در روش پیشنهادی، طبقه بند ماشین بردار پشتیبان(SVM)، با استفاده از ترکیب دو الگوریتم بهینه سازی ازدحام ذرات (PSO) و الگوریتم جستجوی گرانشی (GSA)، که به اختصار آن را PSOGSA می نامیم؛ بهبود یافته است. رویکرد به کار برده شده در این تحقیق، تشخیص تمامی اجزای متصل به هم در کلمه و سپس ترکیب آن ها با یکدیگر می باشد. به همین منظور، یک فرهنگ لغت تصویری از زیرکلمات بدون علامت تهیه شده است. علاوه بر این، به منظور کاهش فضای جستجو، افزایش سرعت و دقت بازشناسی، یک پایگاه داده از موقعیت زیرکلمات بدون علامت اصلی نیز ایجاد و مورد استفاده قرار گرفته است. این کار باعث شد؛ تا برای بازشناسی یک زیرکلمه، بر اساس موقعیت آن در کلمه اصلی تصمیم گیری و احتمال تشخیص درست افزایش یابد. روش پیشنهادی بر روی پایگاه داده شناخته شده ی ایرانشهر که شامل حدود 17000 تصویر از اسامی دست نویس 503 شهر ایران است؛ اجرا شده است. دقت بازشناسی به دست آمده در روش پیشنهادی، 89% در بخش آزمایش می باشد؛ که نشان دهنده توانمندی روش پیشنهادی و بهبود نتایج در مقایسه با دیگر روش های موجود است.
    کلیدواژگان: بازشناسی برون خط کلمات فارسی دست نویس، کد زنجیره ای فریمن دنباله مرکز جرم (CSFCC)، ویژگی های ریخت شناسی، ماشین بردار پشتیبان (SVM)، الگوریتم بهینه سازی PSOGSA
  • سید مسعود اجابتی*، سید حمید ظهیری صفحات 58-70
    با پیشرفت روز افزون علم، همواره با مسائل جدیدی در دنیای واقعی روبرو میشویم که نیاز به الگوریتم بهینه سازی با قابلیت انطباق سریع با محیط در حال تغییر با زمان و غیرقطعی را بیشتر نمایان می کند. در این گونه مسائل شرایط همواره بگونه ای پیش می رود که مکان و مقدار بهینه در طول زمان تغییر می یابد، از این رو الگوریتم بهینه سازی باید توانایی انطباق سریع با شرایط متغیر را دارا باشد. در این مقاله الگوریتم جدیدی بر مبنای الگوریتم بهینه سازی ذرات به نام الگوریتم انطباقی بهینه سازی ذرات افزایشی کاهشی، پیشنهاد شده است. این الگوریتم همواره در روند بهینه سازی به طور انطباقی با کاهش یا افزایش تعداد ذرات الگوریتم و محدوده جستجو موثر توانایی یافتن و دنبال کردن تعداد بهینه متغیر با زمان در محیط های غیرخطی و پویایی که تغییرات آن قابل آشکارسازی نیست، را دارا می باشد. علاوه بر این تعاریف جدیدی به نام ناحیه جستجو متمرکز با هدف برجسته کردن فضاهای امیدبخش برای سرعت بخشیدن به فرایند جستجوی محلی و جلوگیری از همگرایی زودرس و شاخص موفقیت به عنوان معیاری برای چگونگی رفتار ناحیه جستجو متمرکز نسبت به شرایط محیطی، تعریف شده است. نتایج حاصل از الگوریتم پیشنهادی بر روی تابع محک قله های متحرک ارزیابی شده و با نتایج چندین الگوریتم معتبر مقایسه گردیده است. نتایج نشان دهنده تاثیر مثبت مکانیزم های انطباقی بکار گرفته شده از جمله کاهش و افزایش ذرات و محدوده جستجو بر زمان یافتن و دنبال کردن چندین بهینه در مقایسه با سایر الگوریتم های بهینه سازی مبتنی بر چند جمعیتی می باشد.
    کلیدواژگان: کاهش و افزایش انطباقی ذرات، شعاع جستجو انطباقی، مسائل بهینهسازی پویا (DOPs)، جستجوی محلی، چند جمعیتی، الگوریتم بهینهسازی ذرات
  • محمد علایی*، فهیمه یزدان پناه صفحات 71-80
    یکی از چالش های شبکه های حسگر بی سیم، عدم توازن در مصرف انرژی گره ها و مرگ زودهنگام گره های فرستنده اطراف ایستگاه پایه می باشد. دلیل این امر، بار کاری بیشتر و بنابراین، مصرف انرژی بیشتر در این گره ها می باشد. به طوری که، ارتباط گره های زنده و فعال شبکه نیز با ایستگاه پایه مختل می گردد. در این مقاله، هدف، متوازن سازی بار کاری و مصرف انرژی در گره های شبکه می باشد. به طوری که، در ضمن بیشینه سازی طول عمر همه گره ها، از مرگ زودهنگام گره های پیرامون ایستگاه پایه جلوگیری گردد و لذا همه گره های شبکه تا آخر طول عمر خود، با ایستگاه پایه در ارتباط باشند و حفره ای در شبکه ایجاد نگردد. برای نیل به این مقصود، روشی برای ناحیه بندی شبکه های حسگر بی سیم پیشنهاد می شود. در این روش، ناحیه ها به گونه ای ایجاد می شوند که طول گام ارسال داده هر گره فرستنده بر حسب میزان داده ای که باید ارسال کند، معین می گردد. بنابراین، انرژی مصرفی گره های فرستنده و در نتیجه، طول عمر آنها متوازن می شود. روش پیشنهادی که آن را ZOGLO می نامیم، در درجه اول، راه حلی برای چالش مردن زودهنگام گره های فرستنده پیرامون ایستگاه پایه ارائه می دهد. علاوه بر این، ابعاد ناحیه ها چنان تنظیم می شود که در هر ناحیه، ارتباط گره های حسگر با گره فرستنده ناحیه به صورت تک گام انجام می شود. روش ZOGLO چگالی گره های حسگر در ناحیه ها را متوازن می کند تا نرخ پوشش در همه سطح شبکه یکسان گردد. ارزیابی های انجام شده نشان می دهند که روش ZOGLO نسبت به کارهای مرتبط، طول عمر گره های شبکه اعم از گره های فرستنده و حسگر را بالا می برد و نیز اختلاف طول عمر آنها را کم می کند.
    کلیدواژگان: شبکه های حسگر بی سیم، ناحیه بندی، کارایی انرژی، گره فرستنده، جمع آوری داده
  • حمیدرضا طهماسبی، مهرداد جلالی*، حسن شاکری صفحات 81-94
    سیستم های پیشنهاد دهنده با تحلیل الگوهای علایق کاربران، آیتم ها یا پیشنهاداتی متناسب با علایق کاربر به او ارائه می کنند. یک چالش اساسی در این سیستم ها این است که علایق کاربران ثابت نبوده و معمولا کاربران تمایل به تغییر علایق خود در طول زمان دارند. تطبیق سیستم های پیشنهاددهنده برای مدل کردن تکامل علایق و نیازهای کاربران که مدام درحال تغییر می باشند، باعث بهبود پیشنهادات ارائه شده به کاربر می گردد. در این مقاله با توسعه یک روش مدل سازی علایق پویای کاربر، یک سیستم پیشنهاد دهنده زمانی ارائه می کنیم. در این روش یک تابع کاهش زمانی برای هر کاربر معرفی می شودکه اهمیت علایق قبلی کاربران براساس نرخ تغییر علایق هر کاربر وزن گذاری شده و سپس این اطلاعات بهمراه اطلاعات استخراج شده ی مربوط به شباهت بین کاربران در طول زمان و داده های دموگرافی کاربران به ترتیب در دو تنسور و یک ماتریس مدل شده و با استفاده از تکنیک تجزیه تنسور- ماتریس های اتصالی، پویایی علایق کاربران استخراج و پیشنهادات شخصی مناسب با هر کاربر ارائه می شود. ارزیابی روش پیشنهادی روی دو مجموعه داده ی واقعی، بهبود دقت این روش را در پیشنهاد آیتم ها به کاربران نسبت به سایر روش های مقایسه شده و توانایی بهتر آن در برخورد با مشکل شروع سرد را نشان می دهد
    کلیدواژگان: سیستم های پیشنهاد دهنده ی زمانی، تجزیه تنسور-ماتریس های اتصالی، علایق پویای کاربر، داده های خلوت، شروع سرد
|
  • Abolghasem Sadeghi, Niaraki *, Maryam Barzegar, Maryam Shakeri Pages 1-15
    Abstract- Spatial experience is the ability of comprehending relation between real world’s objects, spaces and areas and can be acquired after several years of learning and experience by the expert persons. This experience leads to generating spatial knowledge and can be helpful in making high accuracy, realistic and in accordance with reality decisions. Therefore, using some methods for storing and reusing this experiment and preventing the exit of experiences from organizations is necessary. In this research, different experience modeling methods such as semantic networks, rules, logic and ontology are investigated and due to the advantages of ontology method in comparison with other methods, this modeling method is chosen for proposing an algorithm for storing spatial experiences in urban route finding. In this regard, first, an ontology model is created with the taxi routes in Tehran city. Then, this ontology model is used for route finding and its results compared with Dikjestra’s algorithm at peak traffic times. The results show that although the route lengths of ontology based route finding algorithm are longer than route lengths of Dikjestra’s algorithm but its travel times are lower and in some routes the difference between travel times reaches to 10 minutes.
    Keywords: ontology, Spatial experiences, Route finding, Modeling
  • Ramazan Havangi * Pages 16-28
    Particle filter is one of the most important filters for estimating nonlinear/non-Gussian systems that is used in many applications. In a standard particle filter, since the common state density function of the state is approximated by recursive importance sampling, the dimension of the joint posterior grows with each time step. This causes the algorithm to be rapidly degenerated. Therefore, the use of a resampling strategy is required for guaranteeing a logical approximation of the density function on the entire path. However, in practice, resampling step is performed on marginal space. Since the system may not exhibit an exponential forgetting behavior from its past errors, it will produce an incomplete estimate with a small number of finite sampling processes on the marginal space. To solve this problem, an improved particle filter based soft computing is proposed in this paper. Unlike a particle filter, this filter is applied to the marginal distribution, and the sampling dimensions do not increase with time. In addition, sampling has been improved using an evolutionary differential algorithm. The proposed method is evaluated using computer simulations. The results show that the proposed method has a better performance than standard particle filter.
    Keywords: Particle Filter, Resampling step, Differential evolution algorithm (DE)
  • Majid Esmaeilzadeh, Seyyed Teymoor Seydi, Mohammadreza Serajian * Pages 29-42
    Hyperspectral images as a source of information can be used for diverse applications in various fields, including target identification, classification, change detection and anomaly detection in urban and non-urban areas. Noise is an inevitable part of a signal which limits the use of hyperspectral images in some applications. Noise removal is one of the most important pre-processing stages in hyperspectral images. In order to remove the noise in hyperspectral images, the data needs to be preprocessed to reduce noise impact on the images. The process and analysis of hyperspectral images is rather complicated because of the high dimensionality of hyperspectral images compared to multispectral remote sensing images. Hyperspectral image cube consist of three dimensions which the first and second dimensions related to the spatial domain and the third one related to the spectral domain which includes more than hundred bands. Most of the methods operate in the spectral domain for noise reduction while in this proposed method, a novel algorithm for reducing noise in hyperspectral images is implemented. The proposed method uses two different algorithms which are applied in two different hyperspectral images in both spatial and spectral domains. These images are Hyperion satellite image and AVIRIS airborne image. In order to reduce noise in the spatial domain, Total Variation (TV) algorithm and in the spectral domain, Wavelet algorithm is used. After the implementation of these methods, the results are fused at the pixel level. For the evaluation of the proposed method, the results were compared with other methods, both qualitatively and quantitatively. Various indices are used to assess the quantitative results which demonstrate the high accuracy of this method.CEI index for Hyperion image is 1.421 and for AVIRIS image is 0.0022. Another index is PSNR which the value for Hyperion image is 33.519 and for AVIRIS image is 22.371.
    Keywords: Noise Reduction, Hyperspectral images, Wavelet, Total Variation, Hyperion, AVIRIS
  • Abdolah Chalechale *, Sara Khosravi Pages 43-57
    In this paper, a new method is proposed for offline handwritten Persian words recognition. The proposed method introduces the Centroid Sequence Freeman Chain Code (CSFCC) as a new and powerful feature along with the use of morphological features and an optimize support vector machine (SVM) classifier. A conbination of particle swarm optimization (PSO) and gravitational search algorithm (GSA), abbreviated to PSOGSA, has been employed to optimaze the SVM classifier. In the proposed method, all the connected components of a word are detected and combined with each other. For this purpose, a pictorial dictionary of asymptomatic subwords has been made. In addition, a database has been created to include the positions of asymptomatic subwords in order to narrow down the search space and increase the speed and improve the recognition accuracy. Based on the position of a subword in a word, it is more likely to make the right decision and detect the subword, accurately. The proposed method was implemented on the Iranshahr Database, containing nearly 17000 images of handwritten names of 503 cities of Iran. The resultant recognition accuracy is 89% in the expriments, which shows the capability of the proposed method and improving the results, compared to the other well-known methods.
    Keywords: Offline handwritten Persian word recognition, Centroid Sequence Freeman Chain Code (CSFCC), Morphological features, Support Vector Machines (SVM), PSOGSA optimization algorithm
  • Seyyed Masoud Ejabati * Pages 58-70
    Science progress has introduced new issues into the world requiring optimization algorithm with fast adaptation with uncertain environment changing with time. In these issues, location and optimized value change over time, so optimization algorithm should be capable of fast adaptation with variable conditions. This study has proposed a new algorithm based on particle optimization algorithm called Adaptive Increasing/Decreasing PSO. This algorithm, adaptively with an increase and decrease in the number of algorithm particles and effective search limit, is capable of searching and finding optimized number changed with time in non-linear and dynamic environments with undetectable changes. Also, a new definition, focused search zone, is provided for signalizing hopeful areas in order to accelerate local search process and prevent premature convergence, and success index as an indicator of the behavior of centralized search area in relation to environmental conditions. Results of the proposed algorithm on the moving peaks benchmark were assessed and compared with the results of some other studies. Results show positive effects of adaptive mechanisms such as a decrease and an increase in the particles and search limit on the duration of searching and finding optimization in comparison with other multi-population based optimization algorithms.
    Keywords: Adaptive Increasing, Decreasing Particles, Adaptive Search Radius, Dynamic Optimization Problems (DOPs), Local Search, Multi-population, Particle Swarm Optimization
  • Mohammad Alaei *, Fahimeh Yazdanpanah Pages 71-80
    One of the main challenges of wireless sensor networks (WSNs), is unequal energy consumption of the nodes and early dead of the forwarder nodes around the base station because of the high load on these nodes. This matter causes a hole around the base station, thus, the communications between the alive nodes of the network and the base station are disrupted. In this paper, balancing the load and then energy consumption of the network nodes are followed. The aim is prolongation of the lifetime of all the nodes, particularly, the nodes around the base station to keep the communications between the network nodes and the base station until the end of lifetime of the nodes without any hole. To this purpose, a method for zoning the area of sensor networks is proposed. The distance of data transfer hop of each forwarder node is adjusted based on the amount of data to be transmitted by the forwarder. Hence, energy consumption of forwarders and thus their lifetimes are balanced. The proposed approach presents a solution for the challenge of short life of forwarders around the base station. Moreover, the dimensions of zones are calculated in such way that the communications between the sensors and the forwarder in each zone are performed in single hop manner. The approach balances the density of sensors of the created zones to uniform the coverage ratio in all the network area. The performance evaluations of the proposed scheme indicate that the scheme prolongs the lifetime of both forwarders and sensor nodes compared with the related works.
    Keywords: Wireless Sensor Networks, Zoning, Energy efficiency, Forwarder, Data Gathering
  • Hamidreza Tahmasbi, Mehrdad Jalali *, Hassan Shakeri Pages 81-94
    Recommender systems analyze the user’s preference patterns and provide personalized recommendations of items that will suit a user’s taste. An essential challenge in these systems is that user preferences are not static and users are likely to change their preferences over time. The adaptability of recommender systems to capture the evolving user′s preferences which are constantly changing, improves the accuracy of recommender systems. In this paper, we develop a model to capture the users’ preference dynamics in a personalized manner. We introduce an individual time decay factor for each user according to the rate of his preference dynamics to weight the past user preferences and decrease gradually the importance of them. We exploit the users’ demographics as well as the extracted similarities between users over time, in addition to the past weighted user preferences, in a developed coupled tensor-matrix factorization technique to provide the personalized recommendations. Our evaluation results on the two real-world datasets indicate that our proposed model is better and more robust than the competitive methods in term of recommendation accuracy and is more capable to cope with cold-start problem.
    Keywords: Temporal recommender systems, Coupled tensor factorization, Users’ preference dynamics, Data sparsity, Cold-start