به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت
جستجوی مقالات مرتبط با کلیدواژه

clustering

در نشریات گروه برق
تکرار جستجوی کلیدواژه clustering در نشریات گروه فنی و مهندسی
  • Humairah Mansor, Shazmin Aniza Abdul Shukor*, Razak Wong Chen Keng, Nurul Syahirah Khalid

    Building fixtures like lighting are very important to be modelled, especially when a higher level of modelling details is required for planning indoor renovation. LIDAR is often used to capture these details due to its capability to produce dense information. However, this led to the high amount of data that needs to be processed and requires a specific method, especially to detect lighting fixtures. This work proposed a method named Size Density-Based Spatial Clustering of Applications with Noise (SDBSCAN) to detect the lighting fixtures by calculating the size of the clusters and classifying them by extracting the clusters that belong to lighting fixtures. It works based on Density-Based Spatial Clustering of Applications with Noise (DBSCAN), where geometrical features like size are incorporated to detect and classify these lighting fixtures. The final results of the detected lighting fixtures to the raw point cloud data are validated by using F1-score and IoU to determine the accuracy of the predicted object classification and the positions of the detected fixtures. The results show that the proposed method has successfully detected the lighting fixtures with scores of over 0.9. It is expected that the developed algorithm can be used to detect and classify fixtures from any 3D point cloud data representing buildings.

    Keywords: Clustering, Fixtures, Heuristic, Point Cloud Data, Segmentation
  • Vahid Golmah, Golsa Mirhashemi*

    Data visualization is a key component of undirected data mining that it transforms data, information, and knowledge into visual view. In this paper, we formulate data visualization problem as a quadratic assignment problem (DV-QAP). The QAP is an NP-Hard problem and has high complexity that it is more acute for data visualization problem because it has intense dependencies among variables and big search space. Therefore, the exact approaches are inefficient to solve DV-QAP and we introduce a new technique called Distributed Self Adaptive Genetic Algorithm with Migration (DSAGAM) that their parameters adjust to increases the exploration and exploitation. This paper focuses on the effect of controlling the migration process and adjusting parameters with respect to the fitness to explore such big search spaces to improve solutions quality. Then we demonstrate the efficiency of the model for a real data set compared with the SGA, SAMGA, IGA and Sammon's mapping approaches.

    Keywords: Data Visualization, Adaptive Genetic Algorithms, Quadratic Assignment Problem, Clustering
  • حامد شهمرادی، عارف درودی*، محمدصالح فرخی

    مطالعات پایداری، کنترل و طراحی شبکه های قدرت با توجه به وسعت زیاد  و درهم تنیدگی بیش از حد این شبکه ها، امری دشوار و زمان بر بوده و لذا برای انجام این مطالعات، معادل سازی دینامیکی بسیار مفید و اجتناب پذیر است. معادل سازی دینامیکی با تبدیل شبکه های وسیع و پیچیده به شبکه های کوچک تر انجام می گیرد. یکی از روش های معادل سازی، یافتن ژنراتورهای همپا است. در روش همپایی، ابتدا بر اساس مشخصات و نوسانات شبکه، هر گروه ژنراتورهای همپا با یک ژنراتور معادل جایگزین می شوند و سپس معادل دینامیکی گروه ها در مطالعات شبکه های قدرت استفاده می شوند. در همین راستا، در این مقاله با استفاده از نظریه گراف و شاخص کیفیت خوشه بندی، روشی جدید برای یافتن ژنراتورهای همپا در یک شبکه قدرت ارائه می شود. روش پیشنهادی بر پایه مدل شبکه قدرت بوده و تنها اطلاعات مورد نیاز آن، ادمیتانس خطوط ارتباطی بین باس های ژنراتوری شبکه است. شبکه 39 باس IEEE جهت نشان دادن کارایی روش، مورد استفاده قرار می گیرد. نتایج ارائه شده و مقایسه نتایج با دیگر مقالات، نشان می دهد که روش پیشنهادی در عین سادگی با تقریب قابل قبولی، ماشین های همپا را به خوبی شناسایی می کند.

    کلید واژگان: همپایی کند، معادل سازی دینامیکی، خوشه بندی، نظریه گراف
    Hamed Shahmoradi, Aref Doroudi*, Mohammadsaleh Farrokhi

    Power system stability, control, and design studies are time-consuming due to the formation of large size and heavy interconnection networks. Reduced ordered dynamic equivalent methods are thus so desirable for performing these studies. Simple equivalents are obtained by converting large and complex networks into smaller networks. One of the approaches to the problem of model reduction is to find coherency-based generator grouping and aggregation. In this method, first, based on network characteristics, each group of coherent generators is replaced with a dynamic equivalent, and then the dynamic equivalent of the generators is used in the studies of power networks. In this regard, in this article, using graph theory and clustering quality index, a novel method for finding coherent generators in a power network is presented. The proposed method is simple and the network admittance matrix is the only information required by this approach. The IEEE 39-bus network is used to show the effectiveness of the proposed approach. The comparison of the results with other research shows that the proposed method identifies the coherent generators with an acceptable approximation.

    Keywords: Slow Coherency, Dynamic Equivalent, Clustering, Graph Theory
  • سجاد حق زاد کلیدبری*
    الگوریتم های محاسباتی نرم مانند منطق فازی، شبکه های عصبی و الگوریتم های تکاملی به طور گسترده در بسیاری از زمینه ها استفاده می شوند. به ویژه منطق فازی، به دلیل توانایی قابل توجهی که در مدل سازی دارد، محبوبیت قابل توجهی به دست آورده است. تاکنون روش های مختلفی برای مدل سازی فازی ارائه شده است که هر یک از این روش ها مزایا و معایب خود را دارند. در حالی که اکثر روش ها تجزیه و تحلیل را از ورودی دارند ولی روش SY از بخش خروجی به تجزیه و تحلیل سیستم می پردازد. محبوبیت روش SY را می توان به الگوریتم استخراج قانون موثر آن نسبت داد، که از یک فرآیند خوشه بندی برای تعیین توابع عضویت ورودی استفاده می کند. در این مقاله، یک الگوریتم جستجوی خوشه ای و یک روش تقسیم بندی فازی جدید پیشنهاد شده است که نگاشت فضای خروجی به فضای ورودی را با توزیع توابع گاوسی برای هر نقطه داده در یک خوشه و محاسبه مقادیر عضویت آن ها افزایش می دهد. با این روش جدید جستجوی خوشه بندی پیشنهادی، عملکرد روش SY بهبود یافته است. با توجه به شبیه سازی ها، روش پیشنهادی معیار میانگین مربعات خطا (MSE) را 0.001 و معیار دقت را 1.5 درصد بهبود بخشیده است.
    کلید واژگان: سیستم استنتاج فازی (FIS)، مدل سازی فازی، روش Sugeno-Yasukawa (SY)، تقریب تابع عضویت، خوشه بندی
    S. Haghzad Klidbary *
    Soft computing algorithm such as fuzzy logic, neural networks, and evolutionary algorithms are widely used in many fields. Fuzzy logic, in particular, has gained significant popularity due to its significant ability in modelling. So far, various methods of fuzzy modelling have been presented; each of these methods has its advantages and disadvantages. While all methods start from the input, Sugeno-Yasukawa (SY) differs by initiating the analysis from the output. The popularity of the SY method can be attributed to its effective rule extraction algorithm, which employs a clustering process to determine input membership functions. In this paper, we propose a cluster search algorithm and a new fuzzy partitioning method that enhance the mapping of the output space to the input space by distributing Gaussian functions for each data point within a cluster and calculating their membership values. With this proposed new clustering search method, the performance of the SY method is improved. Through simulations, the proposed method has improved the mean square errors (MSE) criterion by 0.001, and improved the accuracy criterion by 1.5 percent.
    Keywords: Fuzzy Inference System (FIS), Fuzzy Modelling, Sugeno-Yasukawa (SY) Method, Membership Function Approximation, Clustering
  • R. Tekieh, Z. Beheshti *
    Clustering is one of the important methods in data analysis. For big data, clustering is difficult due to the volume of data and the complexity of clustering algorithms. Therefore, methods that can handle a large amount of data clustering at the reasonable time are required. MapReduce is a powerful programming model that allows parallel algorithms to run in distributed computing environments. In this study, an improved artificial bee colony algorithm based on a MapReduce clustering model (MR-CWABC) is proposed. The weighted average without greedy selection of the results improves the local and global search of ABC. The improved algorithm is implemented in accordance with the MapReduce model on the Hadoop framework to allocate optimal samples to the clusters such that the compression and separation of the clusters are preserved. The proposed method is compared with some well-known bio-inspired algorithms such as particle swarm optimization (PSO), artificial bee colony (ABC) and gravitational search algorithm (GSA) implemented based on the MapReduce model on the Hadoop framework. The results showed that MR-CWABC is well-suited for big data, while maintaining clustering quality. The MR-CWABC demonstrates an improvement of 7.13%, 7.71% and 6.77% based on the average F-measure compared to MR-CABC, MR-CPSO, and MR-CGSA, respectively.
    Keywords: Big Data, Clustering, Swarm-Inspired Meta-Heuristic Algorithm, Mapreduce, Data Mining, Distributed Computing, Hadoop
  • حمید رضایی، نگین دانشپور*

    خوشه بندی عملیاتی است که در آن مجموعه ای از نمونه داده ها، نسبت به میزان شباهت، دسته بندی می شوند. نمونه داده های خوشه بندی، عددی یا مخلوطی از عددی و غیرعددی (اسمی) هستند. یافتن میزان شباهت و اندازه گیری فاصله، از چالش های خوشه بندی داده های مخلوط است. در این مقاله سعی شده است در محاسبه میزان شباهت و تعیین فاصله، به پارامتر "تعداد ویژگی های مشابه" توجه شود. در نسبت دادن هر نمونه به خوشه در مواردی که فاصله ها برابر یا نزدیک باشد، تعداد ویژگی های مشترک نمونه ها تعیین کننده خوشه مناسب خواهد بود. برای محاسبه فاصله در الگوریتم مورد نظر از تفاضل عددی نرمالسازی شده برای ویژگی های عددی و از فاصله همینگ برای ویژگی های غیرعددی استفاده شده است. تعیین مرکز خوشه اولیه نیز مانند بسیاری از روش ها بصورت تصادفی انجام شده است و در تکرارهای بعدی الگوریتم، نمونه مناسب تر به عنوان مرکز خوشه انتخاب می شود. الگوریتم مورد نظر با 5 الگوریتم دیگر در 5 مجموعه داده مقایسه شده است. در بررسی نتایج، از سه معیار Accuracy ، RI، F-Measure  استفاده شده است. طبق نتایج آزمایشات، در سه مجموعه داده، الگوریتم موردنظر حداقل دو درصد بهتر از دو الگوریتم و یک درصد بهتر از یکی دیگر از الگوریتم ها عمل کرده است. در یکی دیگر از مجموعه داده ها الگوریتم موردنظر نتایج برابر یا نزدیک به یک درصد دقت بهتر نسبت به الگوریتم برتر داشت. در مجموعه داده آخر نیز الگوریتم مورد نظر در رتبه دوم از بین 5 الگوریتم قرار داشت.

    کلید واژگان: خوشه بندی، داده مخلوط، فاصله مقادیر، تشابه مقادیر، مرکز خوشه
    Negin Daneshpour*

    Clustering is an operation in which a set of data samples is categorized according to the degree of similarity. Examples of clustering data are numerical or a mixture of numerical and non-numerical (nominal) data. Finding similarities and measuring distances is one of the challenges of mixed data clustering. In the related works, to detect the degree of similarity and obtain the distance value, only the parameter of the distance value was considered and the cluster was selected based on its value. Clustering in this way, especially for mixed data, has not had very accurate results. In this paper, we have tried to pay attention to the parameter "number of similar features" in calculating the degree of similarity and determining the distance. In assigning each sample to a cluster in cases where the distances are equal or close, the number of common features of the samples will determine the appropriate cluster. That is, we will pay attention to the "number of similar features" in addition to the distance to select the cluster. This idea believes that in cases where the distance of the cluster centers is close to the data object, it is better to choose the cluster center that has more features similar to the data object. Logically and also according to the proposed algorithm, the amount of similarity should be in a larger number of features, not just a few limited features but with high similarity. The parameter of the "number of similar features" has a specific definition and is obtained with a suitable threshold. If the distance value of two features is less than the threshold, those two features are considered as similar features. To calculate the distance in the algorithm, the normalized numerical difference for numerical properties and the Hamming distance for non-numerical properties are used. Determining the initial cluster centers, like many methods, is done randomly, and in subsequent iterations of the algorithm, more appropriate samples are selected as the cluster centers. The algorithm is compared with 5 other algorithms in 5 datasets. In examining the results, three criteria of Accuracy, RI and F-Measure have been used. According to the test results, in the mixed and integer datasets, the algorithm performs at least two percent better than the two algorithms and one percent better than the other algorithm. In another data set, the proposed algorithm had results equal to or close to one percent better accuracy than the superior algorithm. In the last data set, the proposed algorithm was ranked second among 5 algorithms. In general, the proposed algorithm won the top rank in most of the results, and in the rest of the cases, it won the second rank out of the five tested algorithms.

    Keywords: Clustering, Mixed Data, Distance Of Values, Similarity Of Values, Cluster Center
  • فرزانه نادی، ولی درهمی*، فریناز اعلمی یان هرندی

    این مقاله روشی جدید در استفاده از داده های جمع آوری شده از حرکت تصادفی عامل در محیط برای تنظیم اولیه ی پارامترهای یک کنترلگر با ساختار یادگیری تقویتی فازی ارائه می دهد. کندی سرعت آموزش و تعداد شکست بالا در زمان آموزش دو چالش مهم در این قبیل ساختارها هستند. مقداردهی اولیه ی پارامترهای سیستم فازی می تواند راهکار مناسبی برای رفع این چالش ها باشد. در این مقاله با تعمیم روش تکرار ارزش گسسته به پیوسته بدون بهره گیری از روش های مبتنی بر مشتق، پارامترهای سیستم فازی مقدار دهی اولیه می شوند. ابتدا با تعامل تصادفی عامل با محیط داده های مرتبط جمع آوری می شود. با توجه به آنکه فضای حالت پیوسته است، داده ها به طور مناسب خوشه بندی شده و هر خوشه به عنوان یک حالت لحاظ می گردد. آنگاه با تعمیم روش تکرار ارزش استاندارد به پیوسته ماتریس احتمال انتقال حالت-عمل به حالت بعدی و امید پاداش آنی حالت-عمل به حالت بعدی محاسبه می شود. با استفاده از نتایج این مرحله پارامترهای ساختار یادگیری تقویتی فازی مقدار دهی اولیه می شوند. پس آز آن پارامترهای این ساختار به صورت برخط با روش یادگیری تقویتی تنظیم نهایی می گردند. روش ارایه شده "یادگیری تقویتی فازی مبتنی بر تکرار ارزش" نامیده می شود و در مسئله ی ربات تعقیب کننده ی هدف مورد استفاده قرار می گیرد. نتایج آزمایش ها حاکی از بهبود قابل توجه عملکرد روش ارائه شده در مسئله ی ربات تعقیب کننده ی هدف است.

    کلید واژگان: کنترلگر فازی، یادگیری تقویتی، برنامه سازی پویا، خوشه بندی، ربات تعقیب کننده ی هدف
    Farzaneh Nadi, Vali Derhami*, Farinaz Alamiyan Harandi

    This paper presents a new method for using data collected from the agent's random movement in the environment for the initial adjustment of parameters of a controller with a fuzzy reinforcement learning structure. Slow learning speed and high failure rates during training are two major challenges in such structures. The initial parameterization of the fuzzy system can be a suitable solution to address these challenges. In this paper, the method of discrete value iteration is extended to continuous without relying on derivative based methods to initialize the parameters of the fuzzy system. First, random interaction with the environment is used to collect relevant data. Since the state space is continuous, the data is appropriately clustered and each cluster is considered as a state. Then, by generalizing the standard value iteration method to the continuous, the transition probability matrix and the immediate reward expectation matrix are calculated. Using the results of this stage, the initial parameterization of the fuzzy reinforcement learning structure is performed. Subsequently, these parameters are fine-tuned using reinforcement learning. The proposed method is called "Value Iteration based Fuzzy Reinforcement Learning" and is used in the problem of target following robots. The experimental results indicate a significant improvement in the performance of the proposed method in the problem of target following robots.

    Keywords: Fuzzy Controller, Reinforcement Learning, Dynamic Programming, Clustering, Target Following Robot
  • سید محمد احمدی*، روح الله دیانت

    در زمینه ی شناسایی چهره، چالش های افت دقت، افزایش نیازمندی به حافظه، و افزایش پیچیدگی زمانی از مشکلات مهمی به شمار می آیند. به منظور حل این مسائل، این تحقیق یک رویکرد دومرحله ای سه واحدی معرفی کرده است: واحد زیرشبکه ها، واحد خوشه یاب، و واحد تصمیم گیر نهایی. در مقابل روش های مبتنی بر توزیع تصادفی، روش ارائه شده، از خوشه بندی به عنوان روش توزیع مسئله به زیرشبکه ها استفاده می کند. هر زیرشبکه ، یک شبکه عصبی عمیق نظارتی است که با داده های آموزشی مربوط به دسته های خود آموزش می بیند. واحد خوشه یاب، شباهت بردارهای ویژگی داده های آزمون را با میانگین بردارهای ویژگی دسته ها مقایسه می کند و بهترین خوشه را پیدا می کند. در نهایت، واحد تصمیم گیر نهایی با ترکیب نتایج دو واحد قبلی، بهترین دسته را انتخاب می کند. نتایج نشان می دهد که روش پیشنهادی، در مقایسه با روش های مشابه، از نظر صحت، بازخوانی، و امتیاز F1 عملکرد بهتری دارد. این روش ضمن سریع تر بودن، دارای دقت بالاتری نسبت به روش های بدون توزیع می باشد و در مقایسه با روش های توزیعی تصادفی، سرعتی برابر و دقتی بالاتر دارد. آزمایش ها بر روی مجموعه دادگان VGGFace2 و  MS-Celeb-1M و Glint360K اجرا شده و نشان می دهد که این روش علاوه بر عملکرد بهتر، مقیاس پذیری بالاتری را در بازشناسی چهره دارد.

    کلید واژگان: بازشناسی چهره، شناسایی چهره، خوشه بندی، یادگیری عمیق، یادگیری توزیعی
    Sayed Mohammad Ahmadi*, Rouhollah Dianat

    Face recognition poses challenges in accuracy, memory efficiency, and computational complexity. This study proposes a two-stage, three-module approach: Subnetwork modules, Cluster-Finder unit, and Final-Decision module. Unlike random distribution methods, our approach employs clustering for distribution. Each subnetwork, a supervised deep neural network, is trained with cluster-specific data. The Cluster-Finder unit compares test data similarity with each subnetwork’s representative. The Final-Decision module selects the best class. Results indicate superior accuracy, recall, and F1 score compared to competitive methods. The approach is faster and more accurate than non-distribution methods, with comparable speed and higher accuracy than random distribution methods. Experiments on VGGFace2, MS-Celeb-1M, and Glint360K datasets confirm both superior performance and scalability. The proposed method, using KMeans for distribution, outperforms Softmax Dissection and Dynamic Active Class Selection. It simplifies training without additional manipulations, offering efficiency over methodologies like Softmax Dissection and ArcFace parallelization. In conclusion, this study focuses on pre-processing and post-processing without added training complexity. A divide-and-conquer approach addresses accuracy and efficiency challenges. In this study, various sources leading to errors in face recognition systems have been examined. These sources include: imprecise features, overfitting, challenging classes, distribution issues, and decision-making complexities. Various classification scenarios are explored, including non-distributed and models with random and intelligent distributions. Inaccurate features uniformly impact all scenarios, with overfitting posing the greatest challenge in non-distributed scenarios. Challenging classes are better distinguished in intelligent distribution scenarios. Inappropriate distribution has less impact in intelligent scenarios, and decision-making challenges exist in both distributions

    Keywords: Face Recognition, Face Identification, Clustering, Deep Learning, Distributed Learning
  • راهله قوچان نژادنورنیا، مهرداد جلالی*، محبوبه هوشمند

    امروزه آلیاژهای آنتروپی بالا یکی از حوزه های محبوب برای محققان می باشند که عملکرد آنها با استفاده از یادگیری ماشین بهبود یافته اند. آلیاژهای آنتروپی بالا از حداقل پنج عنصر اصلی با اندازه های نزدیک به هم تشکیل شده اند که ویژگی های آنها به اندازه و انواع عناصر بستگی دارد تا خواص فیزیکی و مکانیکی را بهبود دهند. رویکرد یادگیری ماشین در زمینه های مختلف کاربردهای فراوانی دارد. تحلیل شبکه های اجتماعی یکی از ابزارهای یادگیری ماشین است که از نظریه گراف استفاده می کند. هر گراف از تعدادی گره و یال تشکیل شده است که هر گره دارای ویژگی های خاص خود است. کارهایی که تاکنون انجام شده است از مجموعه داده آلیاژ آنتروپی بالا شبکه مبتنی بر میزان نزدیکی محتوایی و ساختاری ویژگی های هر ترکیب استفاده نکرده اند. در این مقاله، روشی نوین ارایه شده است که ابزار شبکه اجتماعی را به مهندسی متالوژی و مواد تعمیم می دهد. روش پیشنهادی با استفاده از ابزار شبکه اجتماعی به بررسی خواص آلیاژهای آنتروپی بالا پرداخته است که شباهت آلیاژها محاسبه شده و بر اساس آن شبکه اجتماعی مواد ساخته شده است. با بکار بردن تکنیک الگوریتم لووین، گروه هایی از این آلیاژها استخراج شده است که هر گروه به نام خوشه دارای آلیاژهایی با خواص مشابه است. نتایج عملی بدست آمده، خوشه های با کیفیت بالایی را نشان می دهد که در پیش بینی عملکرد ترکیبات و کشف ترکیبات و ویژگی های جدید موثر خواهند بود. معیار پیمانگی که بیانگر کیفیت خوشه ها است حدود 713/0 بدست آمده است.

    کلید واژگان: خوشه بندی، شبکه اجتماعی، کشف جامعه، یادگیری ماشین، آلیاژهای آنتروپی بالا
    Raheleh Ghouchan Nezhad Noor Nia, Mehrdad Jalali*, Mahboobeh Houshmand

    Nowadays, high-entropy alloys (HEAs) are a popular domain for researchers which is improved performance by using machine learning (ML). HEAs are formed at least five main elements with close or equal size which is depend on their size and type of elements to extend physical and mechanical features. The ML approach has many applications in various fields. Social network analysis (SNA) is one of the ML tools that is used graph theory. Each graph consists of a number of nodes and edges that each node has its own descriptors. The studies done so far has not used the high-entropy alloys network dataset based on the similarity of content and structural features of each compound. In this paper, a new method is proposed that generalized SNA tools to metallurgical and materials engineering. The proposed method is investigated the HEAs descriptors, in which HEAs descriptors similarity are calculated and the HEAs interaction network is created. The groups have been extracted by Louvain algorithm which each group called cluster. The clusters have alloys with similar properties. The experimental results shown high quality clusters that will be effective in predicting the compounds functionality and discovering new compounds and descriptors. The modularity criterion indicates the quality of the clusters, is about 0.713.

    Keywords: Clustering, Social network, Community detection, Machine learning, High-entropy alloys
  • Mohammad Reza Keyvanpour*, Zahra Karimi Zandian, Fatemeh Morsali

    Software evolution and continuous changes make maintenance difficult, reducing the quality of software structure and architecture. To cope with this challenge, re-modularization is used to promote the modular structure of software system by the re-grouping of software elements. In this paper, the proposed method recognizes various dependencies in terms of an objective function unlike what has been stated in some other methods. In this method, a search-based many-objective fitness function is proposed to formulate re-modularization as an optimization problem. The results of the proposed method have been compared to the effects of four other methods based on MQ and NED. The results show the proposed method improved re-modularization remarkably compared to others in terms of both MQ and NED criteria especially for smaller software. Therefore, the proposed method can be effective in redefining real-world applications.

    Keywords: Software, Re-modularization, Multi-objective function, Elements dependencies, Clustering, Search-based algorithm
  • پیام بحرانی، بهروز مینایی بیدگلی، حمید پروین*، میترا میرزارضایی، احمد کشاورز

    سامانه های پیشنهادگر سامانه هایی هستند که در گذر زمان یاد می گیرند که هر فرد یا مشتری احتمالا چه کالا یا قلمی را می پسندد و آن را به او پیشنهاد می دهند. این سامانه ها اغلب بر اساس رفتارهای مشابه از دیگر افراد (احتمالا مشابه) عمل می کنند. به طور کلی یافتن افراد مشابه، به علت زیاد بودن کاربران، فرایندی بسیار زمان بر و به علت کمبود اطلاعات، نادقیق است. به همین دلیل برخی از روش ها، رو به افزایش سرعت آورده اند. از طرفی، برخی از روش های دیگر، رو به افزودن اطلاعات اضافه آورده تا در گذر این اطلاعات بتوانند دقت یافتن کاربران مشابه یا همسایه را افزایش دهند. برخی دیگر نیز، به روش های ترکیبی رو آورده اند. اخیرا محققان با به کارگیری روش های خوشه بندی پایه که بر اساس یافتن شبیه ترین کاربران همسایه با کمک خوشه بندی کاربران می باشد، و همچنین استفاده از روش های محتوا پایه و بعضا اضافه نمودن هستان شناسی به روش های محتوا پایه توانسته اند با بهره گیری از مزایای این روش ها، برخی از چالش های فوق را تا حد قابل قبولی حل نمایند. در سامانه پیشنهادگر ترکیبی پیشنهادی، از یک سامانه دو مرحله ای استفاده کرده ایم که در مرحله اول، دو مدل پیش بینی های خود را انجام داده، سپس در مرحله دوم به وسیله یک مولفه ترکیب گر، نتایج دو بخش مرحله اول با یکدیگر ترکیب شده و نتایج به دست آمده را به عنوان نتایج نهایی سامانه به ما ارایه می دهد. در بخش اول، یک سامانه مبتنی بر پر کردن مقادیر گم شده، مقادیر خالی در ماتریس امتیازدهی را پر می کند. برای این مهم، از بین روش های پرکردن داده های گم شده، یک روش که با پرکردن مجموعه داده در شرایط بسیار تنک سازگار بود را طراحی کرده و سپس آن را به روش خودمان تعمیم داده ایم. در این راستا یک روش مبتنی بر خوشه بندی فاصله گری ارایه کرده ایم. در بخش دوم که خود یک سامانه پیشنهادگر ترکیبی هستان شناسی پایه می باشد، ابتدا به کمک یک خزنده وب، اطلاعات هر قلم را استخراج کرده، سپس در یک هستان شناسی پایه به کمک یک روش پیشنهادی، اقدام به بهبود ساختار هستان شناسی به وسیله حذف یال های همسان می نماییم. بدین ترتیب دقت اندازه گیری شباهت معنایی بین اقلام و کاربران در مراحل بعدی افزایش یافته و میزان اثربخشی پیشنهادات ارایه شده به طور با معنایی بهبود می یابد. شایان ذکر است این هستان شناسی یک هستان شناسی جامع نیست. درنهایت به کمک یک روش اندازه گیری شباهت ابتکاری هستان شناسی پایه، مشابهت قلم-قلم ها، کاربر-کاربرها، و کاربر-قلم ها را اندازه گیری می کنیم. به کمک این ماتریس مشابهت، کاربرها و قلم ها را خوشه بندی کرده و سپس برای هر کاربر، کاربرها و قلم های شبیه به آن را به عنوان یک ویژگی جدید در پروفایل کاربر ذخیره می نماییم. این کار به ما کمک می کند که در آینده، سرعت یافتن کاربرهای مشابه و قلم های مشابه را بالا ببریم. در حقیقت بر اساس این ویژگی، سرعت کل کار را افزایش داده ایم. از آنجایی که ما هدف خود را ساختن سامانه ای که یک موازنه بین دو معیار دقت و سرعت را برقرار کند قرار داده ایم، با استفاده از یک مجموعه داده واقعی، از این دو معیار جهت ارزیابی سامانه پیشنهادی استفاده می کنیم. نتایج مقایسه ی روش پیشنهادی ما با برخی روش های مشابه به روز ارایه شده در این حوزه (با استفاده از یک مجموعه داده یکسان) حاکی از آن است که روش ما از روش های سریع، کندتر است، اما از آنها دقیق تر می باشد. همچنین این نتایج بیانگر این موضوع است که روش پیشنهادی از روش های دقیق، سریع تر و کیفیت آن نیز قابل رقابت و یا حتی بهتر است.

    کلید واژگان: سامانه پیشنهادگر، هستان شناسی، پالایش حافظه پایه، پالایش مدل پایه، خوشه بندی، k-NN
    Payam Bahrani, Behrouz Minaei Bidgoli, Hamid Parvin*, Mitra Mirzarzaei, Ahmed Keshavarz

    Recommender systems are systems that, over time, learn what product(s) or item(s) each person or customer is (are) likely to like and recommend it (them) to him/her. These systems often operate based on similar behaviors from other (possibly similar) people. Finding similar people is generally a highly time-consuming process due to the large number of users and inaccurate due to the lack of information. For this reason, some methods have resorted to increasing speed. On the other hand, some other methods have added additional information so that they can increase the accuracy of finding similar or neighboring users. Some others have resorted to hybrid methods. Recently, by the use of basic clustering methods, which is based on finding the most similar neighbors with the help of users’ clustering, as well as by using basic content analysis methods and sometimes adding ontology to these methods, researchers have been able to take the advantage of these methods in order to solve some of the above challenges acceptably. In the proposed hybrid recommender system, we have used a two-stage system in which, in the first stage, two models of predictions are made, then in the second stage, by a combining component, the results of the first two parts are combined and the obtained results are given to us as the final results of the system. In the first part, a system based on imputation of missing values fills in the blanks in the scoring matrix. For this end, among the methods of the missing data imputation, we designed a method that was compatible with filling the data set in very sparse conditions, and then generalized it to our own method. In this regard, we have proposed a method based on the grey distance clustering. In the second part, which itself is a hybrid ontology-based recommender system, we first extract the information of each item with the help of a web crawler, then based on a basic article, we produce our own limited ontology, and after that we apply our proposed method. Then, with the help of a proposed method, we improve the ontology structure, thus increasing the accuracy of measuring semantic similarity between the items and users in later stages, and significantly improving the effectiveness of the created recommendations. It should be noted that this ontology is not comprehensive. Finally, we measure the similarity of item-items, user-users, and user-items using an innovative basic ontology similarity measurement method. By the use of this similarity matrix, we cluster users and items, and then store similar users and items as a new feature in the user/item profile for each user/item. This will help us speed up the process of looking for similar users and similar items in the future. In fact, based on this feature, we have increased the speed of the whole work. Since we have set our goal to build a system that makes a balance between the two criteria of accuracy and speed, we use these two criteria to evaluate the proposed system using a real data set. The results of comparing our proposed method with some up-to-date similar methods presented in this field (using the same data set) implies that our method is slower than fast methods, although it is more accurate than them. These results also suggest that the proposed method is faster than accurate methods and its quality is more competitive or even better than them.

    Keywords: Recommender System, Ontology, Memory-based Filtering, Model-based Filtering, Clustering, k-NN
  • مهسا رحیمی رسکتی، همایون موتمنی، ابراهیم اکبری، حسین نعمت زاده

    ما در دنیایی زندگی می کنیم که وجود دوربین های خانگی و قدرت رسانه باعث شده تا با حجم خیره کننده ای از داده های ویدیویی سر و کار داشته باشیم. مسلم است روشی که بتوان با کمک آن، این حجم بالای فیلم را با سرعت و بهینه مورد دسترسی و پردازش قرار داد، اهمیت ویژه ای پیدا می کند. با کمک خلاصه سازی ویدیویی این مهم حاصل شده و فیلم به یک سری فریم یا کلیپ کوتاه ولی بامعنی خلاصه می گردد. در این پژوهش سعی گردیده در ابتدا داده با کمک الگوریتم K-Medoids خوشه بندی شود؛ سپس در ادامه با کمک شبکه توجه گرافی کانولوشنالی، جداسازی زمانی و گرافی انجام گیرد و در گام بعدی با کمک روش ردکردن اتصال، نویزها و موارد تکراری حذف گردد. سرانجام با ادغام نتایج به دست آمده از دو گام متفاوت گرافی و زمانی، خلاصه سازی انجام گیرد. نتایج به دو صورت کیفی و کمی و بر روی سه دیتاست SumMe، TVSum و OpenCv مورد بررسی قرار گرفت. در روش کیفی به طور میانگین 88% نرخ صحت در خلاصه سازی و 31% میزان خطا دست یافته که به نسبت سایر روش ها جزء بالاترین نرخ صحت است. در ارزیابی کمی نیز روش پیشنهادی، کارایی بالاتری نسبت به روش های موجود دارد.

    کلید واژگان: کاوش ویدئویی، خلاصه سازی ویدئویی، خوشه بندی، K-Medoids، شبکه توجه گرافی کانولوشنالی
    Mahsa RahimiResketi, Homayun Motameni, Ebrahim Akbari, Hossein Nematzadeh

    The increase of cameras nowadays, and the power of the media in people's lives lead to a staggering amount of video data. It is certain that a method to process this large volume of videos quickly and optimally becomes especially important. With the help of video summarization, this task is achieved and the film is summarized into a series of short but meaningful frames or clips. This study tried to cluster the data by an algorithm (K-Medoids) and then with the help of a convolutional graph attention network, temporal and graph separation is done, then in the next step with the connection rejection method, noises and duplicates are removed, and finally summarization is done by merging the results obtained from two different graphical and temporal steps. The results were analyzed qualitatively and quantitatively on three datasets SumMe, TVSum, and OpenCv. In the qualitative method, an average of 88% accuracy rate in summarization and 31% error rate was achieved, which is one of the highest accuracy rates compared to other methods. In quantitative evaluation, the proposed method has a higher efficiency than the existing methods.

    Keywords: Video mining, video summarization, clustering, K-Medoids, convolutional attention network
  • Saba Beiranvand *, MohammadAli Zare Chahooki

    Software Cost Estimation (SCE) is one of the most widely used and effective activities in project management. In machine learning methods, some features have adverse effects on accuracy. Thus, preprocessing methods based on reducing non-effective features can improve accuracy in these methods. In clustering techniques, samples are categorized into different clusters according to their semantic similarity. Accordingly, in the proposed study, to improve SCE accuracy, first samples are clustered based on original features. Then, a feature selection (FS) technique is separately done for each cluster. The proposed FS method is based on a combination of filter and wrapper FS methods. The proposed method uses both filter and wrapper advantages in selecting effective features of each cluster, with less computational complexity and more accuracy. Furthermore, as the assessment criteria have significant impacts on wrapper methods, a fused criterion has also been used. The proposed method was applied to Desharnais, COCOMO81, COCONASA93, Kemerer, and Albrecht datasets, and the obtained Mean Magnitude of Relative Error (MMRE) for these datasets were 0.2173, 0.6489, 0.3129, 0.4898 and 0.4245, respectively. These results were compared with previous studies and showed improvement in the error rate of SCE.

    Keywords: Software Cost Estimation (SCE), Software Effort Estimation (SEE), Machine Learning methods, Clustering, Feature Selection
  • Meysam Roostaee *, Razieh Meidanshahi

    In this study, we sought to minimize the need for redundant blood tests in diagnosing common diseases by leveraging unsupervised data mining techniques on a large-scale dataset of over one million patients' blood test results. We excluded non-numeric and subjective data to ensure precision. To identify relationships between attributes, we applied a suite of unsupervised methods including preprocessing, clustering, and association rule mining. Our approach uncovered correlations that enable healthcare professionals to detect potential acute diseases early, improving patient outcomes and reducing costs. The reliability of our extracted patterns also suggest that this approach can lead to significant time and cost savings while reducing the workload for laboratory personnel. Our study highlights the importance of big data analytics and unsupervised learning techniques in increasing efficiency in healthcare centers.

    Keywords: Clinical Data, data mining, Unsupervised learning, Association Rule Mining, Clustering
  • پیمان نعمت الهی*
    در اغلب کاربردهای شبکه های حسگر بیسیم امکان شارژ کردن باتری گره ها وجود ندارد، بنابراین پروتکل های طراحی شده برای این شبکه ها باید حتی المقدور انرژی-کارآمد باشند. خوشه بندی، یکی از رویکردهای اصلی برای طراحی پروتکل های انرژی-کارآمد و مقیاس پذیر شبکه های حسگر بیسیم است. استفاده از خوشه ها سربار ارتباطی ناشی از ارسال داده ها و در نتیجه مصرف انرژی و تداخل امواج بین گره ها را کاهش می دهد. علیرغم اهمیت خوشه بندی در شبکه های حسگر بیسیم، تاکنون معیارهایی برای ارزیابی کیفیت خوشه های حاصل از الگوریتم های خوشه بندی ارایه نشده است. در این مقاله، پس از ارایه چندین معیار برای ارزیابی کیفیت خوشه های تشکیل شده در پروتکل های خوشه بندی مختلف، این معیارها با استفاده از منطق فازی ترکیب می شوند. با کمک معیار فازی حاصل بهتر می توان کیفیت خوشه های تشکیل شده در الگوریتم های مختلف خوشه بندی را با هم مقایسه کرد. در پایان، درستی و امکانپذیر بودن این معیار ارزیابی فازی، با شبیه سازی سه پروتکل کاربردی و مقایسه نتایج ارزیابی معیارها با آنچه در واقعیت اتفاق افتاده است صحت سنجی می شود.
    کلید واژگان: خوشه بندی، منطق فازی، کارآمدی انرژی، طول عمر شبکه، شبکه حسگر بیسیم
    Peyman Neamatollahi *
    In most applications of wireless sensor networks, it is not possible to charge the nodes' batteries, so the protocols designed for these networks must be as energy-efficient as possible. Clustering is one of the main approaches to designing energy-efficient and scalable protocols for wireless sensor networks. The use of clusters reduces the communication overhead caused by data transmission as well as energy consumption and wave interference between nodes. Despite the importance of clustering in wireless sensor networks, no criteria have yet been proposed to evaluate the quality of clusters derived from clustering algorithms. This paper defines several criteria for evaluating the quality of clusters formed in different clustering protocols. Then, these criteria are combined using fuzzy logic. With the help of the resulting fuzzy criterion, the quality of clusters formed in different clustering algorithms can be better compared. Finally, the correctness and feasibility of this fuzzy evaluation criterion have been verified by simulating three applied protocols and comparing the metrics evaluation results with what is actually happening.
    Keywords: Clustering, Fuzzy logic, Energy efficiency Network lifetime, Wireless Sensor Network
  • Pouya Aryai, Ahmad Khademzadeh *, Somayyeh Jafarali Jassbi, Mehdi Hosseinzadeh
    Wireless body area network (WBAN) is a type of wireless communication network, which consists of tiny bio-sensor nodes attached to or implanted in the human body, to continuously monitor the patient by medical staff. Energy efficient routing in WBANs is of utmost importance, as bio-sensors are highly resource-constrained. Although many heuristic- and metaheuristic-based routing protocols have been proposed for WBANs, they suffer from some drawbacks: low solution quality of heuristics and low speed of metaheuristics in online routing. To overcome these drawbacks and simultaneously benefit from the advantage of both techniques, we present an ensemble heuristic-metaheuristic protocol (called CHM) as an adjustable routing solution for WBANs. In CHM, a multi-criteria heuristic based on the residual energy, distance to sink, path loss, and history of becoming a relay node, is used to select proper cluster heads. Furthermore, a metaheuristic algorithm using a genetic algorithm is applied to automatically tune the heuristic protocol. Simulation results in MATLAB using IEEE 802.15.6 on different WBANs demonstrate the performance of the introduced CHM protocol when compared with the existing routing protocols in terms of prolonging the application-specific network lifetime definition.
    Keywords: Wireless body area networks (WBANs), Clustering, routing, heuristic algorithms, Genetic Algorithm
  • الهام حامدی، میترا میرزارضایی*

    با اختصاص بخش قابل توجهی از بودجه مربوط به حقوق و دستمزد بانک ها به شیوه پرداخت مبتنی بر عملکرد توجه به پتانسیل های کسب و کاری شعب اهمیت یافته است. از این رو مسیله تعیین ضرایب اهمیت شاخص های ارزیابی عملکرد مبتنی بر فضای کسب و کاری به یک چالش برای مدیران بانکی تبدیل شده است. در این مقاله مسیله بهینه سازی ضرایب اهمیت شاخص های ارزیابی عملکرد شعب در یکی از بانک های دولتی ایران با در نظرگرفتن فضای کسب و کاری شعب مورد بررسی قرار گرفته است. برای این منظور یک رویکرد دو مرحله ای ارایه شده در گام اول از یک روش خوشه بندی رایج برای تعیین فضای کسب و کاری هر شعبه استفاده شده و در گام دوم یک الگوریتم ژنتیک دوهدفه نوین به منظور بهینه سازی ضرایب اهمیت هر خوشه پیشنهاد شده است. روش پیشنهادی با چهار روش شناخته شده مقایسه شده و نتایج در مواردی عملکرد موثر روش پیشنهادی را نشان می دهد.

    کلید واژگان: فضای کسب و کاری شعب، ضرایب اهمیت شاخص های ارزیابی عملکرد، خوشه بندی، بهینه سازی، الگوریتم ژنتیک چندهدفه
    Elham Hamedi, Mitra Mirzarezaee*

    Nowadays, we are witnessing financial markets becoming more competitive, and banks are facing many challenges to attract more deposits from depositors and increase their fee income. Meanwhile, many banks use performance-based incentive plans to encourage their employees to achieve their short-term goals. In the meantime, fairness in the payment of bonuses is one of the important challenges of banks, because not paying attention to this issue can become a factor that destroys the motivation among employees and prevents the bank from achieving its short-term and mid-term goals. This article is trying to tackle the problem of optimizing the coefficients of branch performance evaluation indicators based on their business environment in one of the state banks of Iran. In this article, a two-objective genetic algorithm is proposed to solve the problem. This article is comprised of four main sections. The first section is dedicated to the problem definition which is what is our meaning of optimizing the importance coefficients of branches based on the business environment. The second section is about our proposed solution for the defined problem. In the third section, we are comparing the performance of the proposed two-objective genetic algorithm on the defined problem with the performance of four well-known multi-objective algorithms including NSGAII, SPEAII, PESAII, and MOEA/D. And finally, the set of ZDT problems which is a standard set of multi-objective problems is taken into account for evaluating the general performance of the proposed algorithm comparing four well-known multi-objective algorithms. Our proposed solution for solving the problem of optimizing branch performance coefficients includes two main steps. First, identifying the business environment of the branches and second, optimizing the coefficients with the proposed two-objective genetic algorithm. In the first step, the k-means clustering algorithm is applied to cluster branches with similar business environments. In the second step, to optimize the coefficients, it is necessary to specify the fitness functions. The defined problem is a two-objective problem, the first objective is to minimize the deviation of the real performance of the branches from the expected performance of them, and the second objective is to minimize the deviation of the coefficients from the coefficients determined by the experts. To solve this two-objective problem, a two-objective genetic algorithm is proposed. In this article, two approaches are adopted to compare the proposed solution performance. In the first stage, the results of applying the proposed two-objective genetic algorithm have been compared with the results of applying four well-known multi-objective genetic algorithms on the problem of optimizing the coefficients. The results of this comparison show that the proposed algorithm has outperformed the other compared methods based on the S indicator and run time, and it is also ranked second after the NSGAII algorithm in terms of the HV indicator. Finally, for evaluating the performance of the proposed algorithm with other well-known methods, the set of ZDT problems including ZDT1, ZDT2, ZDT3, ZDT4, and ZDT6 has also been taken into consideration. At this stage, the performance of the proposed algorithm has been compared with the four mentioned algorithms based on four key indicators, including GD, S, H, and run time. The results show, the proposed algorithm has outperformed significantly in terms of run time in all five ZDT problems. In terms of GD indicator, the performance of our proposed algorithm is located in the first or second rank among all considered algorithms. In addition, in terms of S and H indicators in many cases, the proposed algorithm outperformed the other well-known algorithms.

    Keywords: Branch business space, coefficients of performance evaluation indicators, clustering, optimization, two-objective genetic algorithm
  • Faraein Aeini *
    This paper presents the development of a new algorithm called F-MPSO, which aims to enhance energy efficiency and extend the lifetime of wireless sensor networks. The F-MPSO algorithm aims to optimize the selection of cluster heads, which is a problem that falls under the category of Non-Deterministic Polynomial (NP)-hard problems. To address this challenge, a hybrid metaheuristic approach has been implemented using manifold distance to cluster the sensor nodes. We recommend using a combination of the Firefly approach for local updates and the PSO approach for global updates to create a reliable cluster. Our strategy aims to improve the overall lifespan of the network. We use a metric that takes into account the different routes available and gives preference to paths that go through intermediate sensors with high residual energy, rather than simply selecting the shortest distance between a regular node and cluster heads with low residual energy. Based on the analysis conducted using Matlab, it has been determined that the F-MPSO algorithm proposed is highly efficient regarding energy consumption. Additionally, it has been deemed successful in extending the network lifetime. Results from round 1600 indicate that the proposed method had approximately 78 still operational nodes. On the other hand, Leach's algorithm had no live nodes, while enhanced-LEACH and ESO_LEACH had 25 and 53 live nodes, respectively. Furthermore, the author has compared the results with previous algorithms, and the outcome shows excellent promise.
    Keywords: Wireless Sensor Networks, Metaheuristic, Clustering, Energy efficiency, Manifold distance
  • سمانه شیبانی، حسن شاکری *، رضا شیبانی

    در دهه های اخیر رویکرد محاسبه و اعمال اعتماد بین کاربران در طراحی سیستم های پیشنهاددهنده مورد توجه محققان قرار گرفته است. با وجود این، اغلب سیستم های پیشنهاددهنده مبتنی بر اعتماد فقط از یک فاکتور برای تخمین مقدار اعتماد استفاده می کنند. در این مقاله یک رویکرد چندفاکتوری برای تخمین اعتماد بین کاربران سیستم های پیشنهاددهنده ارایه می شود. در طرح پیشنهادی، ابتدا کاربران سیستم براساس شباهت مبتنی بر اطلاعات دموگرافیک و تاریخچه ارزشیابی ها خوشه بندی می شوند. برای تخمین ارزشیابی کاربر فعال به یک آیتم خاص، مقدار اعتماد بین او و سایر کاربران هم خوشه اش با درنظرگرفتن فاکتورهای زمان، مکان، و زمینه ارزشیابی محاسبه می شود. برای این منظور، ما الگوریتمی مبتنی بر توزیع بتا معرفی می کنیم. یک معیار مبتنی بر درخت جدید برای محاسبه شباهت معنایی بین زمینه ها مورد استفاده قرار می گیرد. در نهایت، ارزشیابی کاربر فعال با استفاده از میانگین گیری وزنی تخمین زده می شود که مقادیر اعتماد به عنوان وزن در میانگین گیری منظور می شوند. طرح پیشنهادی بر روی سه مجموعه داده مطرح اجرا شده و ارزیابی و مقایسه نشان می دهد که این طرح نتایج بهتری از نظر ملاک های دقت و کارآمدی نسبت به روش های موجود ارایه می کند.

    کلید واژگان: اعتماد، پیشنهاد آگاه از زمینه، توزیع بتا، خوشه‏ ‏بندی، سیستم ‏های پیشنهاددهنده
    Samaneh Sheibani, Hassan Shakeri *, Reza Sheybani

    Calculation and applying trust among users has become popular in designing recommender systems in recent years. However, most of the trust-based recommender systems use only one factor for estimating the value of trust. In this paper, a multi-factor approach for estimating trust among users of recommender systems is introduced. In the proposed scheme, first, users of the system are clustered based on their similarities in demographics information and history of ratings. To predict the rating of the active user into a specific item, the value of trust between him and the other users in his cluster is calculated considering the factors i.e. time, location, and context of their rating. To this end, we propose an algorithm based on beta distribution. A novel tree-based measure for computing the semantic similarity between the contexts is utilized. Finally, the rating of the active user is predicted using weighted averaging where trust values are considered as weights. The proposed scheme was performed on three datasets, and the obtained results indicated that it outperforms existing methods in terms of accuracy and other efficiency metrics.

    Keywords: Recommender systems, Trust, Beta Distribution, Clustering, context-aware recommendation
  • محمدرضا کیوان پور، زهرا کریمی زندیان، نسرین متقی
    MohammadReza Keyvanpour *, Zahra Karimi Zandian, Nasrin Mottaghi

    Regression testing reduction is an essential phase in software testing. In this step, the redundant and unnecessary cases are eliminated, whereas software accuracy and performance are not degraded. So far, various researches have been proposed in regression testing reduction field. The main challenge in this area is to provide a method that maintain fault-detection capability while reducing test suites. In this paper, a new test suite reduction technique is proposed based on data mining. In this method, in addition to test suite reduction, its fault-detection capability is preserved using both clustering and classification. In this approach, regression test cases are reduced using a bi-criteria data mining-based method in two levels. In each level, the different and useful coverage criteria and clustering algorithms are used to establish a better compromise between test suite size and the ability of reduced test suite fault detection. The results of the proposed method have been compared to the effects of five other methods based on PSTR and PFDL. The experiments show the efficiency of the proposed method in the test suite reduction in maintaining its capability in fault detection.

    Keywords: Test suite reduction, Software, data mining, Coverage criteria, Clustering
نکته
  • نتایج بر اساس تاریخ انتشار مرتب شده‌اند.
  • کلیدواژه مورد نظر شما تنها در فیلد کلیدواژگان مقالات جستجو شده‌است. به منظور حذف نتایج غیر مرتبط، جستجو تنها در مقالات مجلاتی انجام شده که با مجله ماخذ هم موضوع هستند.
  • در صورتی که می‌خواهید جستجو را در همه موضوعات و با شرایط دیگر تکرار کنید به صفحه جستجوی پیشرفته مجلات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال