کمال میرزایی
-
نوشته ی حاضر، بررسی برخی مشکلات مدل سازی، بیان ویژگی ها و نیز تجزیه و تحلیل سیستم های پیچیده ی پویا (CDS) با استفاده از نقشه های شناختی فازی (FCM) و مطالعه موردی عوامل موثر بطلاق است. تجزیه و تحلیل و کنترل کارآمد CDS مبین آنست که، مشکل کلیدی CDS و تیوری کنترل؛ توسعه روش های تحلیل کیفی پویا و رفتار چنین سیستم هایی و ساخت الگوریتم های کنترل مناسب برای عملکرد موثر آنها است. مشکل آنست که توصیف کیفی بیشتر پارامترهای سیستم های پیچیده ی پویا، ناچارا منجر به ابهام، پیچیدگی و عدم قطعیت می شود، که نقشه های شناختی فازی (FCM) زمینه لازم برای تولید دانش جدید بر اساس برنامه های کاربردی سیستم را فراهم نموده و نیاز به رسیدگی به عدم قطعیت ها، ابهامات و نادرستی های مرتبط با مشکلات واقعی CDS را برطرف می کنند. در این مطالعه که بر روی عوامل موثر بر طلاق انجام شده است، ابتدا اصول اولیه FCM به طور خلاصه مطرح شده و سپس الگوریتم NHL برای آموزش مدل FCM و تنظیم وزنها با استفاده از عبارات فازی و تبدیل داده های کیفی مورد بحث قرار گرفته که نتایج حاصل می تواند نشان دهنده موفقیت و پیشرفت بیشتر مدل سازی و کنترل CDSبا استفاده از روش های محاسبات نرم باشد.کلید واژگان: نقشه های شناختی فازی، سیستم های پیچیده ی پویا، مدلسازی، الگوریتم هبیان غیر خطی، عوامل موثر بر طلاقThis article is an investigation of some problems of modeling, expression of characteristics and analysis of Complex Dynamic Systems (CDS) using Fuzzy Cognitive Maps (FCM). Efficient analysis and control of CDS is impossible without a formal model of the system. The key problem of CDS and control theory is to develop methods to qualitatively analyze the dynamics and behavior of such systems and to construct efficient control algorithms for their efficient operation. Most qualitative description of the parameters of complex dynamic systems inevitably leads to ambiguity, complexity and uncertainty. Reasons for using Fuzzy Cognitive Maps (FCM) in CDS modeling are presented. FCMs provide an opportunity to generate new knowledge based on system applications and address the need to address the uncertainties, ambiguities, and inaccuracies associated with real CDS problems. In this study, the basic principles of FCM are briefly presented and then the NHL algorithm for training the FCM model and adjusting these weights. With fuzzy expressions and converting qualitative data into quantitative, a presentation and an example about the factors affecting the phenomenon of divorce were presented. The example results are promising, further development of CDS modeling and control using soft computing methods.Keywords: fuzzy cognitive maps, Complex Dynamic Systems, Modeling, nonlinear Hebbian algorithm, Factors affecting divorce
-
این پژوهش برای افزایش دقت تخصیص اعتبار قوانین در سیستم دسته بند یادگیر با استفاده از یادگیری تقویتی مارکوف جهت پیش بینی ساختار دوم پروتیین است که یادگیری تقویتی مارکوف در سیستم دسته بند یادگیر، جایگزین الگوریتم Bucket Brigade شده است. برای آموزش سیستم از مجموعه دادگان Protein Data Bank استفاده می شود که شامل پروتیین 4L1W با تعداد نمونه 5741 است که 70 درصد برای آموزش و 30 درصد جهت آزمایش استفاده شده است. پس از آموزش سیستم، تعدادی دسته بند (قوانین) باارزش، تولید می شود که در مرحله آزمایش از این قوانین برای پیش بینی ساختار دوم پروتیین استفاده خواهد شد. نتایج آزمایش ها نشان می دهد دقت سیستم دسته بند یادگیر با یادگیری تقویتی مارکوف در نوع ساده و توسعه یافته آن، افزایش یافته است. با استفاده از یادگیری تقویتی مارکوف، ارزش گذاری به هر قانون بهبود داده می شود، به گونه ای که دقت سیستم دسته بند ساده %82.5 و سیستم دسته بند توسعه یافته %85 بهبود یافته است.
کلید واژگان: بیوانفورماتیک، ساختار دوم پروتئین، سیستم دسته بند یادگیر، یادگیری تقویتی مارکوفThis research aims to enhance the accuracy of credit assignment for rules in a learning classifier system using Markov Reinforcement Learning for predicting the secondary structure of proteins. Markov Reinforcement Learning has replaced the Bucket Brigade algorithm in the learning classifier system. The Protein Data Bank dataset is utilized to train the system, specifically the protein 4L1W with 5741 samples, where 70% is used for training and 30% for testing purposes. Following the system's training, a set of valuable classifiers (rules) is generated, which will be employed in the testing phase to predict the protein's secondary structure. The experimental results demonstrate an improvement in the accuracy of the Markov Reinforcement Learning classifier system, both in the Learning classifier system and the eXtended classifier system. Through Markov Reinforcement Learning, the credit assignment to each rule is enhanced, resulting in an accuracy improvement of 82.5% for the Learning classifier system and 85% for the eXtended classifier system.
Keywords: Bioinformatics, Protein Secondary Structure, Learning Classifier System, Markov Reinforcement Learning -
زمینه و هدف
یکی از مسائل بهینه سازی تخصیص منابع می باشد. بدین معنی که تخصیص منابع در مکان های مختلف به گونه ای باشد که هزینه تخصیص مسئله کمتر شود. مسئله تخصیص منابع علاوه بر جنبه نظری آن، می تواند در مسائل کاربردی مختلف از جمله زمانبدی منابع پروژه، توزیع مواد غذائی در سوپر مارکت های سطح شهر ، تخصیص مراکز درمانی و اورژانسی در یک شهر و غیره استفاده شود. برای حل این گونه مسائل می توان از الگوریتم های هوش جمعی استفاده کرد.
روش کاردر این مقاله از الگوریتم بهینه سازی ازدحام ذرات برای حل مسائل مختلف تخصیص استفاده شده است. به منظور افزایش کارائی الگوریتم بهینه سازی ازدحام ذرات به کمک جستجوی محلی بهبود یافته است. به منظور تقویت بهتر ارتباط بین ذرات از مفهوم شبکه پیچیده استفاده شده است. برای تصمیم گیری برای انتخاب ذرات وضعیت آن ذره در شبکه پیچیده موثر می باشد. سنجه درجه برای انتخاب راه حل ها در شبکه پیچیده در نظر گرفته شده است. برای ارزیابی نتایج از دو گروه مسائل بهینه سازی استفاده شده است. گروه اول مسائل استاندارد و نظری مختلف از کتابخانه QAPLib برای حل مسئله تخصیص درجه دوم می باشد. گروه دوم نیز یک مسئله مکان یابی مراکز درمانی و اورژانسی با در نظر گرفتن احتمال خرابی مراکز مطابق با شرایط دنیای واقعی پیاده سازی شده است. در این مسئله به این موضوع پرداخته می شود که با توجه به معیارهای موقعیت، هزینه ساخت و بازسازی و فاصله مراکز درمانی و اورژانسی از یکدیگر در لکه های جمعیتی مختلف مراکز درمانی و اورژانسی شهری در کدام لکه جمعیتی ایجاد گردد.
یافته هانتایج ارزیابی هر دو گروه نشان از میانگین هزینه و درصد خطای کمتر الگوریتم پیشنهادی بهینه سازی ازدحام ذرات ممتیکی به همراه شبکه پیچیده با سنجه درجه نسبت به الگوریتم بهینه سازی ازدحام ذرات ممتیکی و الگوریتم بهینه سازی ازدحام ذرات پایه می باشد. به طور نمونه، برای حل مسئله Tia60 الگوریتم بهینه سازی ازدحام ذرات شبکه ای ممتیکی، الگوریتم ممتیکی و پایه به ترتیب 4.55%، 4.59% و 8.15% درصد خطا دارند.
نتیجه گیریالگوریتم پیشنهادی بهینه سازی ازدحام ذرات ممتیکی به همراه شبکه پیچیده با سنجه درجه برای مکان یابی مراکز درمانی و اورژانسی نسبت به الگوریتم بهینه سازی ازدحام ذرات ممتیکی و الگوریتم ذرات پایه میانگین هزینه و درصد خطای کمتری دارد.
کلید واژگان: مکانیابی مراکز درمانی و اورژانس، مسئله تخصیص درجه دوم، الگوریتم ازدحام ذرات، شبکه پیچیدهBackground &
AimsOne of the optimization issues is resource allocation. This means that resources should be allocated in different places so that the cost of allocating the problem is reduced. In addition to its theoretical aspect, the issue of resource allocation can be used in various practical issues such as the timing of project resources, the distribution of foodstuffs in city-level supermarkets, the allocation of medical and emergency centers in a city, etc. Collective intelligence algorithms can be used to solve such problems. In the last decade, various collective intelligence algorithms have been used to solve complex problems such as resource allocation. In this article, the PSO algorithm and its improved variants are used. In the PSO algorithm, it refers to each of the components of a particle. To continue moving, each particle uses its previous experience and that of its neighbors. Every particle in space is moving at a speed. At every moment, this movement leads to the change of the current position of each particle in space. In the PSO algorithm, the communication between particles takes place in two parts of the algorithm. One is the personal best fit of each particle and the other is the best global fit. All the particles that are generated at the beginning of the algorithm as the initial population. Then the fit of each particle is calculated and stored as its personal best fit. In the same way, in updating the position of each particle, this value is compared with the fit of the same particle in the new position, if this fit is better than the previous position of the particle, it is stored as the best personal fit of the same particle. If there is a change in the personal best fit, the fit of this solution is compared with the global best fit. Then, the global best fit is updated.
MethodsIn this article, the particle swarm optimization algorithm is used to solve various allocation problems. To increase the efficiency, the particle swarm optimization algorithm has been improved with the help of local search. To better strengthen the communication between particles, the concept of a complex network has been used. The status of that particle in the complex network is effective for deciding on the choice of particles. The degree criterion is considered for selecting solutions in the complex network. Two groups of optimization problems have been used to evaluate the results. The first group is different standard and theoretical problems from the QAPLib library for solving the quadratic assignment problem. The second group is also a problem with the location of medical and emergency centers, considering the probability of the center's failure according to real-world conditions. In this issue, it is discussed that according to the criteria of location, cost of construction and reconstruction, and the distance of medical and emergency centers from each other in different population spots, urban medical and emergency centers should be established in which population spot.
ResultsIn order to compare and evaluate different proposed approaches for resource allocation, two groups of different problems have been used. The first group of standard problems from the QAPLib library is for quadratic assignment. The second group is solving the problem of locating medical and emergency centers in different population spots of the city. The evaluation results of both groups show the average cost and error percentage of the proposed memetic particle swarm optimization algorithm along with the complex network with degree measure compared to the memetic particle swarm optimization algorithm and the basic particle swarm optimization algorithm. For example, to solve the Tia60 problem, the memetic mesh particle swarm optimization algorithm, the memetic algorithm, and the base algorithm have 4.55%, 4.59%, and 8.15% error percentages, respectively.
ConclusionThe results of the implementation of the first to third algorithms for locating medical and emergency centers with 100 repetitions and an initial population size of 50 shows. The memetic degree complex grid particle swarm optimization algorithm has reached the optimal value faster than the standard PSO algorithm and PSO with local search. The third method is more suitable than the first and second method for locating medical and emergency centers. The proposed optimization algorithm of memetic particle swarm with the complex network with degree scale for locating medical and emergency centers has a lower average cost and error percentage than the memetic particle swarm optimization algorithm and basic particle algorithm. One of the problems of optimizing the allocation of resources is the location of medical and emergency centers in urban population spots. This problem has been solved with the help of three different meta-heuristic approaches. To allocate medical and emergency centers, a particle swarm optimization algorithm has been used. Then this algorithm has been converted into a memetic algorithm with the help of the proposed local search. To create a connection between particles, the concept of a complex network has been used. In the third proposed method, in addition to the particle swarm optimization algorithm, along with local search, a complex network with a degree scale is used. To evaluate the results, two groups of problems have been used. The first group has been used to solve various quadratic assignment problems from the QAPLib library. In the second group, the practical problem of locating medical and emergency centers of different population spots in the city is considered. To solve both groups, the proposed memetic complex network particle swarm optimization algorithm has a lower average cost and error percentage than the memetic particle swarm optimization algorithm and the basic particle swarm optimization algorithm. To improve the performance of the proposed algorithms, other metrics can be used in the complex network or he used other local search algorithms such as refrigeration simulation, and forbidden search.
Keywords: Location Of Medical, Emergency Centers, Quadratic Allocation Problem, Particleswarm Algorithm, Complex Network -
حل مسئله ماز یکی از مسایل کلاسیک در نظریه گراف است. مسئله ماز انواع مختلفی دارد که میتوان به مواردی چون ماز اعداد، ماز پیچوخم، ماز دایرهای، ماز تله و حلقه، ماز همیلتون و ماز بلوک اشاره کرد. سیستمهای دستهبند یادگیر بهطور موفقیتآمیز در مسایل مربوط به دستهبندی و دادهکاوی، مسایل یادگیری تقویت، مسایل رگرسیون، یادگیری نقشه شناختی و حتی مسایل کنترل ربات مورداستفاده قرار گرفته است. در این مقاله، برای حل مسئله ماز از سیستم دستهبند یادگیر تک عامل استفادهشده است که با شناخت محیط و یادگیری، مسیری را برای رسیدن به هدف پیدا میکند. بهمنظور یادگیری بهتر از اعمال تشویق و تنبیه مناسب استفاده میشود و همچنین جهت پوشش کامل فضای مسئله و فرار از بهینه محلی، از الگوریتم ژنتیک بهبودیافته، استفاده شده که شامل یک عامل جهش بهبودیافته است. نتایج پیادهسازی رویکرد پیشنهادی، بیانگر کاهش زمان حل مسئله و افزایش دقت الگوریتم است.
کلید واژگان: مسئله ماز، سیستم دسته بند یادگیر، الگوریتم ژنتیک بهبودیافته، جهش بهبودیافته -
در این مقاله از دور هامیلتونی در یک مسئله استاندارد و نظری بنام مسئله فروشنده دوره گرد و یک مسئله کاربردی بنام یافتن کوتاهترین مسیر هامیلتونی برای پیمودن تمام استان های ایران استفاده شده است. برای حل این گونه مسایل می توان از الگوریتم های هوش جمعی استفاده کرد که از عوامل طبیعی، زیست محیطی و اجتماعی نشات گرفته اند. الگوریتم بهینه سازی ازدحام ذرات یکی از الگوریتم های هوش جمعی است. در روش پیشنهادی، به منظور بهبود نتایج هر ذره از جستجوی محلی در روند جستجو و برای افزایش تبادل اطلاعات بهتر میان ذرات و انتخاب موقعیت بعدی مناسب تر هر ذره، از شبکه پیچیده، استفاده می شود. در این شبکه گره ای که راه حلی بهتری در آن نگهداری می شود همواره درجه آن گره بزرگ تر می شود. در شبکه پیچیده از دو سنجه درجه و درجه همسایگی برای یافتن راه حل بهتر استفاده شده است. برای مقایسه نتایج از مسایل استاندارد TSPLib استفاده شده که نتایج حاکی از هزینه بهتر روش بهینه سازی ازدحام ذرات با جستجوی محلی شبکه ای پیچیده نسبت به بهینه سازی ازدحام ذرات با جستجوی محلی و ازدحام ذرات استاندارد است، همچنین، درصد خطا نسبت به بهترین جواب موجود در TSPLib به ترتیب در الگوریتم های بهینه سازی ازدحام ذرات با جستجوی محلی شبکه ای پیچیده و بهینه سازی ازدحام ذرات با جستجوی محلی نسبت به روش ازدحام ذرات استاندارد، کاهش داشته است. به طور نمونه، برای حل مسیلهST70 در الگوریتم های بهینه سازی ازدحام ذرات شبکه ای و پایه میانگین هزینه حل مسئله به ترتیب 705 و 797 می باشد.
کلید واژگان: کوتاهترین دور هامیلتونی، فروشنده دوره گرد، الگوریتم ازدحام ذرات، الگوریتم های هوش جمعی، شبکه پیچیدهIn this paper, Hamiltonian cycle was used in a standard and theoretical problem called TSP as well as a practical problem called finding the shortest Hamiltonian cycle to cover all provinces of Iran. These kinds of problems can be solved using swarm intelligence algorithms derived from natural, environmental and social factors. Accordingly, the PSO Algorithm, which is one of the algorithms of swarm intelligence, was used . Search was also used to improve the results of each particle. Besides, a complex network was used in order to enhance the better exchange of information between particles and to select the next most appropriate position for each particle. In this network of nodes in which a better solution is maintained, the degree of that node is always greater. In the complex network, two criteria, degree and neighborhood degree, are used to find the best solution. The TSPLib standard problems were used to compare the results. The findings showed that the particle swarm optimization technique with a complex network local search was more cost-effective than the optimization of the particle swarm with local search and standard particle swarm in a way that the percentage of error to the best solution in TSPLib was reduced in the particle swarm optimization algorithms with complex network local search and the particle swarm optimization in the local search compared to the standard particle swarm method, respectively. To solve the ST70 in network and basic algorithms, the average cost of solving the problem is 705 and 797, respectively.
Keywords: Shortest Hamiltonian Cycle, Travelling Salesman Problem, Particle Swarm Algorithm, Complex Network -
به علت بدون ناظر بودن مساله خوشه بندی، انتخاب یک الگوریتم خاص جهت خوشه بندی یک مجموعه ناشناس امری پر خطر و به طورمعمول شکست خورده است. به خاطر پیچیدگی مساله و ضعف روش های خوشه بندی پایه، امروزه بیش تر مطالعات به سمت روش های خوشه بندی ترکیبی هدایت شده است. در خوشه بندی ترکیبی ابتدا چندین خوشه بندی پایه تولید و سپس برای تجمیع آن ها، از یک تابع توافقی جهت ایجاد یک خوشه بندی نهایی استفاده می شود که بیشینه شباهت را به خوشه بندی های پایه داشته باشد. خوشه بندی توافقی تولید شده باید با استفاده از بیشترین اجماع و توافق به دست آمده باشد. ورودی تابع یادشده همه خوشه بندی های پایه و خروجی آن یک خوشه بندی به نام خوشه بندی توافقی است. در حقیقت روش های خوشه بندی ترکیبی با این شعار که ترکیب چندین مدل ضعیف بهتر از یک مدل قوی است، به میدان آمده اند. با این وجود، این ادعا درصورتی درست است که برخی شرایط همانند تنوع بین اعضای موجود در اجماع و کیفیت آن ها رعایت شده باشند. این مقاله یک روش خوشه بندی ترکیبی را ارایه داده که از روش خوشه بندی پایه ضعیف cmeans فازی به عنوان خوشه بند پایه استفاده کرده است. همچنین با اتخاذ برخی تمهیدات، تنوع اجماع را بالا برده است. روش خوشه بندی ترکیبی پیشنهادی مزیت الگوریتم خوشه بندی cmeans فازی را که سرعت آن است، دارد و همچنین ضعف های عمده آن را که عدم قابلیت کشف خوشه های غیر کروی و غیر یکنواخت است، ندارد. در بخش مطالعات تجربی الگوریتم خوشه بندی ترکیبی پیشنهادی با سایر الگوریتم های خوشه بندی مختلف به روز و قوی بر روی مجموعه داده های مختلف آزموده و با یکدیگر مقایسه شده است. نتایج تجربی حاکی از برتری کارایی روش پیشنهادی نسبت به سایر الگوریتم های خوشه بندی به روز و قوی است.
کلید واژگان: یادگیری ترکیبی، خوشه بندی ترکیبی، الگوریتم خوشه بندی cmeans فازی، اعتبار داده هاAn ensemble clustering has been considered as one of the research approaches in data mining, pattern recognition, machine learning and artificial intelligence over the last decade. In clustering, the combination first produces several bases clustering, and then, for their aggregation, a function is used to create a final cluster that is as similar as possible to all the cluster bundles. The input of this function is all base clusters and its output is a clustering called clustering agreement. This function is called an agreement function. Ensemble clustering has been proposed to increase efficiency, strong, reliability and clustering stability. Because of the lack of cluster monitoring, and the inadequacy of general-purpose base clustering algorithms on the other, a new approach called an ensemble clustering has been proposed in which it has been attempted to find an agreed cluster with the highest Consensus and agreement. In fact, ensemble clustering techniques with this slogan, the combination of several poorer models, is better than a strong model. However, this claim is correct if certain conditions (such as the diversity between the members in the consensus and their quality) are met. This article presents an ensemble clustering method. This paper uses the weak clustering method of fuzzy cmeans as a base cluster. Also, by adopting some measures, the diversity of consensus has increased. The proposed hybrid clustering method has the benefits of the clustering algorithm of fuzzy cmeans that has its speed, as well as the major weaknesses of the inability to detect non-spherical and non-uniform clusters. In the experimental results, we have tested the proposed ensemble clustering algorithm with different, up-to-date and robust clustering algorithms on the different data sets. Experimental results indicate the superiority of the proposed ensemble clustering method compared to other clustering algorithms to up-to-date and strong.
Keywords: Ensemble Learning, Ensemble Clustering, Fuzzy Cmeans Clustering Algorithm, Data Validity -
مسئله تخصیص درجه دو یکی از مسایل بهینه سازی ترکیباتی متعلق به رده مسایل سخت بوده که دارای کاربردی وسیع در جایابی تجهیزات، طراحی صفحه کلید، طراحی تخته مدارهای کنترلی و سایر علوم مهندسی است. در این مقاله به بهبود سرعت و کارایی الگوریتم ژنتیک برای حل این مسئله پرداخته می شود. بدین منظور الگوریتم ممتیکی جستجوی ممنوعه، مطرح شده است. جستجوی ممنوعه با ایفای نقش به عنوان جستجوی محلی باعث افزایش استخراج در فضای جستجو می شود. به همین دلیل از همگرایی زودرس الگوریتم ژنتیک جلوگیری می کند. از طرفی به منظور جبران محاسبات ناشی از استفاده جستجوی ممنوعه، از واحد پردازش گرافیکی در بستر کودا برای موازی سازی پردازش ها استفاده شده است. به منظور مقایسه نتایج از مسئله تخصیص درجه دوم با اندازه های مختلف استفاده می شود. نتایج حاکی از افزایش سرعت اجرای پردازش ها تا 13 برابر نسبت به الگوریتم سریال ممتیکی جستجوی ممنوعه است. همچنین به دلیل ترکیب الگوریتم ژنتیک با جستجوی ممنوعه کارایی برای یافتن برازش مسیله، بهبود داشته است.
کلید واژگان: الگوریتم ژنتیک، الگوریتم جستجوی ممنوعه، الگوریتم موازی ممتیکی، واحد پردازش گرافیکی، کودا، مسئله تخصیص درجه دوم، پردازش موازی -
با توجه به محبوبیت و استفاده روز افزون از وسایل دیجیتال در زندگی روزمره بشر و همچنین گسترش به اشتراک گذاری تصاویر در شبکه های اجتماعی همچون فیس بوک، فلیکر، اینستاگرام و غیره و همچنین بارگذاری فیلم های مختلف در این شبکه ها، استفاده از تصاویر دیجیتال مخصوصا در دهه اخیر رشد قابل توجهی داشته است که در میان این تصاویر، درصد بالایی مربوط به تصاویر چهره انسان است و در مواردی از قبیل پایش تصویر برخط، تعامل انسان و ماشین، ردیابی شخص در ویدئو، بازیابی تصویر چهره افراد مجرم، کنترل تردد کارکنان سازمان و تفکیک دوست از دشمن در پایگاه های نظامی (از قبیل نیروی دریایی و...) کاربردهای فراوانی دارد. بنابراین دقت و سرعت بازیابی در این مسئله حائز اهمیت است. در این مقاله دو روش برپایه الگوی دودوئی محلی ارائه شده است که در نهایت با تشخیص لبه ترکیب می شود. برای افزایش سرعت روش ترکیبی پیشنهادی بصورت موازی در محیط CUDA C++ اجرا شده است. در این مقاله میزان دقت و سرعت بر روی مجموعه داده های مختلف ارزیابی شد و بطور متوسط زمان پردازش در GPU تا حدود 19 برابر در مجموعه دادهی با 1024 عکس در مقایسه با CPU کاهش یافت. نتیجه حاکی از این تحقیق بدین صورت بود که هرچه حجم مجموعه داده بزرگتر شود تاثیر موازی سازی بهتر است. بنابراین متغیرهایی که برای این مسئله ذکر می شود عبارتند از:1- دقت کار 2- زمان اجرا 3-مقیاس پذیر بودن سیستم
کلید واژگان: پردازش موازی، پردازنده گرافیکی، بستر CUDA، بازیابی تصویر چهرهGiven the growing popularity and use of digital devices in human daily life; an increase in image sharing on social networks such as Facebook , Flicker, Instagram as well as loading various clips on such networks , the utilization of digital images has sharply increased, particularly in the last decade, among them, a high percentage belongs to human face images(approximately above 60%) what matters here is face image retrieval using high accuracy feature extraction methods. The more precise method, the more time it requires to be processed. in this paper we plan to execute numerous high accuracy feature extraction methods in face image retrieval like LBP and its variants, HOG, SIFT, SURF and in some case the combination of above mentioned methods by suitable coding on GPU in order to examine the impact of processing speed and its accuracy compared to the CPU and propose the best method for it
Keywords: parallel processing, GPU, CUDA, Face Image Retrieval -
ربات در زندگی روزمره ی کنونی انسان دارای نقش مهم و اساسی می باشد. هر ربات دارای پارامترهایی می باشد که این پارامترها در انتخاب آن توسط کاربرد نقش به سزایی دارد. بنابراین با توجه به تنوع پارامترهای ربات، انتخاب ربات مناسب در هر کاربرد از مسائل مهم می باشد. امروزه ارزیابی هر ربات توسط ترکیب خطی از پارامترهای ربات توسط ضرایب ثابت انجام می شود اما انتخاب ضریب تاثیر هر پارامتر در رتبه بندی ربات باید به صورت پویا و براساس داده ی موجود محاسبه شود. در این مقاله ضمن معرفی پارامترهای مختلف تاثیرگذار در رتبه بندی ربات، ضریب هر پارامتر در رتبه بندی با استفاده از داده کاوی به صورت پویا محاسبه می شود و در پایان رتبه ی هر ربات با استفاده از خوشه بندی در داده کاوی محاسبه می شود. نتایج آزمایش ها نشان می دهد، روش پیشنهادی از کارایی شایسته ای نسبت به روش های موجود برخوردار می باشد.کلید واژگان: رتبه بندی، ربات، خوشه بندی، پویا
-
چندی سازی برداری یکی از روش های پرکاربرد در فشرده سازی تصویر است. پژوهشگران، الگوریتم های مختلفی با چندی سازی برداری به منظور رسیدن به کتاب-کد بهینه ارائه داده اند. ازجمله این الگوریتم ها می توان از الگوریتم ژنتیک، الگوریتم بهینه سازی ازدحام ذرات و الگوریتم کرم شب تاب نام برد. در این مقاله برای چندی سازی برداری، روش جدیدی بر اساس الگوریتم کرم شب تاب بهبودیافته ارائه شده است. در روش پیشنهادی عملگر ترکیب ژنتیک با الگوریتم کرم شب تاب پایه، به منظور بهبود الگوریتم پایه، ادغام شده و از آن در تولید کتاب-کد چندی سازی برداری، استفاده گردیده است. نتایج پیاده سازی روش پیشنهادی، نشان می دهد که این الگوریتم کرم شب تاب بهبودیافته در مقایسه با الگوریتم های ژنتیک و کرم شب تاب پایه، بهتر عمل می کند. درصد بهبود کیفیت روش پیشنهادی نسبت به الگوریتم کرم شب تاب پایه حدود یک درصد است. علاوه بر آن، با افزایش سایز کتاب-کد عملکردی مشابه با الگوریتم بهینه سازی ازدحام ذرات دارد.کلید واژگان: فشرده سازی تصویر، چندی سازی برداری، الگوریتم ژنتیک، الگوریتم کرم شب تابVector Quantization (VQ) is the powerful technique in image compression. Generating a good codebook is an important part of VQ. There are various algorithms in order to generate an optimal codebook. Recently, Swarm Intelligence (SI) algorithms were adapted to obtain the near-global optimal codebook of VQ. In this paper, we proposed a new method based on a modified firefly algorithm (MFA) to construct the codebook of VQ. The proposed method merged genetic crossover operator with FA to develop the VQ. This method is called MFA model. Experimental results indicate that the reconstructed images generated by the proposed model is get higher quality than FA and it’s about one percent, but it is no significant superiority to the PSO algorithm. Furthermore, MFA is slower than FA.Keywords: Image Compression, Vector Quantization, Swarm Intelligence, Firefly Algorithm
-
صحنه نبرد احتمالی علیه جمهوری اسلامی ایران (ج.ا.ا) به صورت عملیات شبکه محور و با رویکرد تاثیرمحوری است. یکی از توانمندی های مقابله ای ج.ا.ا در این صحنه نبرد پیچیده، قابلیت های حوزه سایبرالکترونیک است. از چالش های مهم طرح ریزی عملیات سایبرالکترونیک برای مقابله با چنین صحنه نبردی در فرایند تصمیم گیری نظامی، مقایسه و انتخاب راه کارهای عملیاتی می باشد. تعدد، وابستگی های متقابل، بازخوردها و تاثیرات مستقیم و غیرمستقیم بین شاخص های عملیات شبکه محور، مقایسه و انتخاب راه کار عملیاتی را به یک مسئله پیچیده، تبدیل کرده است. در این مقاله الگوی تصمیم برای انتخاب راه کار عملیاتی با در نظر گرفتن پیچیدگی مسئله، بر اساس روش های ترکیبی دیمتل-تحلیل فرایند شبکه ای و تاپسیس، ارائه شده است. الگوی پیشنهادی شامل سه مرحله است. در مرحله اول، تولید داده معتبر توسط خبرگان منتخب به عنوان ورودی داده، استفاده شده است. مرحله دوم، پردازش داده شامل محاسبه شبکه تاثیر شاخص هاست که نحوه تاثیرگذاری شاخص ها را مدل می کند. سپس وزن نسبی شاخص ها با در نظر گرفتن روابط بین آن ها محاسبه می شود. مرحله سوم ارزیابی و انتخاب بر اساس میزان شباهت به جواب ایده آل می باشد. برای ارزیابی الگوی پیشنهادی، سناریوی واقعی عملیات شبکه محور سپاه زمینی پنجم آمریکا در 21 الی 22 مارس 2003 به عنوان عملیات تصرف «پایگاه هوایی تلیل» مورد ارزیابی قرار گرفت. در این عملیات، شاخص تعاملات بین مراکز فرماندهی سپاه پنجم (180 مرکز فرماندهی) به عنوان مهم ترین شاخص تعیین گردید. کیفیت شبکه سازی نیروها که اساس آن بر پایه سامانه های FBCB2/BFT ایجاد شده به عنوان اثرگذارترین و اثربخشی ماموریت تاثیرپذیرترین شاخص در صحنه نبرد، تعیین شد. در گام دوم، میزان وزن نسبی شاخص ها تعیین شد که چابکی و اثربخشی بیشترین وزن و کیفیت اطلاعات کمترین وزن را به خود اختصاص داده است. از بین راه کارهای سایبرالکترونیک پیشنهادی توسط خبرگان، اختلال باند L ارتباط ماهواره ای، تزریق ویروس الکترونیکی به ترتیب راه کارهای موثر در مقابله با ماموریت سپاه پنجم آمریکا برای تصرف پایگاه هوایی تلیل بوده است. صحت و رضایتمندی نتایج این الگو توسط خبرگان منتخب فرماندهی مورد ارزیابی و تایید قرارگرفته است.کلید واژگان: عملیات شبکه محور، تصمیم گیری چند شاخصه، روش ترکیبی دیمتل- فرایند تحلیل شبکه ای، روش تاپسیس، قابلیت های سایبرالکترونیکThe potential battle scene against the Islamic Republic of Iran (I.R.I) is network-centric operation with Effect Based approach. One of the I.R.I capabilities in this complex battle scene is the capabilities of the cyber-electronics. One of the major challenges of planning cyber-electronic operations for confrontation in such a battle scene in the military decision-making process, is comparing and selecting courses of actions (COAs). The multiplicity, interdependencies, direct and indirect effects of the network centric operation criteria have made comparison and selection of COAs, a complex problem. In this paper, the decision model for choosing an operational solution with consideration of the complexity of the problem is presented based on hybrid methods DANP and TOPSIS. The proposed model consists of three steps. In the first step, valid data produced by selected experts is used as data input. In the second step, data processing involves calculating an influential criteria network (which models the influence of criteria) and finding the influential weights of DANP (DEMATEL-based ANP) considering the relationships between them. The third stage of evaluation and selection is based on the level of similarity to the ideal solution (TOPSIS). In order to evaluate the proposed model, the real scenario of network centric operation of the US Operation Iraqi Freedom (OIF) from March 21 to 22, 2003 was evaluated. In this operation, the interactions between the 5th Corps command posts (180 posts) were identified as the most important criteria. The quality of force networking based on FBCB2 / BFT systems, and mission effectiveness were determined respectively as the most effective and the most influenced criteria on the battlefield. In the second step, the relative weights of the criteria were determined assigning the highest weights to agility and effectiveness and the lowest weight to the quality of information. Among the cyber-electronics solutions offered by the experts, the L-satellite Jamming and the injection of electronic malicious code, were the effective ways to confront the 5th US Army Corps mission to capture Talil air base. The selected expert commanders declared the results of this case study as valid and satisfactory.Keywords: Network Centric Operation, Multiple-Criteria, Attribute Decision-making, DEMATEL-Based Analytic Network Process (DANP), TOPSIS Method, cyber-electronic capabilities
-
عملیات شبکه محوری از تهدیدات پیش روی جمهوری اسلامی ایران است؛ بنابراین، شناخت عملیات شبکه محور و معیار های اصلی آن، مسئله ای اساسی است که باید از منظرهای مختلف برای مقابله با چنین تهدیدی مورد بررسی و ارزیابی قرار گیرد. ارزیابی دقیق مسئله با توجه به بازخوردها و تاثیرات غیرمستقیمی که هر یک از معیارها نسبت به هم دارند آن را به یک مسئله پیچیده تبدیل نموده است. در این مقاله برای حل مسئله پیچیدگی با استفاده از روش دیمتل، به ارزیابی معیارهای اساسی مفهوم عملیات شبکه محور بر اساس تاثیرات پرداخته است. این معیارها از لحاظ قلمرو درگیری در عصر اطلاعات دسته بندی شده و برای توصیف و تفسیر دقیق تر، زیرمعیارهای بعضی از آن ها مشخص گردید. سپس میزان تاثیرگذاری، تاثیرپذیری، درجه اهمیت و ارتباط علی و معلولی معیارها نسبت به هم مورد ارزیابی قرارگرفته است. با استفاده از نظرات خبرگان نظامی، برمبنای تحلیل داده ها، کیفیت حس سازی فردی و کیفیت اطلاعات، تاثیرگذارترین معیارها می باشند. درجه حس سازی اشتراکی تاثیرپذیرترین معیار و چابکی، حس سازی فردی و همزمانی در رتبه های بعدی می باشند. از لحاظ اهمیت معیارها که به نوعی مراکز ثقل از منظر تاثیرمحوری می باشند، حس سازی دارای بالاترین رتبه و سپس کیفیت اطلاعات و تعاملات بین نیروهای آمریکا و متحدانش دارای رتبه های بعدی می باشند. از منظر رابطه علت و معلولی، معیار کیفیت اطلاعات دارای بیشترین رتبه به عنوان «علت» و اثربخشی و چابکی به عنوان «معلول» می باشند. دستاوردهای این ارزیابی در سطح راهبردی را می توان اولویت بندی قلمرو های تاثیرگذار و تاثیرپذیری در صحنه نبرد شبکه محور اشاره نمود. در راستای تائید نظر خبرگان سایبرالکترونیک دستاورد مهم دیگر، موثر بودن نقش و جایگاه قابلیت های سایبرالکترونیک در صحنه نبرد عملیات شبکه محور است که بایستی مورد ارزیابی دقیق قرار گیرد. شبیه سازی و تحلیل داده در محیط نرم افزاری متلب انجام شده است.کلید واژگان: جنگ، عملیات شبکه محور، تاثیرمحوری، تصمیم گیری چند معیاره، روش دیمتل، قابلیت های سایبرالکترونیکUS Network Centric Warfare is one of the threats lying ahead of the Islamic Republic of Iran. To deal with such a threat, recognizing the Network Centric Warfare (NCW) and its main criteria are fundamental issues that must be examined from different perspectives. The multiplicity of interdependencies, feedbacks and direct and indirect interactions between components and criteria of network centric operations, has turned the comparison and evaluation to a complicated problem. To tackle this complex problem, in this paper we used DEMATEL's method. The level of influence, impact, degree of importance, and causal relationship of criteria to each other are evaluated. Based on data analysis, individual sensemaking and quality of information, are the most influential criteria. The degree of shared sensemaking is the most effective criterion and agility, individual sensemaking and synchronization follow next in rank. In terms of the importance of criteria that are somehow centroid in terms of impact, sensemaking has the highest rank and then the quality of information and interactions between the forces and their allies have the next rank. From the perspective of the cause and effect relationship, the quality of information criteria has the highest rank as a " cause" and effectiveness and agility as " effects" .The achievements of this strategic assessment can be focused on prioritizing active and passive regions in the network centric battle scene. Confirming the cyber-electronic experts’ opinion, another important achievement is the effectiveness of the role and status of cyber-electronic capabilities in the network centric operation battle scene, which needs to be assessed accurately. Simulation and data analysis have been done in MATLAB software.Keywords: Network-centric warfare, cyber-electronic capabilities, Multi-Criteria Decision Making, DEMATEL method, Effective Base Approach
-
پیش بینی نبرد های آینده، موضوعی است که چند دهه بین نظریه پردازان موردبحث است. به اعتقاد آن ها صحنه نبرد چنین جنگی شبکه محور، پیچیده، غیرخطی، پویا و در فضای عدم قطعیت انجام خواهد شد این در حالی است که بر مبنای تئوری پیچیدگی و آشوب مشکلات و آسیب های جزئی می تواند اثرات و پیامدهای مخربی در این محیط پیچیده داشته باشد بنابراین ارزیابی آسیب های آن از ضروریات تحقیق است. این تحقیق ازنظر هدف کاربردی است. شیوه تحقیق بر اساس تجزیه وتحلیل اسناد و مطالعه کتابخانه ای جهت استخراج آسیب ها و معیارهای ارزیابی انجام شده است. سپس با ارائه الگویی بر مبنای فرایند تحلیل سلسله مراتبی به ارزیابی و رتبه بندی آسیب های عملیات شبکه محور پرداخته است. در این مقاله معیارهای؛ زمان، هزینه، اثربخشی و امکان پذیری، برای ارزیابی آسیب پذیری ها جهت استفاده موثر تعیین شده است. با در نظر گرفتن معیارهای ارزیابی، آسیب پذیری های جنگ الکترونیک، فناوری و فرماندهی بیشترین اولویت جهت استفاده می باشند. از منظر زمان، آسیب پذیری هایی چون جنگ الکترونیک، فناوری و نیروی انسانی دارای بالاترین رتبه بندی جهت استفاده می باشند. از منظر هزینه استفاده از آسیب پذیری هایی چون شبکه و ارتباطات، فناوری و جنگ الکترونیک دارای بالاترین اولویت و آسیب پذیری های فرماندهی مانند فرسایشی نمودن جنگ و افزایش بار اطلاعاتی کمترین رتبه بندی هزینه را به خود اختصاص داده است. اثرگذارترین آسیب پذیری پیشرفت علوم شامل تئوری های پیچیدگی، آشوب و تئوری سیستم است. کم اثرترین آسیب پذیری در عملیات شبکه محور آسیب های ارائه شده ناشی از فناوری است. ازلحاظ امکان پذیری نیز آسیب های فرماندهی، خطرات اطلاعاتی بیشترین رتبه بندی را به خود اختصاص دادند که با عملیات روانی و شناختی و با هزینه بالا قابل حصول است و خطرات ناشی از فریب اطلاعاتی و پیشرفت علوم کمترین رتبه را به خود اختصاص دادند.کلید واژگان: آسیب پذیری، تصمیم گیری چندمعیاره، فرایند تحلیل سلسله مراتبی، عملیات شبکه محورThe prediction of future battles is a subject that has been debated between theorists for decades . According to them, this battlefield is network-based, complex, non-linear, dynamic, and in an uncertain environment. Since, based on the theory of complexity and chaos, minor problems can have destructive effects in this complex environment, its evaluation of damage is a research necessity. The research methodology is based on document analysis and library study to extract the damage and assessment criteria. Then, based on the hierarchical analysis process, we present a model for assessing and ranking the network-based operation damages. Vulnerability assessment criteria are time, cost, effectiveness, and feasibility, for evaluating vulnerabilities for effective use.Based on evaluation criteria, electronic warfare, technology and command vulnerabilities are the top priority for use. Vulnerabilities, such as electronic warfare, technology and human resources are with the highest rating in terms of time. Based on cost, network and communications, technology and electronic warfare vulnerabilities have the highest priority and command vulnerabilities such as erosion of the war and over loading information have the lowest cost rating. The most effective vulnerability of science progress includes theories of complexity, chaos and system theory .The least-effective vulnerability is due to technology. Based on feasibility criteria, command damage, and information risk have the highest rank, which can be achieved with psychological and cognitive operations. The threats of information deception and the development of science were the lowest rank.Keywords: Network-centric operations, warfare, Vulnerability, Multi-criteria decision making, Analytical hierarchy process
-
زمینه و هدفسرطان معده دومین علت مرگ ناشی از سرطان در جهان است. با توجه به اینکه این بیماری جزو کشنده ترین بیماری ها در کشور ماست بررسی و شناخت عوامل تاثیرگذار در ایجاد این بیماری، بسیار اهمیت دارد. در این پژوهش از دو تکنیک داده کاوی یعنی الگوریتم Apriori و الگوریتم ID3 به منظور بررسی عوامل موثر در بروز سرطان معده استفاده شده است.روش بررسیمجموعه داده های این پژوهش از 490 بیمار شامل 220 نمونه ی مبتلا به سرطان و270 نمونه ی سالم مراجعه کننده به بیمارستان امام رضای تبریز جمع آوری شد. با استفاده از الگوریتم Apriori و پیاده سازی آن در نرم افزار متلب، بهترین قوانین حاکم بر روی این مجموعه داده، استخراج شده است. همچنین از الگوریتم ID3 نیز جهت بررسی این عوامل استفاده شد.یافته هانتایج داده کاوی نشان می دهد که داشتن سابقه رفلاکس معده بیشترین تاثیر را در بروز این بیماری دارد. با استفاده از الگوریتم Apriori قوانینی به دست آمد که می تواند به عنوان الگویی برای پیش بینی وضعیت بیماران و احتمال بروز این بیماری و بررسی عوامل تاثیرگذار در ایجاد این بیماری استفاده شود. همچنین دقت پیش بینی به دست آمده از الگوریتم ID3 برابر 85/56 به دست آمد که نتیجه ی بسیار خوبی در پیش بینی سرطان معده است.نتیجه گیریاستفاده از داده کاوی به خصوص در داده های پزشکی با توجه به حجم بالای داده ها و وجود روابط ناشناخته بین ویژگی های سیستمیک، شخصی و رفتاری بیماران بسیار مفید است. نتایج حاصل از این پژوهش می تواند به پزشکان در شناسایی عوامل موثر در بروز این بیماری و نیز پیش بینی بروز این بیماری کمک فراوانی کند.کلید واژگان: داده کاوی، قوانین انجمنی، الگوریتم Apriori، سرطان معده، الگوریتم ID3Background And AimGastric cancer is the second leading cause of cancer death in the world. Due to the prevalence of the disease and the high mortality rate of gastric cancer in Iran, the factors affecting the development of this disease should be taken into account. In this research, two data mining techniques such as Apriori and ID3 algorithm were used in order to investigate the effective factors in gastric cancer.Materials And MethodsData sets in this study were collected among 490 patients including 220 patients with gastric cancer and 270 healthy samples referred to Imam Reza hospital in Tabriz. The best rules related to this data set were extracted through Apriori algorithm and implementing it in MATLAB. ID3 algorithm was also used to investigate these factors.ResultsThe results showed that having a history of gastro esophageal reflux has the greatest impact on the incidence of this disease. Some rules extracted through Apriori algorithm can be a model to predict patient status and the incidence of the disease and investigate factors affecting the disease. The prediction accuracy achieved through ID3 algorithm is 85.56 which was a very good result in the prediction of gastric cancer.ConclusionUsing data mining, especially in medical data, is very useful due to the large volume of data and unknown relationships between systemic, personal, and Behavioral Features of patients. The results of this study could help physicians to identify the contributing factors in incidence of the disease and predict the incidence of the disease.Keywords: Data Mining, Association Rules, Apriori Algorithm, Gastric Cancer, ID3 Algorithm
-
مقدمهدرختان تصمیم از ابزارهای داده کاوی برای جمع آوری ، پیش بینی دقیق و غربال کردن اطلاعات از حجم عظیم داده هاست که کاربرد گسترده ای در زمینه زیست شناسی محاسباتی و بیوانفورماتیک پیدا کرده اند. در بیوانفورماتیک می توان پیش بینی هایی بر روی بیماری ها ازجمله سرطان سینه را داشت. استفاده از داده های ژنومی از جمله چند شکلی های تک نوکلئوتیدی در پیش بینی ریسک ابتلا به بیماری های چند عامله از اهمیت خاصی برخوردار است. تعداد هفت SNP مهم از بین صدها هزار مارکر ژنتیکی به عنوان عوامل مرتبط با سرطان سینه شناسایی شدند. هدف ازاین تحقیق بررسی داده های آموزش روی خطای درخت تصمیم پیش بینی کننده ریسک ابتلا به سرطان سینه با استفاده از ژنوتیپ چند شکلی های تک نوکلئوتیدی است.روش بررسیاحتمال ابتلا به سرطان سینه با استفاده از SNP های مرتبط با فرمول xj = fo * محاسبه گردید. برای پیش بینی احتمال بیماری با استفاده از چندشکلی های تک نوکلئوتیدی در انسان می توان از درختان تصمیم استفاده کرد. هفت SNP با نسبت های مختلف بخت مرتبط با سرطان سینه درنظرگرفته و کد نویسی و طراحی درخت تصمیم مدل C4.5، با زبان برنامه نویسی Csharp2013 انجام شد. در درخت تصمیم ایجادشده با کدنویسی، چهار SNP مهم مرتبط لحاظ شد. خطای درخت تصمیم دردو حالت کدنویسی و استفاده از نرم افزارWEKAارزیابی و درصد دقت درخت تصمیم در پیش بینی بروز سرطان سینه محاسبه گردید. تعداد نمونه آموزش داده شده با نمونه گیری سیستماتیک استخراج گردید. باکدنویسی، دو سناریو و همچنین با نرم افزار WEKA ، سه سناریو با تعداد مجموعه داده های مختلف، تعداد مجموعه آموزش و آزمایش مختلف، مورد ارزیابی قرار گرفت.نتایجبا روش کدنویسی در دو سناریو با افزایش درصد آموزش از 66/66 به 42/86 ، خطا از 56/55 به 09/9 کاهش یافت. همچنین با اجرای نرم افزار WEKA در سه سناریو با تعداد مجموعه داده های مختلف، تعداد مجموعه آموزش مختلف، و آزمایش مختلف با افزایش تعداد رکوردها از 81 به 2187، میزان خطا از 15/48 به 46/13 کاهش یافت. همچنین در اکثر سناریوها درصد شیوع بیماری در میزان خطا در کد و WEKA تاثیری نداشت.نتیجه گیرینتایج نشان می دهد با افزایش میزان آموزش، خطای درخت تصمیم کاهش و درنتیجه دقت پیش بینی ریسک ابتلا به سرطان سینه با استفاده از درخت تصمیم افزایش می یابد. در داده های بیولوژی به دلیل حساسیت مدلهای پیش بینی کننده، خطای درخت تصمیم حتی با 66/66% آموزش بالا است. از طرفی با افزایش تعداد SNP درخت تصمیم از 4 به 7 مارکر، خطای درخت تصمیم با 1/70 % آموزش، به طور چشمگیری کاهش داشت. در مجموع می توان گفت که با افزایش رکوردهای مجموعه آموزش و همچنین افزایش تعداد ویژگی SNPدر درخت تصمیم، دقت پیش بینی افزایش و خطا کاهش می یابد. همچنین درصد شیوع بیماری در میزان خطا به دلیل انتخاب مجموعه های آموزش و آزمایش به روش سیستماتیک، در کد طراحی شده در این تحقیق و نرم افزار موجود WEKA تاثیری ندارد.کلید واژگان: درخت تصمیم، سرطان سینه، چندشکلی تک نوکلئوتیدیJournal of Shaeed Sdoughi University of Medical Sciences Yazd, Volume:25 Issue: 4, 2017, PP 300 -310IntroductionDecision tree is the data mining tools to collect, accurate prediction and sift information from massive amounts of data that are used widely in the field of computational biology and bioinformatics. In bioinformatics can be predict on diseases, including breast cancer. The use of genomic data including single nucleotide polymorphisms is a very important factor in predicting the risk of diseases. The number of seven important SNP among hundreds of thousands genetic markers were identified as factors associated with breast cancer. The objective of this study is to evaluate the training data on decision tree predictor error of the risk of breast cancer by using single nucleotide polymorphism genotype.MethodsThe risk of breast cancer were calculated associated with the use of SNP formula:xj = fo * In human, The decision tree can be used To predict the probability of disease using single nucleotide polymorphisms .Seven SNP with different odds ratio associated with breast cancer considered and coding and design of decision tree model, C4.5, by Csharp2013 programming language were done. In the decision tree created with the coding, the four important associated SNP was considered. The decision tree error in two case of coding and using WEKA were assessment and percentage of decision tree accuracy in prediction of breast cancer were calculated. The number of trained samples was obtained with systematic sampling. With coding, two scenarios as well as software WEKA, three scenarios with different sets of data and the number of different learning and testing, were evaluated.ResultsIn both scenarios of coding, by increasing the training percentage from 66/66 to 86/42, the error reduced from 55/56 to 9/09. Also by running of WEKA on three scenarios with different sets of data, the number of different education, and different tests by increasing records number from 81 to 2187, the error rate decreased from 48/15 to 13/46. Also in the majority of scenarios, prevalence of the disease, had no effect on errors in the WEKA and code.ConclusionThe results suggest that with increased training, and thus the accuracy of prediction error decision tree to reduce the risk of breast cancer increases with the use of decision trees. In Biological data, decision trees error is high even with a 66/66% training. On the other hand by increasing the number of SNP from 4 to 7 decision tree, decision tree error dramatically decreased at 70/1% training. In general we can say that with increased training and increasing the number of SNP in the decision tree, the prediction accuracy increased and errors reduced. In the CODING and WEKA, percentage of disease prevalence had no significant effect on errors, Because of selecting set of training and testing by systemic method .Keywords: Decision Tree, Breast Cancer, Single Nucleotide Polymorphisms
-
مقدمهسرطان معده دومین علت مرگ ناشی از سرطان بعد از سرطان ریه در جهان است. بروز آن در مناطق مختلف دنیا متفاوت است. با توجه به میزان شیوع این بیماری و میزان مرگ و میر بالای سرطان معده در کشور، لازم است علل و عوامل تاثیر گذار در بروز این بیماری با دقت بیشتر و روش های علمی تر، مورد بررسی قرار گیرد. هدف این مقاله، بررسی این عوامل با کمک تکنیک داده کاوی است.روشداده های مورد نیاز برای این مطالعه، از بیماران مراجعه کننده به بیمارستان امام رضا(ع) شهر تبریز جمع آوری شده است و پس از اعمال پیش پردازش بر روی این داده ها، در نهایت 490 رکورد شامل 220 نمونه مبتلا به سرطان و 270 نمونه سالم در یک فایل Excel جمع آوری شد. با استفاده از پیاده سازی الگوریتم Aprioriدر نرم افزار Matlab و مجموعه داده های نهایی، بهترین قوانین حاکم بر روی این مجموعه داده، استخراج شده است.نتایجدر این مطالعه برای نخستین بار از مجموعه داده های سرطان معده و ویژگی های تاثیرگذار در بروز این بیماری استفاده شده است. نتایج نشان داد، افراد مبتلا به بیماری قلبی عروقی، کمتر در معرض خطر ابتلا به سرطان معده هستند، در ضمن رفلاکس معده با مصرف نکردن نمک، مصرف زیاد نمک و مصرف نکردن شیر ارتباط دارد. همچنین رفلاکس معده بیشترین تاثیر را در ایجاد این بیماری دارد. با استفاده از الگوریتم Apriori قوانینی به دست آمد که می تواند به عنوان الگویی برای پیش بینی وضعیت بیماران و احتمال بروز این بیماری، استفاده شود.نتیجه گیریامروزه به دلیل وجود حجم انبوهی از داده های پزشکی، می توان با استفاده از رویکرد داده کاوی به استخراج دانش از مجموعه داده-های پزشکی پرداخت. در این مطالعه با استفاده از الگوریتم Apriori، قوانینی استخراج شده است که می تواند کمک فراوانی به پزشکان در بررسی عوامل ایجاد این بیماری بکند.
کلید واژگان: قوانین انجمنی، الگوریتم Apriori، سرطان معدهIntroductionGastric cancer is the second cause of death from cancer after lung cancer in the world It`s incidence is varied in different regions of the words. Due to the prevalence rate of the disease and high mortality rates for gastric cancer in the country, it is necessary to examine the influential factors in the incidence of this disease by more accurately and scientific methods. The purpose of this study is to examine this factor with data mining techniques.MethodThe required data for this study was collected from patients referring to Imam Reza Hospital, Tabriz. After applying data pre-processing, totally 490 records were collected in an Excel file samples including 220 cancer cases and 270 normal specimens. The best rules based on the datasets were extracted by using Apriori algorithm implemented in MATLAB software and final data set.ResultsIn this study, gastric cancer datasets and features affecting the incidence of this disease have been used for the first time. The results showed that risk for gastric cancer in people with cardiovascular disease are less. In addition, gastric reflux is associated with not using salt and milk, and high salt intake. Gastric reflux has also the most influence on creating this disease. Some rules were obtained by using Apriori algorithm that can be used as a model to predict the status of patients and the incidence of this disease.ConclusionNowadays Due to massive amounts of medical data, knowledge can be extracted from datasets by using data mining approach. In this study, some rules were extracted by using Apriori algorithm that can provide physicians with great help to examine the causes of this disease.Keywords: Association rules, Apriori algorithms, Gastric cancer -
-
به منظور ارزیابی از صفات زراعی و فیزیولوژی چندین رقم و لاین جو در شرایط تنش شوری آزمایشی در شهرستان ابرکوه واقع در 140 کیلومتری یزد در سال 1388-89 اجرا گردید.این آزمایش در قالب طرح بلوک های کاملا تصادفی در 4تکرار در زمینی با شوری آب 10 و خاک 12 دسی زیمنس بر متر انجام گردید.اندازه هر کرت 6 متر مربع که در هر کرت ارقام در 6 ردیف به طول 5 متر و فاصله 30 سانتی متر کاشته شدند. در این تحقیق 24 رقم جو مورد آزمایش قرار گرفت و عملکرد دانه، تعداد دانه در سنبله و وزن هزار دانه به عنوان سه صفت اصلی مورد آزمایش قرار گرفت. جو افضل به عنوان شاهد ارقام و لاین ها در نظر گرفته شد.نتایج آزمایش نشان داد که رقم جو افضل با عملکرد 1399 کیلو گرم در هکتار بیشترین عملکرد را داشته است.عملکرد دانه با وزن دانه در سنبله فرعی نیز رابطه مثبت و معنی داری داشت ولی با دیگر صفات مورد ارزیابی رابطه معنی داری نداشت.وزن هزار دانه کل به عنوان دیگر صفت مورد بررسی با ورن هزار دانه در سنبله فرعی رابطه مستقیم و معنی داری در سطح 1 درصد داشت. ارقامی که دارای تعداد پنجه بیشتر و همچنین نسبت پنجه بارور به غیر بارور بیشتری داشتند از نظر عملکرد در سطح بالاتری قرار گرفتند،و نیزارقامی که دارای تعداد دانه در سنبله فرعی بیشتری بودنداز نظر عملکرد دانه در بالای جدول قرار گرفته اند.
کلید واژگان: شوری - جو- تنشStudy of yield of some agronomic and physiological traits of barley cultivars and lines under salinity stress conditions
Keywords: Salinity, barley, Stress
- در این صفحه نام مورد نظر در اسامی نویسندگان مقالات جستجو میشود. ممکن است نتایج شامل مطالب نویسندگان هم نام و حتی در رشتههای مختلف باشد.
- همه مقالات ترجمه فارسی یا انگلیسی ندارند پس ممکن است مقالاتی باشند که نام نویسنده مورد نظر شما به صورت معادل فارسی یا انگلیسی آن درج شده باشد. در صفحه جستجوی پیشرفته میتوانید همزمان نام فارسی و انگلیسی نویسنده را درج نمایید.
- در صورتی که میخواهید جستجو را با شرایط متفاوت تکرار کنید به صفحه جستجوی پیشرفته مطالب نشریات مراجعه کنید.