به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت
فهرست مطالب نویسنده:

ali moeini

  • Sadra Fathenojavan, Ali Moeini *, Ali Kamandi
    A data fabric architecture ensures that different types of data can be quickly and easily integrated, accessed, transformed, and managed. All users involved with data fabric technology, directly or indirectly, have access to appropriate information in real-time, from the correct location and in the proper manner. As data storage and access have become increasingly common, there are growing concerns about data security. In this paper, we present a new and more efficient data fabric architecture for providing secure communication between the data store and the customer, utilizing Shamir's Secret Sharing (SSS) and secure Attribute-Based Encryption (ABE). We call this architecture Data Fabric equipped with Attribute-Based Authentication and Access Control (DFAAA). It offers security features such as perfect forward secrecy, untraceability, anonymity, mutual authentication, and availability. We verify these features using both informal and formal techniques. The results demonstrate that our architecture not only provides greater security compared to other architecture.
    Keywords: Data Fabric, Elliptic Curve Cryptography, Attribute Based Authentication, Anonymity, Real-Or-Random
  • مریم پیروزمند، امیرحسین کیهانی پور*، علی معینی

    نظریه گراف بواسطه توانمندی در مدلسازی روابط پیچیده بین عناصر در مسائل مختلف، بصورت گسترده مورد استفاده قرار گرفته است. از سوی دیگر، بازیابی اطلاعات یعنی استخراج اطلاعات مورد نیاز کاربر، به عنوان یکی از مسائل مهم در دنیای الگوریتم و محاسبات مطرح است. با توجه به کارآمدی راهکارهای مبتنی بر گراف در بازیابی اطلاعات، این مقاله، به بررسی تحلیلی و دسته‏ بندی کاربردهای نظریه گراف در بازیابی اطلاعات، می‏ پردازد. این راهکارها در سه دسته کلی، قابل تفکیک هستند؛ دسته نخست، شامل الگوریتم‏هایی می‏ باشد که در آنها از بازنمایی گرافی دادگان در فرآیند بازیابی اطلاعات، استفاده می‏ شود. دسته دوم پژوهش‏ها، به حل مسئله بازیابی معنایی اطلاعات با استفاده از نظریه گراف می‏ پردازند و نهایتا دسته سوم، مربوط به یادگیری رتبه‏ بندی با استفاده از نظریه گراف است. این سه دسته بصورت جزئی‏ تر در هشت زیردسته، دسته‏ بندی شده‏ اند. همچنین از منظر آماری، پژوهش‏های صورت گرفته در هر دسته‏ بر اساس تعداد و سال انتشار، بررسی شده‏ اند. از جمله یافته‏ های این مطالعه، این است که دسته سوم، هم از نظر تعداد پژوهش‏ها و نیز سال انتشار آنها، شاخه نوظهوری محسوب می‏ شود و می‏تواند حوزه تحقیقاتی جالب توجهی برای محققان محسوب ‏شود.

    کلید واژگان: نظریه گراف، بازیابی اطلاعات، یادگیری رتبه ‏بندی، گراف دانش، بازنمایی گرافی دادگان
    Maryam Piroozmand, Amirhosein Keyhanipour *, Ali Moeini

    Due to its power in modeling complex relations between entities, graph theory has been widely used in dealing with real-world problems. On the other hand, information retrieval has emerged as one of the major problems in the area of algorithms and computation. As graph-based information retrieval algorithms have shown to be efficient and effective, this paper aims to provide an analytical review of these algorithms and propose a categorization of them. Briefly speaking, graph-based information retrieval algorithms might be divided into three major classes: the first category includes those algorithms which use a graph representation of the corresponding dataset within the information retrieval process. The second category contains semantic retrieval algorithms which utilize the graph theory. The third category is associated with the application of the graph theory in the learning to rank problem. The set of reviewed research works is analyzed based on both the frequency as well as the publication time. As an interesting finding of this review is that the third category is a relatively hot research topic in which a limited number of recent research works are conducted.

    Keywords: Graph Theory, Information Retrieval, Learning To Rank, Knowledge Graph, Graph-Based Dataset Representation
  • Sina Sayardoost Tabrizi, Azin Sabzian, Ali Moeini*

    With the start of the Coronavirus epidemic, remote education systems were widely accepted in all universities around the world. The University of Tehran, the top university in Iran, had an electronic education system since 2010, which provided services in this field to the academic community. With the spread of the pandemic, these services became widespread in all departments of the University of Tehran. Compared to traditional learning, E-Learning brings challenges for Users, the main challenge of which is Users’ Satisfaction. In this paper, by examining the developed model based on the TAM model and the factor analysis of this model, the level of satisfaction of student users with the elearning management system of the University of Tehran during the Corona era is carefully evaluated. The exploitation of this model with the analytical method of partial least squares in the construction of structural equations is based on the information collected from the questionnaire that has been provided to the users of the e-learning system of the University of Tehran. The results obtained from this study show that the Technology Acceptance Model (TAM) describes well the factors affecting the level of user satisfaction with the E-learning management system. The positive effect of the visual beauty and the quality of the information in this system has improved the technical quality of the service; as a result, the level of user satisfaction in using this system has increased.

    Keywords: User Satisfaction, Exploratory Factor Analysis, E-Learning Quality, Technology Acceptance Model
  • محمدرضا مرتضوی، علی معینی*، آرمان ساجدی نژاد
    هدف

    چارچوب های حکمرانی داده معمولا در دامنه یک سازمان ارائه شده اند و بافتارهای میان سازمانی کمتر مورد توجه بوده اند. این در حالی است که به دلایل مختلف نظیر توسعه کاربردهای دولت الکترونیک و نیز افزایش همکاری های میان سازمانی ناشی از بازارهای رقابتی، تبادل داده میان سازمان ها روزافزون است. پژوهش حاضر درصدد است با ارائه چارچوب حکمرانی داده در مراکز تبادل داده، خلاء موجود در این زمینه را پوشش دهد. با توجه به گسترش روزافزون کاربردهای دولت الکترونیک و تعامل پذیری و تاثیر و اهمیت داده در آن، استفاده از این چارچوب می تواند در فراهم کردن داده و اطلاعات صحیح و به شکل بهتر موثر باشد.

    روش‎:

     این پژوهش از نوع کیفی بوده و روش آن، نظریه داده‎بنیاد است. برای انجام این مهم، ابتدا مبانی پژوهش بررسی شد. در این گام هم پژوهش های علمی و دانشگاهی و هم چارچوب های ارائه شده توسط انجمن های فنی و تخصصی مورد بررسی قرار گرفت، تا ضمن بررسی مبانی و پیشینه پژوهش، دانش اولیه برای انجام مراحل بعدی حاصل شود. سپس با انجام مصاحبه‎های نیمه‎ساخت یافته با خبرگان و مستندسازی آن، بیش از 400 عبارت حاصله، در قالب 100 مفهوم برچسب گذاری شده و سپس با کدگذاری باز (44 زیرمقوله)، کدگذاری نظری (15 مقوله) و پدیدایی نظریه، چارچوب حکمرانی داده مراکز تبادل داده ملی به دست آمد. با توجه به اینکه پژوهش حاضر از نوع کیفی بوده، به منظور اطمینان از‎ روایی و پایایی نتایج، از روش بازنگری توسط شرکت‎کنندگان، روش سه سویه سازی و نیز روش دلفی استفاده شده است.

    یافته‎ ها: 

    چارچوب حکمرانی داده در مرکز تبادل داده، شامل 15 مولفه، و در سه دسته است: «مولفه‎های اصلی حکمرانی»، «مولفه‎های اصلی در کسب‎وکار مراکز تبادل داده» و «مولفه‎های پشتیبان در کسب وکار مراکز تبادل داده». برخی از این مولفه‎ها عبارتند از: «نقش‎ها، مسئولیت‎ها و حقوق»، «استانداردها و سیاست‎ها»، «مدیریت تغییرات».

    نتیجه ‎گیری:

     براساس نتایج این پژوهش، «نقش‎ها، مسئولیت‎ها و حقوق»، «استانداردها و سیاست‎ها» و «پایش و ممیزی» از مولفه‎های اصلی چارچوب حکمرانی داده در مراکز تبادل داده است. همچنین «همکاری ذی‎نفعان» و «تجاری‎سازی» نیز آن را از سایر چارچوب‎های حکمرانی داده متمایز می‎کند. اگرچه این چارچوب برای مراکز تبادل داده تدوین شده، اما می تواند در بافتارهای میان سازمانی مشابه که نیازمند تبادل داده هستند نیز کاربرد داشته باشد.

    کلید واژگان: حکمرانی داده، تبادل داده، تعامل پذیری، دولت الکترونیک، نظریه داده‎بنیاد، مراکز تبادل داده، سازمان ها
    Mohamadreza Mortazavi, Ali Moeini *, Arman Sajedinejad
    Purpose

    Data governance frameworks have typically been discussed within the confines of an organization, with less focus on inter-organizational contexts. However, due to factors like the rise of electronic government applications and the growth of inter-organizational collaboration in competitive markets, data exchange among organizations is on the rise. This current research aims to address this gap by proposing a data governance framework for data exchange centers. Given the continuous growth of e-government applications and interactions, along with the significant role and value of data within them, implementing this framework can enhance the accuracy and efficiency of data and information exchange.

    Method

    This research is qualitative and its method is grounded theory. Initially, the fundamentals of the research were examined. This involved reviewing both scientific and academic research as well as frameworks provided by technical and specialized associations. By exploring the basics and background of the research, foundational knowledge was acquired for subsequent steps. Subsequently, through conducting semi-structured interviews with experts and documenting them, over 400 phrases were collected, and categorized into 100 concepts. These were then analyzed using open coding (resulting in 44 subcategories), theoretical coding (leading to 15 categories), and the development of a theoretical framework. The data was sourced from national data exchange centers. Given the qualitative nature of the study, methods such as participant review, triangulation, and the Delphi technique were employed to ensure the validity and reliability of the findings.

    Findings

    The data governance framework in the data exchange center comprises 15 components, categorized into "main components of governance, "main components in the business of data exchange centers, and "supporting components in the business of data exchange centers. Some of these components include "roles, responsibilities, and rights, "standards and policies, "change management.

    Conclusion

    Based on the results of this research, "roles, responsibilities, and rights, "standards and policies, and "monitoring and auditing" are the main components of a data governance framework in data exchange centers. Additionally, "stakeholder collaboration" and "commercialization" also distinguish it from other data governance frameworks. Although this framework is developed for data exchange centers, it can also be used in similar inter-organizational contexts that require data exchange.

    Keywords: Data Governance, Data Exchange, Interactivity, Electronic Government, Database Theory, Data Exchange Centers, Organizations
  • Farid Ariai, Maryam Tayefeh Mahmoudi *, Ali Moeini

    In the era of pervasive internet use and the dominance of social networks, researchers face significant challenges in Persian text mining, including the scarcity of adequate datasets in Persian and the inefficiency of existing language models. This paper specifically tackles these challenges, aiming to amplify the efficiency of language models tailored to the Persian language. Focusing on enhancing the effectiveness of sentiment analysis, our approach employs an aspect-based methodology utilizing the ParsBERT model, augmented with a relevant lexicon. The study centers on sentiment analysis of user opinions extracted from the Persian website 'Digikala.' The experimental results not only highlight the proposed method's superior semantic capabilities but also showcase its efficiency gains with an accuracy of 88.2% and an F1 score of 61.7. The importance of enhancing language models in this context lies in their pivotal role in extracting nuanced sentiments from user-generated content, ultimately advancing the field of sentiment analysis in Persian text mining by increasing efficiency and accuracy.

    Keywords: Opinion Mining, Sentiment Analysis, aspect-based sentiment analysis, lexical semantic disambiguation, WordNet
  • Ali Moeini, Hossein Anabestani, Hamid Reza Madaah Hosseini, Adrine Malek Khachatourian *
    Graphene quantum dots (GQDs) are one of the most uprising nanomaterials that have been used in biomedical applications because of their interesting luminescent properties. This work presents a facile way to attach the LCysteine onto the surface of GQDs, which enhances the applicability of the final molecules in biomedical applications. Furthermore, the luminescent properties of synthesized GQDs and LCysteine-GQDs with different methods of prevalent spectroscopy. The obtained GQDs- LCysteine show a red shift in PL results with an increase in wt.% LCysteine compared to GQDs. According to the results, this platform has the potential to be used in many biological applications, such as bio-imaging and bio-labeling.
    Keywords: Graphene quantum dots, LCysteine, Optical properties, Luminescent, Biomedical Applications
  • Najva Hafizi, Mojtaba Mazoochi *, Ali Moeini, Leila Rabiei, Seyed Mohammadreza Ghaffariannia, Farzaneh Rahmani
    Online social networks (OSNs) such as Facebook, Twitter, Instagram, etc. have attracted many users all around the world. Based on the centrality concept, many methods are proposed in order to find influential users in an online social network. However, the performance of these methods is not always acceptable. In this paper, we proposed a new improvement on centrality measures called P-centrality measure in which the effects of node predecessors are considered. In an extended measure called EP-centrality, the effect of the preceding predecessors of node predecessors are also considered. We also defined a combination of two centrality measures called NodePower (NP) to improve the effectiveness of the proposed metrics. The performance of utilizing our proposed centrality metrics in comparison with the conventional centrality measures is evaluated by Susceptible-Infected-Recovered (SIR) model. The results show that the proposed metrics display better performance finding influential users than normal ones due to Kendall’s τ coefficient metric.
    Keywords: online social networks, Centrality measures, Influential users, Susceptible-Infected-Recovered model
  • Shahrzad Oveisi *, Mohammad Nadjafi, Mohammad Ali Farsi, Ali Moeini
    Software plays a critical role in controlling the behavior of mechanical and electrical systems, as well as facilitating interactions among their components in cyber-physical systems (CPS). The risks associated with CPS systems can lead to the loss of functionality, performance, and even jeopardize human lives. Therefore, ensuring the reliability of software through comprehensive testing is of paramount importance in detecting and preventing potential errors. To achieve this objective, various methods and tools are employed to assess both the static and dynamic behavior of object-oriented software systems. One commonly used tool in the Unified Modeling Language (UML) is the state chart diagram, which visually represents the dynamic behavior of an object-oriented system. These diagrams depict the transitions and actions that occur as an object changes its state, driven by various inputs. To validate the accuracy of UML state chart diagrams, this paper proposes a method utilizing Finite State Machines (FSM) and Transition Tables. By creating a Transition Table, the UML state chart diagram can be effectively validated. To evaluate the proposed method, a set of Test Cases has been generated and applied to a real case study, ensuring the accuracy and reliability of the UML state chart diagram.
    Keywords: Software Reliability, Finite State Machine, Markov Chain Simulation, Transition Diagram
  • Maryam Jafarpour, Ali Moeini *, Niloofar Maryami, Azin Nahvijou ORCID, Ayoub Mohammadian
    Background

     The algorithmic classification of infected and healthy individuals by gene expression has been a topic of interest to researchers in numerous domains, including cancer. Several studies have presented numerous solutions, such as neural networks and support vector machines (SVMs), to classify a diverse range of cancer cases. Such classifications have provided some degrees of accuracy, which highly depend on optimization approaches and suitable kernels.

    Objectives

     This study aimed at proposing a method to classify cancer-prone and healthy cases under breast cancer and colorectal cancer (CRC), using machine learning methods efficiently, increasing the accuracy of the classification process.

    Methods

     This study presented an algorithm to diagnose individuals prone to breast cancer and CRC. The novelty of this algorithm lies in its suitable kernel and the feature extraction approach. By the application of this algorithm, this study first identified the genes closely associated with these types of cancers and, then, tried to find individuals susceptible to the concerned cancers using SVM. The present study highlighted the indirect gene expressions associated with these cancers, which might show health status complications for the patients. To this end, the algorithm consists of SVMs in conjunction with the k-fold method for validation.

    Results

     The results confirmed the superior performance of this approach, compared to the common neural networks. The algorithm’s identification accuracy values were 98.077% and 99.806% for breast cancer and CRC, respectively. The graphic representation of the cause-effect relationships was also provided to help researchers better understand the trend of cancer or other types of diseases.

    Conclusions

     The feature extraction method highly affects the accuracy of the classification. In addition, relying on indirect disease-triggering genes’ expressions highlights a cause-effect relationship between genes and diseases. Such relationships can form Markov models in the clinical domain leading to treatment paths and prediction of patient outcomes.

    Keywords: Machine Learning, Support Vector Machine, Gene Expression, Breast Cancer, Colorectal Cancer, Classification
  • Sina Sayardoost Tabrizi*, Ali Moeini, Keikhosrow Yakideh, Azin Sabzian

    During the COVID-19 pandemic, universities worldwide favored distance learning systems. Although e-learning provides numerous benefits, it also poses challenges for learners, so learners’ satisfaction is a significant concern to be assessed. The present study aimed to assess learners’ satisfaction with the University of Tehran's LMS during the pandemic. It applied a model based on the Technology Acceptance Model (TAM) and supplemented it with factor analysis. Research validity was assessed by using confirmatory factor analysis, while Cronbach's alpha was employed to measure the reliability of the research instrument. The study used the Partial Least Squares (PLS) analytical method to construct structural equations. In order to do so, data was collected from a comprehensive questionnaire distributed to 334 students at the University of Tehran, in which 143 participated. The findings reaffirmed the TAM's effectiveness in understanding the factors influencing learners’ satisfaction with the LMS. Consequently, these insights empower the technical team to enhance system functionality and infrastructure, aiming at improving service quality in the first semester of the academic year 2021. The Results showed that: 1) The TAM-based proposed scale has successfully explained factors predicting learners’ satisfaction. 2) Technical knowledge contributes to the perceived ease of use and influences perceived usefulness with a coefficient of 0.89, and 3) The significant relationships between technical knowledge and attitude were met. The paper's contribution is finding that learners’ technical knowledge significantly impacts their satisfaction, which helps the ICT team develop a user-friendly environment and increases the flexibility of templates. The study focused on creating training videos to improve learners’ technical knowledge. These results can change and improve the software development strategy for the next semester.

    Keywords: Learners’ Satisfaction, Exploratory Factor Analysis, E-Learning Quality, Technology Acceptance Model, Software Development
  • محسن آقایی*، علی معینی، احمد کاظمی

    روند رو به تزاید تهدیدات سایبری بر ضد دولت ها و جوامع، زیرساخت ها و سازمان ها به شکلی غیرقابل پیش بینی و با سرعتی سرسام آور ادامه دارد. برنامه ریزی برای دفاع در مقابل تهدیدات منجر به حملات سایبری از مواردی است که در برنامه های کلان امنیتی دولت ها جایگاه ویژه ای پیدا کرده است. اقدامات مناسب در شناخت و تحلیل رفتار و ترغیب به توجه در مورد این پدیده خاص در فضای سایبر که به نوعی نقض کننده اصول محرمانگی، جامعیت و دسترس پذیری اطلاعات است به شکلی قابل توجه در بازدارندگی، مقابله و تاب آوری سایبری اثرگذار است. بر اساس نیازمندی به تقویت اقدامات شناسایی تهدیدات سایبری، در این پژوهش با هدف تعیین اولویت و تعیین رتبه تهدیدات پرتکرار اعلام شده از سوی منابع معتبر جهانی و بین المللی و با روش وزن دهی ساده با محوریت حضور تهدیدات موصوف در زنجیره مرگ و با استفاده از روش های مرسوم در نظریه گراف، نتایج در قالب رتبه بندی و تصویرسازی به شکل گراف های منتج از به کارگیری نرم افزار گفی ارایه شده است. نتایج این پژوهش بیانگر این موضوع مهم است که «تهدیدات دخلی» در صدر تهدیداتی است که در زنجیره مرگ قرار دارند.

    کلید واژگان: تهدیدات سایبری، زنجیره مرگ، گراف، وزن دهی
    Mohsen Aghaei *, Ali Moeini, Ahmad Kazemi

    The growing trend of cyber threats against governments and communities, infrastructure and organizations continues at an unpredictable and rapid pace. Planning to defend against threats leading to cyber attacks is one of the things that has a special place in the macro security plans of governments. Appropriate measures in recognizing and analyzing behavior and encouraging attention to this particular phenomenon in cyberspace, which is a kind of violation of the principles of confidentiality, comprehensiveness and accessibility of information, have a significant effect on deterrence, confrontation and cyber resilience. . Based on the need to strengthen cyber threat identification measures, in this study with the aim of determining the priority and ranking of recurring threats announced by reputable global and international sources and with a simple weighting method focusing on the presence of these threats in the death chain and with Using conventional methods in graph theory, the results are presented in the form of rankings and illustrations in the form of graphs resulting from the use of Goff software. The results of this study indicate that it is important that "internal threats" are at the top of the threats that are in the death chain.

    Keywords: cyber threats, Death Chain, Graph, Weighting
  • احمد کاظمی، علی معینی*، سعید روحانی، نورمحمد یعقوبی، حمیدرضا یزدانی

    بسیاری از سازمان ها به منظور تسهیل فرآیندها و ارایه خدمات نو آورانه، توجه ویژه ای به استفاده از خدمات مرکز داده جهت میزبانی از  سکوها، خدمات و ابزارهای نوین برای مدیریت و راهبری  سامانه های خود نشان می دهند. در حوزه امنیت سایبری مرکز داده، برای شناخت علل تهدیدات سایبری و سپس حل مسایل نیاز است، تمام جوانب درنظر گرفته شوند. بنابراین ما در این پژوهش بدنبال شناسایی و ارایه کدهای مدیریتی هستیم که در آن تمامی جوانب درونی و بیرونی امنیت سایبری در نظر گرفته شود. در این پژوهش با الگو گیری از چارچوب کلی امنیت سایبریNIST  و چارچوب بسط داده شده موجود، نسبت به شناسایی جامع کدهای تامین امنیت و حفاظت از زیر ساخت اصلی مرکز داده، اقدام نمودیم تا ضمن اتخاذ راهبرد یکپارچه، هوشمندی لازم با اشتراک اطلاعات و یادگیری از حملات قبلی در سازمانها جهت بهبود فرایند پاسخ و بازیابی ایجادگردد. در این پژوهش بمنظور شناسایی و ارایه کدهای مدیریتی چارچوب جامع امنیت سایبری مرکز داده با روش مرور نظام مند از طریق جستجو در پایگاه وب او ساینس و اسکپوس و مقالات داخلی تعداد 1831 سند استخراج شد که پس از بررسی های لازم 63 مورد از آن ها به عنوان اسناد مرتبط شناسایی و با استفاده از روش فراترکیب، بررسی و کدگذاری شدند و کدهای استخراج شده در ذیل 5 مقوله اصلی (برگرفته از الگوی NIST)، 23 مولفه و 108 کد مدیریتی قرار گرفتند که مربوط به امنیت سایبری مرکز داده یعنی شناسایی، محافظت، کشف، پاسخگویی و بازیابی بودند.

    کلید واژگان: امنیت سایبری، چارچوب جامع، مرکز داده، الگوی NIST، رویکرد یکپارچه وهوشمند
    Ahmad Kazemi, Ali Moeini *, Saeed Rouhani, NourMohammad Yaghoobi, Hamidreza Yazdani

    In order to facilitate processes and provide innovative services, Most of organizations pay special attention to using data center services to host new platforms, services and tools to manage and run their systems. In the field of data center cybersecurity, all aspects need to be considered to identify the causes and then solve the problems. Therefore, in this study, we seek to identify and provide management codes that consider all internal and external aspects of cyber security. In this research, using NIST cybersecurity framework and existing localized framework for Identify management codes of Comprehensive framework for data center cybersecurity by systematic literature review (SLR), 1831 documents was extracted by searching the Science direct, Scopus and ISC articles. After necessary examinations, 63 of them were identified as related documents. They were analyzed and coded using the Meta- synthesis method. Finally, the extracted features were classified into 5 main category and 23 sub categories and 108 codes, which were related to data center cyber security, i.e. Identification, protection, detection, response and retrieval.

    Keywords: Cyber Security, Comprehensive Framework, Data Center, NIST Model, Integrated, Intelligent Approach
  • Shahrzad Oveisi, Ali Moeini *, Sayeh Mirzaei
    Numerous methods have been introduced to predict the reliability of software. In general, these methods can be divided into two main categories, namely parametric (e.g. software reliability growth models) and non-parametric (e.g. neural networks). Both approaches have been successfully implemented in software testing applications over the past four decades. Since most software reliability prediction data are available in the form of time series, deep recurrent network models (e.g. RNN, LSTM, NARX, and LSTM Encoder-Decoder networks) are considered as powerful tools to be employed in reliability-related problems. However, the problem of overfitting is a major concern when using deep neural networks for software reliability applications. To address this issue, we propose the use of dropout; therefore, this study utilizes a deep learning model based on LSTM Encoder-Decoder Dropout to predict the number of faults in software and assess software reliability. Experimental results show that the proposed model has better prediction performance compared with other RNN-based models.
    Keywords: LSTM, LSTM Encoder-Decoder, NARX, RNN, dropout, Software Reliability Prediction, Bayesian
  • محمدرضا مرتضوی، علی معینی*، آرمان ساجدی نژاد

    حجم انبوه داده از یکسو و اهمیت یافتن روزافزون نقش داده در سازمان ها از سویی دیگر، مدیریت داده را اجتناب ناپذیر می کند. یکی از مسایل مهم در مدیریت داده، تعیین نقش‎های لازم و تقسیم مسیولیت و حقوق ناشی از آن است. الگوی تقسیم مسیولیت در یک سازمان به ساختار آن بستگی دارد و ساختار یک سازمان نیز تابع سه عنصر پیچیدگی، رسمیت و تمرکز است. در سازمان‎های ایتلافی، تقسیم مسیولیت و اختیارات میان واحد مرکزی و واحدهای تابعه، پیچیده‎تر بوده و نیازمند الگوی روشن و مدون برای تشریک مساعی و همکاری در موضوعات مختلف از جمله مدیریت داده است. در این پژوهش با استفاده از ماتریس تقسیم مسیولیت، الگویی برای همکاری و تقسیم مسیولیت‎های مرتبط با مدیریت داده در بدنه اصلی و زیرمجموعه های تابعه یک سازمان ایتلافی به دست آمده و با استفاده از روش دلفی به اجماع خبرگان رسانده شده و با استفاده از آن، چگونگی تقسیم مسیولیت‎های مدیریت داده در وزارت علوم تحقیقات و فناوری جمهوری اسلامی ایران و دانشگاه‎های تابعه تبیین شده است.

    کلید واژگان: مدیریت داده، حکمرانی داده، سازمان ائتلافی، مباشر داده، ماتریس تقسیم مسئولیت
    Mohamadreza Mortazavi, Ali Moeini*, Arman Sajedinejad

    Massive data volume, on the one hand, and the growing importance of the role of data in organizations, on the other hand, make data management inevitable. One of the important issues in data management is to determine the necessary roles and division of responsibilities and rights arising from it. The pattern of division of responsibilities in an organization depends on its structure, and the structure of an organization is a function of the three elements of complexity, formality, and focus. In coalition organizations, the division of responsibilities and powers between the central unit and its affiliated units is more complex and requires a clear and codified model for joint efforts and cooperation in various issues, including management. In this research, using the responsibility-sharing matrix, a model for cooperation and division of responsibilities related to data management in the main body and affiliated subdivisions of a coalition organization has been obtained and using the Delphi method to reach the consensus of experts and using, how to divide data management responsibilities in the Ministry of Science, Research and Technology of the Islamic Republic of Iran and its affiliated universities is explained.

    Keywords: Data Management, Data Governance, Federal Organization, Data steward, RACI Chart
  • حمیدرضا رستمی، شعبان الهی*، علی معینی، علیرضا حسن زاده

    نظریه کنش گر-شبکه، در مفهوم اجتماعی آن، رویکردی برای تجزیه و تحلیل جامعه شناختی در حوزه مطالعات علم و فناوری است که بر درک چگونگی رسیدن چیزها به موقعیت هایی که در آن قرار دارند متمرکز است؛ اما در سال های اخیر، این نظریه به عنوان رویکردی روش شناختی جهت تحلیل نحوه استفاده از محصولات فناوری در محیط کار و توصیف ابعاد مختلف سیستمهای اجتماعی-فنی، مورد توجه پژوهش گران قرار گرفته است. با وجود نمونه های متعددی از پژوهش های مبتنی بر روش شناسی کنش گر-شبکه، چارچوب مدونی برای آن معرفی نشده است و در داخل کشور نیز نمونه ای برای استفاده از این نظریه در قالب روش شناسی یافت نشد. پژوهش حاضر می کوشد تا ضمن تبیین روش شناختی از این نظریه، به روش تحلیلی-توصیفی، چارچوبی نظام مند برای گردآوری و تحلیل داده ها در بستر این نظریه معرفی نماید. امکان و اعتبار چارچوب پیشنهادی در قالب مطالعه موردی، مورد سنجش قرار گرفته است. نتایج پژوهش می تواند در کاربست نظام مند روش شناسی کنش گر-شبکه، به ویژه در داخل کشور مفید باشد.

    کلید واژگان: نظریه کنش گر-شبکه (نشک)، روش شناسی پژوهش، جامعه شناسی ترجمه، کنش
    Hamidreza Rostami, Shaban Elahi *, Ali Moeini, Alireza Hassanzadeh

    Actor-Network theory (ANT), in social sense, is an approach to sociological analysis in the field of science and technology studies and focuses on understanding how things get to the situations in which they find themselves. In recent years, this theory has been considered by researchers as a methodological approach to analyze the use of technology in the workplace and describe the various dimensions of socio-technical systems. Despite numerous examples of research based on ANT methodology, no codified framework has been introduced for it and no examples of using this theory in the form of methodology have been found in the country. The present study tries to introduce a framework for data collection and analysis in the context of this theory, while explaining the methodology of this theory in an analytical-descriptive manner. The feasibility and validity of the proposed framework have been assessed in the form of a case study. The results of the research can be effective in the systematic application of ANT methodology, especially in the country.

    Keywords: Actor-Network Theory (ANT), research methodology, Translation sociology, action
  • حمیدرضا رستمی، شعبان الهی*، علی معینی، علیرضا حسن زاده
    زمینه و هدف

    امروزه، فناوری های معنایی، از طریق ارایه روش های هوشمند مدیریت داده، امکان استدلال ماشینی را فراهم آورده اند. این قابلیت، شکل های جدیدی از تعامل میان انسان ها و فناوری های معنایی را به وجود آورده است که در مطالعات از آن به «تعامل معنایی» یاد می شود. گسترش روزافزون این نوع تعاملات در زندگی روزمره، ضرورت شناسایی عوامل موثر بر آن و معرفی الزامات یک تعامل هم افزا، که در این پژوهش از آن به مدل همزیستی تعبیر شده است را آشکار می سازد. هدف بررسی چیستی، چرایی و چگونگی تعامل انسان و فناوری معنایی در قالب مدل همزیستی، هدف اصلی پژوهش حاضر است. ارایه چنین مدلی می تواند در توسعه راهبردهای فعال در مواجهه با فناوری های هوشمند، به ویژه فناوری معنایی مفید باشد.

    روش

    پژوهش حاضر، مبتنی بر روش شناسی نظریه کنش گر-شبکه، به معرفی کنش گر-شبکه های همزیستی پرداخته است. داده های مورد نیاز پژوهش، به طور عمده از طریق مصاحبه با مدیران، کارشناسان و کاربران فعال در مرکز تحقیقات کامپیوتری علوم اسلامی گردآوری شده است.

    یافته ها

     در همزیستی انسان-فناوری معنایی، علاوه بر انسان (در قالب طراح یا کاربر)، 11 کنش گر دیگر (شامل: محصول معنایی، زمینه، زیرساخت، داده، دانش، رسانه اجتماعی، وب، مراکز علمی، سازمان، هوش مصنوعی و هستان شناسی) نقش دارند که در تعامل با یکدیگر، هفت کنش گر-شبکه پویای همزیستی (شامل: طراحی و توسعه محصول، استفاده از محصول، رهبری و مدیریت، مدیریت داده، مدیریت دانش، آموزش و شرایط زمینه ای) را تشکیل می دهند.

    نتیجه گیری

    محصولات معنایی در کنار انسان، کنش گرانی مستقل، خودمختار و خودآگاه هستند که قادرند در همزیستی میان انسان و فناوری، از صرف واسطه تغییر بودن فراتر رفته و حاکم بر تغییرات اجتماعی شوند؛ در چنین شرایطی، انسان به عنوان آفریننده محصول معنایی، باید علاوه بر تقویت قابلیت های فنی در آفرینش محصول، نسبت به واسپاری اموری که محصول قادر به انجام آن است اقدام نماید

    کلید واژگان: فناوری معنایی، تعامل انسان- فناوری، همزیستی انسان- فناوری معنایی، نظریه کنش گر-شبکه
    Hamidreza Rostami, Shaban Elahi*, Ali Moeini, Alireza Hassanzadeh
    Background

     Semantic technologies (STs) have made machine reasoning possible by providing intelligent data management methods. This capability has created new forms of interaction between humans and STs, which is called "semantic interaction."  The increasing spread of this form of interaction in daily life reveals the need to identify the factors affecting it and introduce the requirements of a synergistic interaction, which in this study is interpreted as a model of symbiosis.

    Purpose

    The main purpose of this study is to investigate what, why, and how human-ST symbiosis occurs in the form of a symbiosis model. Providing such a model could be valuable in developing active strategies in the face of intelligent technologies.

    Methodology

      The study introduces actor-networks of human symbiosis based on the actor-network methodology. Data was collected through in-depth interviews with eight managers, experts, and users in the Computer Research Centers of Islamic Sciences (CRCIS) and examined using the actor network method. All phases of data collection, implementations, coding and analysis were done under NVivo software.

    Findings

    In the human-ST symbiosis, beside human eleven other actors:  Semantic products, context, infrastructure, data, knowledge, social media, Web, scientific centers, organization, AI and ontology are identified. Their interaction establishes seven dynamic actors-networks of symbiosis: Product design and development, use, leadership and management, data, knowledge management, training and contextual conditions.

    Conclusion

    Semantic products alongside human beings are independent, autonomous, and self-aware actors who are able to go beyond mere mediation of change and govern social change in the Human-ST symbiosis. In such circumstances, man, as the creator and maintainer of the semantic product, in addition to strengthening the technical capabilities in the creation of the product, must entrust to the product the things that the product is able to do.

    Keywords: Semantic technology, Human Technology Interaction, Human ST Symbiosis, Actor-Network theory
  • Shahrzad Oveisi *, Mohammad Nadjafi, Mohammad Ali Farsi, Ali Moeini, Mahmood Shabankhah
    One of the key pillars of any operating system is its proper software performance. Software failure can have dangerous effects and consequences and can lead to adverse and undesirable events in the design or use phases. The goal of this study is to identify and evaluate the most significant software risks based on the FMEA indices with respect to reduce the risk level by means of experts’ opinions. To this end, TOPSIS as one of the most applicable methods of prioritizing and ordering the significance of events has been used. Since uncertainty in the data is inevitable, the entropy principle has been applied with the help of fuzzy theory to overcome this problem to weigh the specified indices.The applicability and effectiveness of the proposed approach is validated through a real case study risk analysis of an Air/Space software system. The results show that the proposed approach is valid and can provide valuable and effective information in assisting risk management decision making of our software system that is in the early stages of software life cycle. After obtaining the events and assessing their risk using the existing method, finally, suggestions are given to reduce the risk of the event with a higher risk rating.
    Keywords: Expert Opinion, Fuzzy TOPSIS, Fuzzy Entropy, Risk Assessment, Software FMEA, Requirement analysis
  • Reza Kalantari, Abouzar Arabsorkhi*, Ali Moeini

    Despite the increasing development of research in the service supply chain, the IT service supply chain measurements have not  grown proportionally. In this paper, based on a  survey the key indicators in the IT service supply chain and ranking them, a new hybrid method for measuring the supply chain performance in IT service providers is presented.  IT services are examined in three subcategories: Customer Relationship Management (CRM), Supplier Relationship Management (SRM) and Mutual Trust. In this method, comparative vectors in the high dimension space using the AHP method are developed from relationships between effective IT service supply chain factors and the Kernel LS-SVM method is presented for outranking. The Kernel LS-SVM method allows the presentation of mean surface and provides a hyperplane for outranking. The result shows that knowledge and skills, management information system, security service management system, ability to communicate effectively with the customer, ability to establish effective relationships with suppliers, performance of provided services and customer response time, criteria are the highest importance among 112 examined indicators and More attention to them caused an significant increase in quality of measuring  the performance of companies.

    Keywords: Service Supply Chain, Performance Measurement (SSCPM), Kernels SVM, Ranking AHP Information, Technology Service
  • Hamidreza Rostami *, Shaban Elahi, Ali Moeini, Alireza Hassanzadeh
    Purpose
    The research is intended to extract repetitive themes in the field of semantic-rich learning and to express the basic opportunities and challenges therein.
    Method
    The method applied was to review the articles published in the WOS database, during the years 2000 to 2020 by using the paradigm funnel technique; moreover the Nvivo software was used for document analysis and theme extraction.
    Findings
    In the study, it was found that establishing access to appropriate educational content, proper analysis and representation of knowledge, human capabilities enhancement, personalization of learning, and improving the quality of assessment, are the most important positive effects of using STs in learning; Also, in this study, nine themes and seven major challenges in the field of semantic-rich learning were identified.
    Conclusion
    personalization and adaptation, and the development of various ontologies, are the most cited themes; and access to learning content and concerns about the design and development of learning systems are the most important challenges facing semantic-rich learning environments. We believe that in order to overcome the enumerated challenges, the combination of STs with other emerging cognitive and communication technologies, such as IoT, is necessary and could be the subject of future research in this field.
    Keywords: Semantic technology, E-learning, Educational semantic technology, Semantic Web, Ontology
  • احد بنار*، علی رضائیان، عزیزالله معماریانی، علی معینی
    مدیریت علمی در سازمان نیازمند طراحی الگوی مناسب سیاست گذاری است تا سازمان بتواند با اتخاذ تصمیماتی با حداقل خطا و استفاده هوشمندانه از داده ها به اهدافش دست یابد. عدم وجود الگوی مناسب و هوشمند در این زمینه، عدم تصمیم گیری های به موقع و مناسب، عدم وجود فرایند های سیاست گذاری مبتنی بر شواهد و دور شدن سازمان ها از وظایف حاکمیتی خود، اهم دلایلی است که نیاز سازمان ها علی الخصوص وزارت علوم، تحقیقات و فناوری را به طراحی یک الگوی مناسب در این زمینه مشخص می نماید. هدف پژوهش حاضر، طراحی الگوی سیاست گذاری در وزارت علوم، تحقیقات و فناوری به صورت کلان و تفصیلی است. در واقع به دنبال پاسخگویی به سوال تحقیق یعنی"الگوی مناسب فرایند سیاست گذاری در وزارت علوم، تحقیقات و فناوری چگونه است؟" هستیم. برای این منظور ابتدا جهت طراحی الگوی کلان، با بهره گیری از رویکرد پژوهش اکتشافی و استفاده از روش تحقیق کیفی و راهبرد تیوری برخاسته از داده ها، اطلاعات لازم جمع آوری و پس از تجزیه تحلیل با کمک گراندد تیوری، الگوی کلان سیاست گذاری طراحی شد. سپس، الگوی تفصیلی با استفاده از روش تجزیه و تحلیل ساخت یافته (SSADM) مورد طراحی قرار گرفت و اسناد بالادستی و شواهد، تعیین چشم انداز، ماموریت و سیاست ها، تعیین اهداف کلان و استراتژیک، طراحی مدل و ارزیابی اهداف کلان و استراتژیک، تعریف اهداف کمی و عملیاتی، طراحی مدل و ارزیابی اهداف کمی و عملیاتی و انتخاب و تعیین اهداف کمی و عملیاتی به عنوان اجزای شش گانه الگوی طراحی شده، تعیین و تبیین شدند. در نهایت نیز کیفیت الگوی طراحی شده با روش های علمی مورد ارزیابی و اعتبارسنجی قرار گرفته و تایید شدند.
    کلید واژگان: سیاست گذاری، هوش تجاری، هوشمندی، طراحی الگو، سازمان هوشمند
    Ahad Banar *, Ali Rezaeian, Azizollah Memariani, Ali Moeini
    Scientific management in organizations requires careful design of the appropriate policy model that can best drive the organization to its goals. Therefore, designing a policy model to make decisions with minimum error and intelligent use of data is inevitable. Lack of a smart or systematic model or lack of a system in place, lack of timely and appropriate decision making, lack of evidence-based policymaking processes, departures from governance tasks and addressing or drowning in operational and ongoing work. There are reasons why organizations, especially the Ministry of Science, Research and Technology, need to design an appropriate model for this purpose. The purpose of the present study is to design an appropriate policy Framework in the Ministry of Science, Research and Technology in a macro and detailed manner. In fact, this research seeks to answer the research question, "What is the appropriate Framework of policymaking process at the Ministry of Science, Research and Technology?" Is. For this purpose, first, to design a macro Framework, using an exploratory research approach, and using qualitative research method and Grounded theory strategy, the necessary data were collected and then analyzed by Grounded Theory, macro policy Framework Designed at the Ministry of Science, Research and Technology.Then, the detailed policy model in the Ministry of Science, Research and Technology was analyzed and designed using the Structured Analysis Method (SSADM). The quality of the designed patterns was evaluated and validated by scientific methods and Confirmed. finally the six components were identified and explained
    Keywords: Policy Making, Business Intelligence, Intelligence, Framework Design, Intelligent Organization
  • نرجس زنگنه نژاد*، علی معینی، نسترن حاجی حیدری، عادل آذر

     رویکرد توسعه کسب وکار در صنایع و بازارهای متعدد به سوی رقابت مبتنی بر پلتفرم تغییر کرده است.این رویکرد نسبتا نوظهور مستلزم اتخاذ دیدگاه های مدیریتی متفاوت و تعریف مدل های کسب وکار مقتضی است. توانمندی مالک پلتفرم تضمین کننده موفقیت و پایایی پلتفرم نبوده، بلکه پایایی و عمکلرد پلتفرم در گرو قابلیت های شرکا و ترکیب روابط دو و چندجانبه است. از این رو اتکا به اصول تدوین مدل های کسب وکار خطی جهت طراحی مدل های کسب وکار پلتفرم اثربخش به نظر نمی رسد. بنابراین، پژوهش حاضر با هدف پرکردن شکاف پژوهشی موجود در زمینه مدل های کسب وکار پلتفرم و ارایه چارچوبی جامع جهت تدوین مدل های کسب وکار متناسب با نیازمندی ها و مشخصات پلتفرم ها انجام شده است. بدین منظور و جهت شناسایی مولفه های سازنده مدل کسب و کار پلتفرم از مرور نظام مند متون و شیوه پژوهشی فراترکیب استفاده شده است. پس از استخراج مطالعات پژوهشی انجام شده در سالهای 2008 تا 2019 از پایگاه های علمی معتبر و پالایش یافته ها مبتنی بر معیارهای مشخص، محتوای 32 مقاله پژوهشی منتخب مورد تجزیه تحلیل قرار گرفته است. ارایه چارچوبی جامع با در نظرگرفتن ویژگی های خاص یک پلتفرم، اهمیت مشارکت اعضای آن و شیوه متفاوت ارزش آفرینی در آن، دستاورد اصلی این پژوهش است.  نتایج حاصل از تحلیل و فراترکیب در قالب چارچوب تدوین مدل کسب و کار پلتفرم در دو سطح تعریف شده است که سطح اول شامل شش بعد اصلی و سطح دوم شامل 22 مولفه مدل کسب وکار پلتفرم است. محور اساسی مدل پیشنهادی، همکاری و خلق مشترک ارزش میان اعضای پلتفرم است که زیربنای اصلی موفقیت در پلتفرم هاست.

    کلید واژگان: پلتفرم، مولفه های مدل کسب و کار، چارچوب تدوین مدل کسب و کار، فراترکیب
    Narges Zangeneh *, Ali Moeini, Nastaran Haji heydari, Adel Azar

    Business development in multiple industries and markets results in platform competition. Emerging approach requires adopting new managerial perspectives and defining appropriate business models. Reliability and performance of a platform besides on the capability of the platform owner, depends on the capabilities of partners and their bilateral and multilateral relations. So, relying on the principals of linear business modeling to design platform business models does not seem effective. This study aimed to fill the existing research gap in the field of platform business model and provide a comprehensive framework for developing business models tailored to the needs and specifications of the platforms. So, literature systematic review and meta-synthesis method is used to identify the components of the platform business model. Extracting research studies (2008-2019) from valid scientific databases and refinements based on specific criteria, 32 selected research articles has been analyzed. Consequently, a framework is defined to design platform business model in two levels, the first including six dimensions and the second 22 components. Proposed model is based on cooperation and value co-creation in, which is the platform core competency.

    Keywords: platform, business model components, framework to develop business mode, meta-synthesis
  • احد بنار*، علی رضائیان، عزیزالله معماریانی، علی معینی
    مدیریت علمی در سازمان ها نیازمند طراحی الگوی مناسب برنامه ریزی است که بتواند سازمان را هوشمندانه به اهدافش برساند. طراحی الگوی برنامه ریزی جهت اتخاذ تصمیمات با حداقل خطا و با استفاده هوشمند از داده ها، اجتناب ناپذیر است. هدف پژوهش حاضر، طراحی الگوی مناسب و موثر برنامه ریزی در وزارت علوم، تحقیقات و فناوری است. برای این منظور، با بهره گیری از رویکرد پژوهش اکتشافی و با استفاده از روش تحقیق کیفی و راهبرد نظریه داده بنیاد و با نمونه گیری هدفمند و مصاحبه با 13 نفر از خبرگان، الگوی برنامه ریزی در وزارت علوم، تحقیقات و فناوری مبتنی بر هوش تجاری طراحی شد. بر اساس کدگذاری های انجام شده، ابتدا 193 کدهای اولیه تحقیق تعیین شد. سپس 2 مفهوم(طبقه اصلی) و 27 مقوله (طبقه فرعی) مشخص شدند. سپس با گدگذاری انتخابی و دسته بندی تجمیعی مقوله ها، 4 جز اصلی الگو تعیین و روابط بین آن ها مشخص و سطوح کاربری آن ها تعیین گردید. در نهایت الگوی طراحی شده با استفاده از روش های علمی مورد ارزیابی و اعتبارسنجی قرار گرفت و کیفیت آن تایید شد و پیشنهادات جهت پژوهش های آتی ارایه گردید.
    کلید واژگان: برنامه ریزی، هوشمندی، هوش تجاری، طراحی الگو، نظریه داده بنیاد
    Ahad Banar *, Ali Rezaeian, Azizollah Memariani, Ali Moeini
    Scientific management in organizations requires the design of a proper planning framework that can intelligently achieve the goals of the organization. Designing a planning paradigm to make decisions with minimal error and using smart data is inevitable. The purpose of the present study is to design an appropriate and effective planning framework in the Ministry of Science, Research and Technology. For this purpose, by using exploratory research approach and by using qualitative research method and Grounded theory strategy and by purposeful sampling and interviewing 13 experts, planning framework in Ministry of Science, Research and Technology It was designed for business intelligence. Based on the encodings performed, the first 193 initial codes of research were identified. Then 2 concepts (main category) and 27 categories (subcategory) were identified. Then, by selective ranking and cumulative classification of the categories, 4 main components of the framework were identified and the relationships between them were identified and their user levels determined. Finally, the designed framework was evaluated and validated using scientific methods and its quality was confirmed and suggestions for future research were presented.
    Keywords: Planning, Intelligence, Business Intelligence, Framework Design, ModelingGrounded Theory
  • Narges Peyravi, Ali Moeini *
    One of the most popular frameworks for big data processing is Apache Hadoop MapReduce. The default Hadoop scheduler uses queue system. However, it does not consider any specific priority for the jobs required for MapReduce programming model. In this paper, a new dynamic score is developed to improve the performance of the default Hadoop MapReduce scheduler. This dynamic priority score is computed based on effective factors such as job runtime estimation, input data size, waiting time, and length or bustle of the waiting queue. The implementation of the proposed scheduling method, based on this dynamic score, not only improves CPU and memory performance, but also reduced waiting time and average turnaround time by approximately $45%$ and $40%$ respectively, compared to the default Hadoop scheduler.
    Keywords: Hadoop MapReduce, Job scheduling, Prioritization, dynamic priority score
  • Ali Moeini*, Sasan Sabour

    Community detection is one of the important topics in complex network study. There are many algorithms for community detection, some of which are based on finding maximal cliques in the network. In this paper, we improve Streaming Community Detection Algorithm (SCoDA) and Order Statistics Local Optimization Method (OSLOM). After finding maximal cliques and generating the corresponding graphs, the latter are used as input to SCoDA and OSLOM algorithms. Non-overlap and overlap synthetic graphs and real graphs data are used in our experiments.  As evaluation criteria F1score and NMI scores functions are utilized. It is shown that the improved version of SCoDA has better results in comparison to the original SCoDA algorithm, and the improved OSLOM algorithm has better performance in comparison with the original OSLOM algorithm.

    Keywords: Maximal clique, Maximal clique graph, OSLOM, SCoDA, Community Detection, Non-overlap community, Overlap community
  • رضا کلانتری، علی معینی*، حسین صفری، ابوذر عرب سرخی
    هدف

    هدف از پژوهش حاضر، شناسایی شاخص های دارای اولویت، بر اساس تحلیل کیفی نتایج پژوهش های انجام ‎شده و همچنین ارایه چارچوب سنجش عملکرد زنجیره تامین خدمات امنیت اطلاعات است.

    روش

    روش شناسی این پژوهش، توصیفی و کیفی بوده و در دو مرحله انجام شده است. ابتدا به کمک روش فراترکیب، 133 مقاله بررسی و پس از ارزیابی، 28 مقاله تایید شدند. سپس با بهره گیری از روش CASP، 15 مقاله برای اجرای تحلیل کیفی محتوا حداقل امتیاز لازم را کسب کردند. با بررسی مقاله ها، چارچوبی مفهومی برای اندازه گیری عملکرد زنجیره تامین خدمات، ارایه شد. پس از تایید پایایی نتایج، در مرحله دوم به منظور نگاشت چارچوب پیشنهادی به حوزه خدمات امنیت اطلاعات، با مراجعه به 10 نفر از خبرگان این حوزه و دریافت نظر آنها طی سه دور روش دلفی فازی، اعتبارسنجی به عمل آمد و مدل نهایی پژوهش طراحی شد.

    یافته ها

    عملکرد زنجیره تامین خدمات امنیت اطلاعات با 18شاخص و 34 زیرشاخص موثر، تحت مدل منطقی، ارزیابی شد و با مقدار ضریب هماهنگی کندال 742/0 به توافق خبرگان و متخصصان رسید.

    نتیجه گیری

    بر اساس بررسی نظرهای خبرگان، زیرشاخص های دانش و مهارت، ارایه فناوری های امنیتی جدید و به روز دنیا و محرمانگی و امنیت اطلاعات، بیشترین میزان توافق و زیرشاخص های توانایی برآورد تقاضا، استفاده بهینه از ظرفیت و منابع، توانایی تحویل خدمات استاندارد، طراحی پاسخ مناسب برای مخاطره ها، توانایی ایجاد روابط موثر با تامین کنندگان، قابلیت اطمینان به خدمات، هزینه کل تحویل خدمات، وفاداری مشتری و زمان پاسخ گویی به مشتری نیز دارای میزان اتفاق نظر شایان توجهی هستند. زیرشاخص های کل زمان جریان وجوه و توانایی سفارشی کردن درخواست مشتریان نیز، کمترین میزان اتفاق نظر را نشان می دهند.

    کلید واژگان: امنیت اطلاعات، دلفی فازی، زنجیره تامین خدمات، فراترکیب، مدل منطقی
    Reza Kalantari, Ali Moeini *, Hossein Safari, Abouzar Arabsorkhi
    Objective

    The purpose of the present study is to identify priority indicators -based on the qualitative analysis of the results of the research carried out- and also to provide a framework for measuring the performance of the information security service supply chain.

    Methods

    The methodology of this research is essentially descriptive and qualitative and has been carried out in two stages. In the first phase, 133 papers were reviewed, after evaluation, 28 articles were approved. Then, by using the CASP method, finally, 15 articles on the measurement of the performance of the service chain received the minimum score for conducting a qualitative analysis of the content. By reviewing these articles, a conceptual framework for measuring the performance of the service chain was presented in the form of a "logic model". This model is a tool that illustrates the logic of doing things in the four components of inputs, processes, outputs and outcomes. After verifying the reliability of the results, in the second stage, in order to map the proposed framework into the field of information security services, by referring to ten experts in this field and receiving their views in the three rounds of the Fuzzy Delphi, validation and final modeling of the research was designed.

    Results

    The evaluation of the performance of the information security service supply chain for 19 indicators and 35 effective sub-indicators, under the logic model, were agreed with the coefficient of coordination of Kendal of 0.742 between experts and specialists.

    Conclusion

    The review of experts' opinions showed that the sub-indicators of knowledge and skills, the provision of new and up-to-dated security technologies and the confidentiality and security of information make the most important and rate of personnel turnover sub-indicator, assessing the least important in the performance evaluation of the information security services supply chain.

    Keywords: information security, Fuzzy Delphi, service supply chain, Meta-synthesize, Logic model
نمایش عناوین بیشتر...
سامانه نویسندگان
  • مهندس علی معینی
    مهندس علی معینی
    دانشجوی کارشناسی ارشد مهندسی و علم مواد، دانشگاه صنعتی شریف، تهران، ایران
اطلاعات نویسنده(گان) توسط ایشان ثبت و تکمیل شده‌است. برای مشاهده مشخصات و فهرست همه مطالب، صفحه رزومه ایشان را ببینید.
بدانید!
  • در این صفحه نام مورد نظر در اسامی نویسندگان مقالات جستجو می‌شود. ممکن است نتایج شامل مطالب نویسندگان هم نام و حتی در رشته‌های مختلف باشد.
  • همه مقالات ترجمه فارسی یا انگلیسی ندارند پس ممکن است مقالاتی باشند که نام نویسنده مورد نظر شما به صورت معادل فارسی یا انگلیسی آن درج شده باشد. در صفحه جستجوی پیشرفته می‌توانید همزمان نام فارسی و انگلیسی نویسنده را درج نمایید.
  • در صورتی که می‌خواهید جستجو را با شرایط متفاوت تکرار کنید به صفحه جستجوی پیشرفته مطالب نشریات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال