فهرست مطالب

نشریه اندیشه آماری
سال بیست و هشتم شماره 2 (پیاپی 56، پاییز و زمستان 1402)
- تاریخ انتشار: 1402/12/11
- تعداد عناوین: 12
-
-
صفحات 1-9
در این مقاله، مدل های رگرسیونی لوژستیک که در آن متغیرهای پاسخ به صورت دو (یا چند) ارزشی و متغیرهای توضیحی (پیشگو یا مستقل) متغیرهای معمولی هستند اما خطاها علاوه بر ماهیتی تصادفی، ماهیتی ابهامی، نیز دارند، مورد مطالعه قرار می گیرند. بر این اساس مدل پیشنهادی را صورت بندی کرده و برآورد ضرایب را برای حالتی با تنها یک متغیر توضیحی و با استفاده از روش کمترین توان های دوم تعیین می کنیم. در پایان با یک مثال به تشریح نتایج حاصله می پردازیم
کلیدواژگان: رگرسیون لوژستیک، متغیر تصادفی فازی، متغیر تصادفی زبانی فازی -
صفحات 11-23
دو سبک پژوهشی را می توان در حوزه تحقیقات آماری، متصور شد: حل مسائل خودانگیخته که انتخاب موضوع عمدتا با پژوهشگر بوده و اغلب ادامه کارهای تحقیقاتی پژوهشگر پس از اخذ مدرک تحصیلی دکتری اوست؛ یا، حل مسئله ای که در همراهی با یک پژوهشگر یکی از رشته های علمی (به معنی عام آن، چه علوم تجربی و چه غیر آن). انتشار مقاله اصیل در هر دو سبک، البته ارزشمند است، اما تردیدی نیست که روش کار دوم، که در آن هدف حل مسئله ای واقعی است، بیشتر بر غنای علمی می افزاید. ناگفته نماند که قریب به اتفاق پژوهش های آماری در کشور به سبک اول انجام می شود درحالی که در سبک دوم نه تنها گرهی از کار مملکت (به شرط واقعا واقعی بودن مسئله) گشوده می شود، بلکه این کار به تعمیق درک بهتر آمار در بین پژوهشگران سایر رشته ها منجر و همکاری آن ها را موجب شده و البته سبب نفوذ بیشتر علم آمار در میان دست اندرکاران رشته های مختلف دانش می شود. این اعتنای کم به همکاری با پژوهشگران رشته های دیگر به ویژه زمانی فاجعه بار می شود که مسائل واقعی بسیار با ارزشی در برخی حوزه ها وجود دارند که حل آن ها تنها از راه همکاری بین آماردانان و پژوهشگران رشته های دیگر میسر است. در این مقال به چند مورد از چنین کارهای تحقیقاتی که به آن ها پرداخته نشده یا توجه بسیار کمی به آن ها شده به اختصار اشاره می شود.
کلیدواژگان: آمار رسمی، نظریه خطاها، تعیین هویت صاحب اثر -
صفحات 25-34
شرکت های بیمه به لحاظ ساختار تصادفی که دارند، با مدل های ریاضی و آماری مدل بندی می شوند. در این مقاله، مدل مخاطره انفرادی شرکت بیمه با نرخ های بهره متفاوت در یک دوره زمانی در نظر گرفته شده و فرض می شود که نرخ های بهره دارای ماتریس احتمال انتقال با حالت متناهی و شمارا باشند. با استفاده از احتمال شرطی روی تابع چگالی اولین خسارت، احتمالات ورشکستگی زمان متناهی و نامتناهی محاسبه شده اند. همچنین با استفاده از روش استقرای ریاضی کران های بالای احتمال ورشکستگی زمان نامتناهی برای توزیع های دم سبک به دست آمده اند. در مثال های عددی، احتمالات ورشکستگی برای توزیع های دم سنگین با احتمالات داده شده در بازیاری (2022) برای مدل مخاطره انفرادی کلاسیک مقایسه شده و نیز احتمالات ورشکستگی زمان نامتناهی برای توزیع های دم سبک با مقادیر کران لاندبرگ مقایسه می شوند. نتایج نشان می دهند که وجود نرخ های بهره دارای ماتریس احتمال انتقال با حالت متناهی باعث کاهش احتمالات ورشکستگی خواهند شد.
کلیدواژگان: احتمال ورشکستگی، احتمال شرطی، کران لاندبرگ، ماتریس احتمال انتقال، نرخ بهره -
صفحات 35-54
مارشال و اولکین خانواده ای از توزیع ها را معرفی کردند که با اضافه کردن یک پارامتر به توزیع های دیگر بدست می آید. سانتوز-نتو و همکاران مطالعه روی خانواده ی توزیع های تعمیم یافته وایبول را انجام دادند. در این مقاله دو توزیع ریلی و پارتو تعمیم یافته وایبول مورد مطالعه قرار گرفته, مطالب گوناگون مانند گشتاورها و آمار بیزی تحت تابع زیان های مختلفی از جمله مربع خطا, آنتروپی, لاینکس, مربع خطا در لگاریتم و لاینکس اصلاح شده را مورد بحث قرار داده ایم. همچنین روش زنجیره مارکف مونت کارلو(mcmc) برای این دو توزیع قرار گرفته اند.
کلیدواژگان: تابع بقا، تابع مخاطره، توزیع وایبل تعمیم یافته، توزیع ریلی، توزیع پارتو، آمار بیزی، روش زنجیره مارکف مونت کارلو -
صفحات 55-68
در طول دهه های گذشته، چالش های زیادی برای سرشماری سنتی وجود داشته است. گردآوری اطلاعات از افراد یک کشور با استفاده از روش های سنتی یک عملیات عظیم و پرهزینه و یک نگرانی کلیدی است. علاوه بر این، کاهش تمایل جامعه برای پاسخ گویی به پرسش نامه های سرشماری و بحران های غیر منتظره مانند همه گیری کووید 19، تولید آمارهای قابل اعتماد با جزئیات جغرافیایی و محتوایی لازم را برای اداره های آمار ملی دشوار کرده است. اما توسعه ی فناوری های جدید و رویکردهای گرد آوری داده ها به این معنی است که فرصت های نوظهوری نیز وجود دارد. تمایل روزافزون استفاده از منابع اداری در اجرای سرشماری ها، امکان کاهش هزینه ها، بهبود کیفیت داده ها و تولید اطلاعات مکرر را به صورت سالانه فراهم آورده است. مطالعه ی رویکردهای مختلف اتخاذشده توسط برخی از کشورهای منطقه ی آسیا و اقیانوسیه نشان می دهد که در حال حاضر از داده های اداری به روش های مختلفی برای پشتیبانی از عملیات سرشماری ها استفاده می شود. بررسی این رویکردها، برای یاری و راهنمایی کشورهایی که در حال تامل در به کارگیری یا توسعه ی استفاده از داده های اداری در سرشماری هستند، بسیار مفید خواهد بود. در این مقاله ضمن مرور تعریف ثبت و انواع ثبت های اداری مورد استفاده در سرشماری ثبتی مبنا، اقدامات انجام شده در برخی کشورها در حرکت به سمت سرشماری ثبتی مبنا ارائه می شود.
کلیدواژگان: داده های اداری، سرشماری سنتی، سرشماری ثبتی مبنا، رویکرد ترکیبی -
صفحات 69-83
بنگاه های کوچک و متوسط (SMEs) نقش به سزایی در ایجاد فرصت های شغلی، تولید ناخالص داخلی، افزایش تولید محصولات داخلی و صادرات ایفا می کنند و یکی از ارکان کلیدی دست یابی به رشد و توسعه ی اقتصادی کشورها به شمار می آیند. هدف این مقاله، تبیین جایگاه SMEها و سهم آن ها در اشتغال، اقتصاد، صادرات و دسترسی به منابع بانکی در برخی کشورهای منتخب و مقایسه ی آن ها با داده های موجود در ایران است. برای این منظور، تعداد کل کارگاه های خرد و کوچک بخش خصوصی کشور (کمتر از 50 نفر کارکن) و تعداد شاغلان آن ها با استفاده از داده های طرح آمارگیری نیروی کار مرکز آمار ایران طی دوره ی 10 ساله براورد و مقادیر آن ها با استفاده از روش هموارسازی نمایی دوگانه برای سال 1404 پیش بینی شده است. نتایج حاکی از آن است که تعداد کارگاه های کمتر از 50 نفر کارکن بخش خصوصی طی دوره ی مورد بررسی افزایشی بوده و تا سال 1404 تعداد آن به 4,596,855 می رسد به طوری که سهم شاغلان این کارگاه ها در سال 1404 نیز 82.6 درصد پیش بینی شده است. با این وجود، شواهد نشان می دهد که سهم این بنگاه ها از تسهیلات بانکی در سال های اخیر، تنها 4.5 درصد بوده است که این رقم در مقایسه با سایر کشورها بسیار کم و ناچیز است. یافته های این پژوهش در راستای برنامه های حمایتی دولت از SMEها یاری رسان است
کلیدواژگان: بنگاه های کوچک و متوسط، تامین مالی بانکی، آمارگیری نیروی کار، هموارسازی نمایی -
صفحات 85-94
تابع هزینه و احتمال پایایی سیستم دو معیار کلیدی در طراحی سیستم های صف بندی به شمار می آیند. در این مقاله هدف طراحی یک سیستم صف بندی تک باجه ای با ظرفیت نامتناهی است که در آن زمان های سرویس در مدل اول و زمان های بین ورود به سیستم در مدل دوم دارای توزیع ارلانگ می باشند. به این منظور، شاخصی جدید بر اساس تابع هزینه و احتمال پایایی سیستم معرفی می شود که بزرگ تر بودن آن نشان دهنده بهینه بودن مدل می باشد. چند مثال عددی و یک مثال کاربردی برای تشریح جزئیات محاسباتی روش پیشنهادی ارائه شده است.
کلیدواژگان: توزیع ارلانگ، ظرفیت نامتناهی، تابع هزینه، احتمال پایایی، شاخص کارایی -
صفحات 95-107
ما در عصر اطلاعات زندگی می کنیم و همواره در حال درک و دریافت داده های زیادی از دنیای اطراف خود هستیم که برای استفاده از این اطلاعات لازم است آن ها را به کمک آمار و به صورت ریاضی بیان کنیم. آمار در همه ی زمینه ها نقش موثری ایفا می کند. یکی از مواردی که جدیدا مورد توجه قرار گرفته و از فنون آماری کمک می گیرد، متن کاوی است. متن کاوی یک روش تحقیقی برای شناسایی الگوهای موجود در متون است که می تواند نوشتاری، گفتاری و یا تصویری باشد. متن کاوی بسیار گسترده است همانند طبقه بندی متون، خوشه بندی متون، وب کاوی و عقیده کاوی و... تکنیک های متن کاوی به کار گرفته می شود تا مقادیر عددی را برای یک متن تعیین کند. از آنجا که اساس کار با داده، دارا بودن علم آمار است. پس با استفاده از ابزار های آماری به تحلیل متن می پردازند همانند پیش بینی افزایش یا کاهش قیمت دلار یا سهام با استفاده از اطلاعات متنی امروز. به کارگیری روش های آماری می تواند حقایق موجود در متن را کشف، تائید و یا رد کند. امروزه این مبحث در یادگیری ماشین بسیار پر کاربرد است. در این مقاله سعی کردیم تا آشنایی ابتدایی با ابزارهای آماری در روش متن کاوی داشته باشیم و از این ابزار قدرتمند برای تحلیل وقایع استفاده کنیم.
کلیدواژگان: کدگذاری، آمارتوصیفی، سری زمانی، رگرسیون، آمار بیزی -
صفحات 109-119
خشکسالی از مفاهیم بسیار مهم در حوزه هیدرولوژی هستند که در سال های اخیر اهمیت بیشتری پیدا کرده است و نتایج حاصل از مدل سازی و تحلیل آن برای ارزیابی و مدیریت ریسک اهمیت دارد. این پژوهش، به بررسی خشکسالی در شهر زاهدان طی دوره آماری 1951 تا 2017 با استفاده از شاخص بارش استاندارد شده می پردازد و روش های مدل بندی داده های چندمتغیره با استفاده از توابع مفصل واین را توضیح می دهد. مدل های مختلف با استفاده از معیارهای نیکویی برازشمقایسه می شوند و بهترین مدل انتخاب می گردد. همچنین، دوره های بازگشت توام محاسبه و تحلیل می شوند.
کلیدواژگان: تابع مفصل واین، نیکویی برازش، توزیع حاشیه ای، توزیع توام -
صفحات 121-137
یکی از نگرانی های عمده اقتصادی بسیاری از شرکتها از جمله بانکها ریزش مشتری است و بانکها توجه خود را بر حفظ مشتری متمرکز کرده اند، زیرا هزینه های جذب یک مشتری جدید بسیار بیشتر از هزینه های نگهداری یک مشتری است. بنابراین، پیش بینی و الگوپردازی ریزش مشتریان دو دغدغه اقتصادی مهم برای بسیاری از شرکت هاست. روش های مختلف یادگیری ماشین، برای این اهداف پیشنهاد شده اند، اما انتخاب بهترین مدل برای انجام این دو امر، به دلیل وابستگی زیاد به ویژگی های ذاتی داده های ریزش، کار ساده ای نیست. در این مقاله، چندین روش یادگیری ماشین با رویکردهای مختلف بازنمونهگیری برای متعادلسازی داده ها، روی داده های بانک پیاده سازی شده است. ارزیابی ها که براساس معیار سطح زیر منحنی و نرخ مثبت درست گزارش شده اند، تاثیر روش های متعادل سازی و عملکرد روش های مختلف یادگیری ماشین را بررسی می کند. در این مطالعه، مناسب ترین روش ها در زمینه ریزش به همراه یک فرآیند موثر مبتنی بر رویکرد ترکیبی و خوشه بندی معرفی شده است. این روش ها می تواند به خدمات بازاریابی یا منابع انسانی در درک الگوهای رفتاری مشتریان و احتمال ریزش آن ها کمک کند.
کلیدواژگان: ریزش مشتری، الگوپردازی مشتری، روشهای یادگیری ماشین، رویکرد ترکیبی، مشتریهای بانک، معیار سطح زیر منحنی، متعادلسازی داده ها -
صفحات 139-146
در بعضی از پدیده های تجربی، پژوهشگران با داده هایی مواجه هستند که ذاتا ماهیت اقلیدسی ندارند. داده های دایره ای که برای اندازه گیری زاویه و یا جهت به کار می روند، از این نوع هستند. در بررسی های آماری ممکن است به جای نمونه های تصادفی با نمونه های وزنی مواجه شویم که در آنها مشاهدات متناظر با تابعی تحقق مییابند. در این مقاله به توزیع های وزنی در داده های دایره ای پرداخته می شود. با توجه به اینکه توزیع ون میزس کاربرد بسیار وسیعی در مدل بندی داده های دایره ای دارد، برآورد ماکسیمم درستنمایی پارامترهای توزیع دایره ای ون میزس وزنی مورد بررسی قرار می گیرد. از آنجا که ممکن است براوردگرها شناسا پذیر نباشند، به کمک توزیع پیشین مناسب ممکن است برآوردهایی منحصر به فرد به دست آورد. در یک کار شبیه سازی وزن های مختلف در توزیع دایره ای ون میزس مقایسه می شوند
کلیدواژگان: داده های دایره ای، توزیع ون میزس، تابع وزن، برآورد ماکسیمم درستنمایی، شبیه سازی رد- پذیرش -
صفحات 147-159
در این مقاله آزمون واگرایی L2 را جهت سنجش نمایی بودن داده های سانسور تصادفی معرفی می کنیم. سپس توان این آزمون در تشخیص نمایی بودن داده ها را به روش شبیه سازی مونت کارلو با سایر آزمون های رقیب شامل آزمون های کولموگروف-اسمیرنوف، اندرسون-دارلینگ و کرامر فون-میزس که مبتنی بر تابع توزیع تجربی و آزمون های مبتنی بر معیار اطلاع مورد مقایسه قرار می دهیم. نتایج مطالعات شبیه سازی نشان می دهد که آزمون پیشنهادی عموما عملکرد بهتری نسبت به سایر آزمون های رقیب دارد.
کلیدواژگان: آزمون نیکویی برازش، سانسور تصادفی، سنجش نمایی بودن، واگرایی L2
-
Pages 1-9
In this article, logistic regression models are studied in which the response variables are two (or multiple) values and the explanatory variables (predictor or independent) are ordinary variables, but the errors have a vagueness nature in addition to being random. Based on this, we formulate the proposed model and determine the estimation of the coefficients for a case with only one explanatory variable using the method of least squares. In the end, we explain the results with an example.
Keywords: Logistic Regression, Fuzzy Random Variables, Fuzzy Linguistic Random Variables -
Pages 11-23
In the realm of statistical research, two primary methodologies can be identified: the first involves addressing self-motivated problems, where researchers select topics based on personal interest, often as a continuation of their doctoral studies. The second methodology focuses on collaborative problem-solving with researchers from various scientific disciplines, including both experimental sciences and other fields. While publishing original articles in both approaches is valuable, the collaborative method is particularly significant as it aims to address real-world problems, thereby enhancing the scientific discourse. Currently, most statistical research in Iran predominantly follows the first approach. In contrast, the second approach not only addresses pressing issues faced by the country—provided these problems are genuinely relevant—but also fosters a deeper understanding of statistics among researchers from other disciplines. This collaboration can lead to increased engagement between statisticians and professionals in various fields, ultimately promoting a more comprehensive understanding of statistical science across diverse areas of knowledge. The lack of emphasis on interdisciplinary collaboration is particularly concerning given the existence of critical real-world problems that can only be effectively addressed through joint efforts between statisticians and experts from other domains. This article will briefly examine several instances of research that have either been overlooked or received minimal attention, highlighting the need for greater interdisciplinary engagement in statistical research within Iran.
Keywords: Official Statistics, Theory Of Errors, Deciding Authorship -
Pages 25-34
Insurance companies are modeled with mathematical and statistical models in terms of their random structure. In this paper, the individual risk model of insurance company with different interest rates in a period of time is considered and assumed that the interest rates have the probability transition matrix with finite and countable state. The finite and infinite time ruin probabilities are computed using the conditional probability on the first claim of density function. Moreover, the upper bounds for the infinite time ruin probability are obtained using the mathematical induction. In the numerical examples, the ruin probabilities for heavy tailed distributions are compared with the obtained probabilities in Bazyari (2022) for the classical individual risk model and also, the infinite time ruin probabilities for light tailed distributions are compared with Lundberg's inequality. The results show that the existence of interest rate with probability transition matrix and having finite state leads to decrease the ruin probabilities.
Keywords: Conditional Probability, Lundberg Inequality, Pareto Distribution, Probability Transition Matrix, Ruin Probability -
Pages 35-54
Marshall-Olkin introduced a family of distributions which obtained by adding a parameter into other distributions. Santoz-Neto etal study an extended Weibull distribution. In this paper two Raiyle and Pareto extended weibull are studied under some momemts and Bayesian methods with some loss functions such as squared error, entropy, linex, squared error in logarithm and modified linex. Also the MCMC method are study for these two distributions.
Keywords: Survival Function, Hazard Function, Extended Weibull Distribution, Raylieh, Pareto, Bayesian Statistics, MCMC Method -
Pages 55-68
Over the last decades there have been, increasing challenges to the traditional census. Collecting information from every person in a country using traditional methods is a massive and costly exercise and thus a key concern. Further, reduced willingness amongst the population to respond to the census questionnaires and unexpected crises such as the Covid-19 pandemic have maked it increasingly difficult for NSOs to produce reliable figures with the necessary geographical and substantive detail.But developments of new technologies and approaches to data collection mean that there are also emerging opportunities. The increasing desire to use administrative resources in the implementation of censuses has made it possible to reduce costs, improve data quality, and produce frequent information on an annual basis. A study of the different approaches adopted by some countries in the Asia-Pacific region shows that administrative data are currently being used in different ways to support census operations. Examining these approaches will be very useful to help and guide for countries contemplating the use of or expansion of their use of administrative data for censuses. In this article, while reviewing the definition of register and the types of administrative registers used in register-based census, the proceedings taken in some countries in moving towards register-based census are presented.
Keywords: Administrative Data, Traditional Census, Register-Based Census, Combined Approach -
Pages 69-83
Small and medium enterprises play a significant role in creating job opportunities, gross domestic product, increasing the production of domestic products and exports, and are considered one of the key pillars of achieving the economic growth and development of countries. The purpose of this article is to explain the position of SMEs and their contribution in employment, economy, export and access to banking resources in some selected countries and compare them with the data available in Iran. For this purpose, the total number of micro and small establishment in the private sector of the country (less than 50 employees) and the number of their persons employed have been estimated using the data of the labour force survey during 10 years period, and their values are predicted for 1404 using the double exponential smoothing method. The results indicate that the number of establishments with less than 50 employees in private sector increased during the period under review, and by 1404, its count will reach 4,596,855, so that the share of the number of persons employed in these establishments is predicted to be 82.6 percent in the 1404. However, the evidence shows that the share of these enterprises in bank facilities over the past years was only 4.5 percent, which is very low compared to other countries. The findings of this research are helpful for the support programs of the government for SMEs.
Keywords: Small, Medium Enterprises, Bank Financing, Labour Force Survey, Exponential Smoothing -
Pages 85-94
The cost function and the system stationary probability are two key criteria in the design of queuing systems. In this paper, the aim is to design a single server queuing models with infinite capacity, where the service times in the first model and the interarrival times in the second model are assumed to have an Erlang distribution. For this purpose, a new index based on the cost function and the system reliability probability is introduced, the larger of which indicates the optimality of the model. Several numerical examples and an applied example are presented to explain the computational details of the proposed method.
Keywords: Erlang Distribution, Infinite Capacity, Cost Function, Stationary Probability, Efficacy Index -
Pages 95-107
We live in the information age, constantly surrounded by vast amounts of data from the world around us. To utilize this information effectively, it must be mathematically expressed and analyzed using statistics. Statistics play a crucial role in various fields, including text mining, which has recently garnered significant attention. Text mining is a research method used to identify patterns in texts, which can be in written, spoken, or visual forms. The applications of text mining are diverse, including text classification, clustering, web mining, sentiment analysis, and more. Text mining techniques are utilized to assign numerical values to textual data, enabling statistical analysis. Since working with data requires a solid foundation in statistics, statistical tools are employed in text analysis to make predictions, such as forecasting changes in stock prices or currency exchange rates based on current textual data. By leveraging statistical methods, text mining can uncover, confirm, or refute the truths hidden within textual content. Today, this topic is widely used in machine learning. This paper aims to provide a basic understanding of statistical tools in text mining and demonstrates how these powerful tools can be used to analyze and interpret events.
Keywords: Coding, Descriptive Statistics, Time Series, Regression, Bayes Inference -
Pages 109-119
Drought is one of the most important concepts in hydrology, which has gained increased significance in recent years, and the results of its modeling and analysis are crucial for risk assessment and management. This study examines drought at the Zahedan station during the statistical period from 1951 to 2017 using the standardized precipitation index and explains multivariate data modeling methods using Vine Copulas. Various models are compared using goodness-of-fit criteria, and the best model is selected. Additionally, joint return periods are calculated and analyzed.
Keywords: Vine Copula Function, Goodness Of Fit, Marginal Distribution, Joint Distribution -
Pages 121-137
Customer churn is one of the major economic concerns of many companies, including banks, and banks have focused their attention on customer retention, because the cost of attracting a new customer is much higher than the cost of keeping a customer. Customer churn prediction and profiling are two major economic concerns for many companies. Different learning approaches have been proposed; however, a priori choice of the most suitable model to perform both tasks remains non-trivial as it is highly dependent on the intrinsic characteristics of the churn data. Our study compares several machine learning methods with several resampling approaches for data balancing of a public bank data set. Our evaluations, reported in terms of area under the curve (AUC) and sensitivity, explore the influence of rebalancing strategies and difference machine learning methods. This work identifies the most appropriate methods in an attrition context and an effective pipeline based on an ensemble approach and clustering. Our strategy can enlighten marketing or human resources services on the behavioral patterns of customers and their attrition probability.
Keywords: Customer Churn, Customer Profiling, Machine Learning Methods, Ensemble Approach, Bank Customers, Area Under The Curve (AUC) Criteria, Data Balancing -
Pages 139-146
Circular data are measured in angles or directions. In many cases of sampling, instead of a random sample, we deal with a weighted model. In such sampling, observations are provided throughout with a positive function, weight function. This article deals with weight distributions in circular data. According to von Mises distrinution is the most widely used distribution for modeling circular data, maximum likelihood estimation of parameters in weighted von Mises distributions is investigated. In a simulation study, different weights are compared in the Van Mises circular distribution.
Keywords: Circular Data, Von Mises Distribution, Weight Function, Maximum Likelihood Estimation, Accept-Rejection Simulation -
Pages 147-159
In this article, we propose using the L2 divergence to test the Exponentiality for random censored data. Then we compare the ability of the proposed test to detect the Exponential distribution by Monte Carlo simulation with other competing tests, including the Kolmogorov‐Smirnov, Anderson‐darling and Cramer von‐Mises tests, which are based on the empirical distribution function and the information criteria tests. The results of simulation studies show that the proposed test generally performs better than its competitor tests.
Keywords: Goodness-Of-Fit Test, Random Censoring, Exponential Function Test, L2 Divergence