فهرست مطالب

مجله علوم آماری - سال دهم شماره 1 (پیاپی 19، بهار و تابستان 1395)

مجله علوم آماری
سال دهم شماره 1 (پیاپی 19، بهار و تابستان 1395)

  • تاریخ انتشار: 1395/06/30
  • تعداد عناوین: 10
|
  • شیوا اختریان، طاهره یعقوبی صفحات 1-20
    با توجه به کاربردهای گسترده سیستم های نرم افزاری، لزوم تولید نرم افزارهای تقریبا بدون خطا و با کیفیت بالا بیش از پیش اهمیت پیدا کرده است. قابلیت اعتماد نرم افزار یک رهیافت مهم برای ارزیابی کیفیت نرم افزار در نظر گرفته می شود. مدل سازی قابلیت اعتماد نرم افزار براساس فرایند پواسون ناهمگن یکی از روش های کاملا موفق در مهندسی قابلیت اعتماد نرم افزار می باشد. در این مقاله ابتدا مدل عمومی رشد قابلیت اعتماد بررسی می شود. سپس با در نظر گرفتن دو نوع خطای ساده و پیچیده و لحاظ کردن وابستگی بین خطاهای پیچیده و نیز تاخیر زمانی بین کشف و حذف خطاهای پیچیده به ارائه یک مدل تعمیم یافته قابلیت اعتماد نرم افزار پرداخته می شود. برآورد پارامترهای مدل پیشنهادی با استفاده از مجموعه داده های شکست دو پروژه نرم افزاری واقعی و از طریق نرم افزار انجام می شود. در پایان مدل پیشنهادی با دو مدل موجود با استفاده از معیارهای مختلف مقایسه می شود. نتایج نشان می دهد مدل ارائه شده در این تحقیق بر روی این مجموعه داده ها بهتر برازش شده، اطلاعات دقیق تری در مورد کیفیت نرم افزار ارائه می کند.
    کلیدواژگان: قابلیت اعتماد نرم افزار، فرایند پواسون ناهمگن، خطاهای ساده و پیچیده، وابستگی خطاها، تاخیر زمانی، اشکال زدایی کامل
  • ابوذر بازیاری صفحات 21-44
    آزمون فرضیه تساوی میانگین های k جامعه نرمال یک متغیره در مقابل فرضیه یکطرفه میانگین های مرتب شده با واریانس های مجهول و برابر در نظر گرفته شده است. یک روش کاملا جدید برای یافتن پرتوانترین آزمون به طور یکنواخت در سطح معنی داری α بر حسب توزیع t چند متغیره برای این مساله آزمون ارائه شده است. با توجه به اینکه تعیین توزیع آماره آزمون تحت فرضیه صفر برای بیش از دو جامعه ساده نیست، تابع توان آزمون محاسبه و سپس مقادیر بحرانی آن برای سطوح معنی داری مختلف به دست آمده اند. این روش آزمون برای مثال های با داده های واقعی به کار برده شده است. همچنین آزمون فرضیه تساوی میانگین های k جامعه نرمال چند متغیره در مقابل فرضیه مرتب شده دو طرفه بردارهای میانگین در نظر گرفته شده است. با روش شبیه سازی مونت کارلو مقادیر توان آزمون کلاسیک برای دو جامعه نرمال دو متغیره و سه متغیره در سطوح معنی داری مختلف محاسبه و با آزمون دیگری مقایسه شده است.
    کلیدواژگان: آزمون فرضیه میانگین های مرتب شده، پرتوانترین آزمون به طور یکنواخت، رگرسیون همنوای چندمتغیره، شبیه سازی مونت کارلو
  • معصومه بخشی شجایی، امید کریمی صفحات 45-65
    مدل بندی داده های فضایی چوله اغلب با استفاده از میدان تصادفی چوله گاوسی صورت می پذیرد. مساله اصلی این است که شبیه سازی از این میدان تصادفی برای بعضی مقادیر پارامترها و بعدهای بالا خیلی زمان بر و حتی در برخی حالت ها ناممکن و نیازمند استفاده از روش های تقریبی است. یکی از شاخه های آمار فضایی که اغلب در تعیین ذخائر زیرزمینی همچون نفت و گاز مورد استفاده قرار می گیرد، تحلیل داده های سایسمیک توسط مدل معکوس است. مدل معکوس گاوسی بیزی معمولا در معکوس سایسمیک مورد استفاده قرار می گیرد که از لحاظ تحلیلی و محاسباتی به راحتی برای بعدهای بالا قابل انجام است. اما در عمل با متغیرهایی مواجه می شویم که نامتقارن و چوله هستند، مدل بندی این نوع داده ها با استفاده از توزیع های چوله صورت می گیرد. در تحلیل بیزی مدل معکوس چوله گاوسی بسته نیز یکی از مشکلات مهم تولید نمونه از توزیع چوله نرمال بسته است. در این مقاله یک الگوریتم کارآمد برای تولید نمونه از توزیع چوله نرمال بسته با بعد بالا ارائه می شود. همچنین توزیع چوله تی بسته معرفی می شود که شامل دم های سنگین در تابع چگالی است و یک الگوریتم شبیه سازی برای تولید نمونه از این توزیع نیز بیان می گردد. در نهایت بحث و نتیجه گیری ارائه می شود.
    کلیدواژگان: توزیع چوله نرمال بسته، توزیع چوله تی بسته، مدل معکوس بیزی، داده های سایسمیک
  • فاطمه حوتی، جعفر احمدی صفحات 67-80
    در این مقاله ضمن یادآوری تابع چندک، برخی از اندازه های قابلیت اعتماد مبتنی بر آن بازنویسی شده، سپس آنتروپی مانده ی تجمعی پویا را بر اساس تابع چندک به دست آورده و برخی از ویژگی های آن مطالعه شده است. در ادامه توزیع های آماری یکنواخت، نمایی و پارتو بر اساس آنتروپی مانده ی تجمعی پویا مبتنی بر تابع چندک مشخص سازی شده است. آنگاه برآوردگر ساده ای برای این آنتروپی معرفی و رفتار آن برای توزیع نمایی بررسی شده است. در انتها نیز بحث و نتیجه گیری ارائه شده است.
    کلیدواژگان: آنتروپی شانون، آنتروپی باقیمانده تجمعی پویا، تابع چندک، اندازه های قابلیت اعتماد، مشخص سازی
  • علی دوستمرادی، محمدرضا زادکرمی، عارف خنجری عیدنک، زهرا فریدونی صفحات 81-94
    در این مقاله توزیعی جدید بر مبنای توزیع وایبول ارائه می شود. این توزیع دارای سه پارامتر است که نرخ شکست های صعودی، نزولی، وان شکل، تک مدی و صعودی نزولی صعودی را شامل می شود. سپس خواص توزیع مورد بررسی قرار می گیرد آنگاه با استفاده از یک مجموعه داده واقعی ویژگی های آن با برخی از تعمیم های توزیع وایبول مقایسه می شود.
    کلیدواژگان: توزیع تعمیم یافته وایبول، نرخ شکست، گشتاورها، برآورد ماکسیمم درستنمایی
  • جلال چاچی، مهدی روزبه صفحات 95-112
    رگرسیون خطی استوار یکی از متداولترین رویکردها در روش های آماری استوار است. پارامترهای این روش اغلب از طریق کمترین توان های دوم پیراسته برآورد می شوند که در آن تابع هدف به گونه ای صورت بندی می شود که مجموع k تا از کوچکترین توان دوم باقیمانده ها (خطاها) کمینه شود. لذا این روش در مقایسه با روش متداول کمترین توان دوم خطا از محاسبات پیچیده تری برخوردار است. هدف اصلی این مقاله ارائه یک روش جدید برآورد مدل های خطی جزئی با رویکرد تشخیص داده های پرت و معرفی برآوردگرهای استوار بر مبنای کمترین توان های دوم پیراسته است. در این راستا ابتدا روش تفاضلی در برآورد پارامترهای مدل خطی جزئی بیان می شود. سپس روش به دست آوردن برآوردگرهای تفاضلی استواری در مدل های خطی جزئی بر اساس یک مسئله بهینه سازی مبتنی بر کمینه سازی مجموع k تا از کوچکترین توان دوم باقیمانده ها معرفی می شود. این رویکرد توانایی تشخیص داده های پرت را دارد. نتایج عددی مطالعه شبیه سازی و مطالعه کاربردی با داده های واقعی نشان دهنده دقت بسیار زیاد برآوردگرهای تفاضلی استوار معرفی شده در این مقاله در مقایسه با برآوردگرهای کلاسیک و متداول مدل های خطی جزئی هستند.
    کلیدواژگان: برآوردگر تفاضلی استوار، کمترین توان های دوم پیراسته، مدل خطی جزئی استوار، داده های پرت
  • مینا گدازی، محمدرضا آخوند، عبدالرحمن راسخ صفحات 113-128
    از جمله روش هایی که در سال های اخیر توجه بسیاری از محققان را برای مدل سازی داده های چندمتغیره آمیخته به خود جلب کرده است، استفاده از تابع مفصل می باشد. در این مقاله مدلی رگرسیونی برای پاسخ های آمیخته بقا و گسسته بر اساس تابع مفصل ارائه می شود که در آن متغیر پیوسته از نوع زمان بوده و امکان وقوع مشاهده سانسور شده در آن وجود دارد. برای انجام این کار فرض شد که توزیع های حاشیه ای مشخص هستند و متغیری پنهان برای تبدیل حاشیه گسسته به پیوسته مورد استفاده قرار گرفت. سپس با استفاده از تابع مفصل تابع توزیع توام برای دو متغیر تشکیل و در پایان مدل به دست آمده بر روی داده های فاصله بین تولدها در شهر اهواز مورد استفاده قرار گرفت.
    کلیدواژگان: تابع مفصل، مشاهده سانسور شده، داده های آمیخته، متغیر پنهان، فاصله بین تولدها
  • حامد محمدقاسمی، احسان زمان زاده، محمد محمدی صفحات 129-137
    طرح نمونه گیری با طبقه بندی قضاوتی روشی موثر برای استفاده از اطلاعات اضافی رتبه بندی و انتخاب نمونه ای با اطلاعات بیشتر نسبت به نمونه گیری تصادفی ساده از جامعه است. این روش نمونه گیری به نحوی است که هر یک از مشاهدات می تواند به طور تصادفی درون هر یک از طبقات قرار گیرد. در این مقاله برآوردگر جدیدی برای میانگین در این طرح نمونه گیری معرفی می شود که با تغییر در چینش مشاهدات باعث یک دست شدن مشاهدات درون طبقات می شود. در ادامه برآوردگر پیشنهادی با سایر برآوردگرهای میانگین موجود تحت این طرح نمونه گیری مورد مقایسه قرار می گیرد. نتایج شبیه سازی نشان می دهد که برآوردگر پیشنهادی عملکرد بهتری نسبت به سایر برآوردگرها دارد.
    کلیدواژگان: طبقه بندی قضاوتی، برآورد میانگین، کارایی نسبی
  • عیسی محمودی، سمیه ابوالحسینی صفحات 139-158
    در این مقاله یک توزیع دو پارامتری جدید به عنوان تعمیمی از توزیع لیندلی، تحت عنوان توزیع لیندلی لگاریتمی با تابع نرخ شکست صعودی و وانی شکل معرفی می شود. توزیع جدید از ترکیب توزیع لیندلی و توزیع لگاریتمی به دست می آید. چندین ویژگی از توزیع جدید از جمله تابع چگالی، تابع نرخ شکست، چندک ها و گشتاورها محاسبه می شود. برآورد ماکسیمم درستنمایی با استفاده از الگوریتم EM به دست می آید. در نهایت برتری این توزیع نسبت به توزیع لیندلی، با استفاده از دو سری داده واقعی نشان داده می شود.
    کلیدواژگان: الگوریتم EM، برآوردگر ماکسیمم درستنمایی، تابع بقا، تابع نرخ شکست، توزیع لگاریتمی، توزیع لیندلی، شبیه سازی مونت کارلو
  • حمیدرضا نیلی ثانی، محمد امینی، ابوالقاسم بزرگ نیا صفحات 159-173
    یک نامساوی مهم برای توزیع ماکسیمم متغیرهای تصادفی مستقل نامساوی لوی است. در این مقاله یک نسخه از این نامساوی برای متغیرهای به طور ضعیف وابسته منفی ارایه می گردد. قانون قوی برای متغیرهای وابسته توسط مولفین مختلفی مورد بررسی قرار گرفته اند. در این تحقیق، همچنین، همگرایی کامل وزنی برای آرایه ای از متغیرهای تصادفی سطری وابسته منفی کراندار احتمالی بدست می آید. همگرایی کامل و قانون قوی برای چنین خانواده ای از متغیرهای تصادفی از نتایج حاصله می باشند
    کلیدواژگان: نامساوی لوی، همگرایی کامل، متغیرهای تصادفی وابسته منفی، متغیرهای تصادفی به طور ضعیف وابسته منفی
|
  • Shiva Akhtarian, Tahere Yaghoobi Pages 1-20
    Given the widespread usage of software systems in all aspects of modern life, the need to produce almost error free and high quality software has become more and more important. Software reliability is considered as an important approach to software quality assessment. Software reliability modeling based on non- homogeneous Poisson process is a quite successful method in software reliability engineering. In this paper, we first study the general growth model of software reliability, and then we extend the general model by considering two types of simple and complex errors, dependency between complex errors and time delay between detecting and removing complex errors. Estimating the model parameters has been done by using two failure data sets of real software projects through MATLAB software. We compare the proposed model with two existing models using various criteria. The results show that the proposed model better fits the data, providing more accurate information about the software quality.
    Keywords: Software reliability, Non homogenous Poisson process, Minor, critical errors, Fault dependency, Time lags, Perfect debugging
  • Abouzar Bazyari Pages 21-44
    Hypothesis testing the homogeneity of means of k univariate normal populations against the hypothesis of one sided ordered means with unknown and equal variances is considered. A new completely method to find the uniformly most powerful test at significance level α is presented based on the multivariate t distribution. Since for more than two populations finding the null distribution of test statistic is not easy, the power of test is computed and then the critical values of test statistic for different significance levels obtained. This testing method is used for real examples. Also testing homogeneity of k mean vectors against two sided ordered mean vectors of multivariate normal populations is considered. Using Monte Carlo simulation the values of classical power of test for two bivariate and trivariate normal distributions at different significance levels are compared.
    Keywords: Hypothesis testing of ordered means, Uniformly most powerful test, Multivariate isotonic regression, Monte Carlo simulation
  • Masoumeh Bakhshi Shojaei, Omid Karimi Pages 45-65
    Skew spatial data often are modeled by using skew Gaussian random field. The main problem is that simulations from this random field are very time consuming for some parameter values and large dimensions. Also it is impossible in some cases and requires using of an approximation methods. One a spatial statistics branch often used to determine the natural resources such as oil and gas, is analysis of seismic data by inverse model. Bayesian Gaussian inversion model commonly is used in seismic inversion that the analytical and computational can easily be done for large dimensions. But in practice, we are encountered with the variables that are asymmetric and skewed. They are modeled using skew distributions. In Bayesian Analysis of closed skew Gaussian inversion model, there is an important problem to generate samples from closed skew normal distributions. In this paper, an efficient algorithm for the realization of the Closed Skew Normal Distribution is provided with higher dimensions. Also the Closed Skew T Distribution is offered that include heavy tails in the density function and the simulation algorithm for generating samples from the Closed Skew T Distribution is provided. Finally, the discussion and conclusions are presented.
    Keywords: Closed Skew Normal distribution_Closed Skew T distribution_Bayesian inversion model_Seismic data
  • Fatemeh Hooti, Jafar Ahmadi Pages 67-80
    In this paper, the quantile function is recalled and some reliability measures are rewritten in terms of quantile function. Next, quantile based dynamic cumulative residual entropy is obtained and some of its properties are presented. Then, some characterization results of uniform, exponential and Pareto distributions based on quantile based dynamic cumulative entropy are provided. A simple estimator is also proposed and its performance is studied for exponential distribution. Finally discussion and results are presented.
    Keywords: Shannon entropy, Dynamic cumulative residual entropy, Quantile function, Reliability measures, Characterization
  • Ali Doostmoradi, Mohammadreza Zadkarami, Aref Khanjari Idenak, Zahara Fereidooni Pages 81-94
    In this paper we propose a new distribution based on Weibull distribution. This distribution has three parameters which displays increasing, decreasing, bathtub shaped, unimodal and increasing-decreasing-increasing failure rates. Then consider characteristics of this distribution and a real data set is used to compared proposed distribution whit some of the generalized Weibull distribution.
    Keywords: Generalized Modified Weibull distribution, failure rate, moments, maximum likelihood estimates
  • Jalal Chachi, Mahdi Roozbeh Pages 95-112
    Robust linear regression is one of the most popular problems in the robust statistics community. The parameters of this method are often estimated via least trimmed squares, which minimizes the sum of the k smallest squared residuals. So, the estimation method in contrast to the common least squares estimation method is very computationally expensive. The main idea of this paper is to propose a new estimation method in partial linear models based on minimizing the sum of the k smallest squared residuals which determines the set of outlier point and provides robust estimators. In this regard, first, difference based method in estimation parameters of partial linear models is introduced. Then the method of obtaining robust difference based estimators in partial linear models is introduced which is based on solving an optimization problem minimizing the sum of the k smallest squared residuals. This method can identify outliers. The simulated example and applied numerical example with real data found the proposed robust difference based estimators in the paper produce highly accurate results in compare to the common difference based estimators in partial linear models.
    Keywords: Robust difference based estimator, Least trimmed squares, Robust partial linear model, Outlier data
  • Mina Godazi, Mohammadreza Akhoond, Abdolrahman Rasekh Rasekh Pages 113-128
    One of the methods that in recent years has attracted the attention of many researchers for modeling multivariate mixed outcome data is using the copula function. In this paper a regression model for mixed survival and discrete outcome data based on copula function is proposed. Where the continuous variable was time and could has censored observations. For this task it is assumed that marginal distributions are known and a latent variable was used to transform discrete variable to continuous. Then by using a copula function, the joint distribution of two variables was constructed and finally the obtained model was used to model birth interval data in Ahwaz city in south-west of Iran.
    Keywords: Copula function, Censored observation, Mixed data, Latent variable, Birth intervals
  • Hamed Mohamadghasemi, Ehsan Zamanzade, Mohammad Mohammadi Pages 129-137
    Judgment post stratification is a sampling strategy which uses ranking information to give more efficient statistical inference than simple random sampling. In this paper, we introduce a new mean estimator for judgment post stratification. The estimator is obtained by using ordering observations in post strata. Our simulation results indicate that the new estimator performs better than its leading competitors in the literature.
    Keywords: Judgment post stratification, Mean estimation, Relative efficiency
  • Eisa Mahmoudi, Somayeh Abolhosseini Pages 139-158
    In this paper we propose a new two-parameters distribution, which is an extension of the Lindley distribution with increasing and bathtub-shaped failure rate, called as the Lindley-logarithmic (LL) distribution. The new distribution is obtained by compounding Lindley (L) and Logarithmic distributions. We obtain several properties of the new distribution such as its probability density function, its failure rate functions, quantiles and moments. The maximum likelihood estimation procedure via a EM-algorithm is presented in this paper. At the end, in order to show the flexibility and potentiality of this new class, some series of real data is used to fit.
    Keywords: EM, algorithm, Maximum likelihood estimator, Survival function, Hazard rate function, Lindley distribution, Logarithmic distribution, Monte Carlo simulation
  • Hamid Reza Nilisani, Mohamma Amini, Abolghasem Bozorgnia Pages 159-173
    An important inequality for distribution of maximum independent random variables is Levy inequality. In this paper, a version of this inequality for weakly negative dependent random variables will be provided. The strong law for dependent random variables has been studied by different authors. In this research, also, the weighted complete convergence for arrays of rowwise negatively dependent random variables that are stochastically bounded will be obtained. complete convergence and strong law for such random variables will result.
    Keywords: Levy inequality, Complete convergence, Negatively dependent random variables, Weakly negative dependent random variables