فهرست مطالب

اندیشه آماری - سال بیست و دوم شماره 1 (پیاپی 43، بهار و تابستان 1396)

نشریه اندیشه آماری
سال بیست و دوم شماره 1 (پیاپی 43، بهار و تابستان 1396)

  • تاریخ انتشار: 1396/07/07
  • تعداد عناوین: 10
|
  • مهدی شمس صفحات 1-10
    با توجه به اهمیت زنجیر مارکوف در نظریه اطلاع، تعریف احتمال شرطی این فرایند تصادفی می تواند بر حسب اطلاع متقابل نیز تعریف شود. در این مقاله ارتباط بین مفهوم بسندگی و زنجیر مارکوف از دیدگاه اصول نظریه اطلاع، و همچنین ارتباط بین بسندگی احتمالاتی و بسندگی الگوریتمی مشخص می شود.
    کلیدواژگان: تابع بسنده، زنجیر مارکوف، اطلاع متقابل، بسندگی احتمالاتی، بسندگی الگوریتمی
  • عباس رسولی، معصومه ایمانی صفحات 11-15
    در این مقاله، نخست توزیع کاماراسوامی معرفی می شود. سپس توابع توزیع توام و حاشیه ای برای W=X1/X2 و T = X1/X1+X2 که در آن X2 و X1 متغیرهای مستقل و دارای توزیع کاماراسوامی اند، به دست می آید. همچنین مقدار گشتاورهای متغیرهای W و T محاسبه می شود. توزیع کاماراسوامی به دلیل انعطاف پذیری با توجه به پارامتر های آن در مدل های آمار بیزی به عنوان توزیع پیشین به کار می رود و توزیع متغیر های T و W در مدل های فشار- قدرت مربوط به قابلیت اعتماد سیستم ها کاربرد دارد.
    کلیدواژگان: توزیع کاماراسوامی، تابع فوق هندسی گوسی، تابع چگالی توام، تابع چگالی حاشیه ای، قابلیت اعتماد
  • شهرام یعقوب زاده شهرستانی صفحات 17-26
    در این مقاله، یک توزیع جدید طول عمر سه پارامتری بر اساس توزیع گومپرتز به نام مارشال-الکین گومپرتز که تعمیمی از توزیع گومپرتز و دارای نرخ شکست های نزولی، صعودی و وانی شکل است، معرفی شده و تابع چگالی احتمال، تابع توزیع تجمعی، تابع خطر و برخی از خصوصیات این توزیع جدید مانند گشتاورهای مرکزی، گشتاورهای آماره های مرتب، آنتروپی های رنی و شانون و تابع چندک به دست می آید. همچنین پارامترهای آن به روش ماکسیمم درست نمایی برآورد شده، به کمک یک مجموعه داده واقعی، این توزیع جدید با برخی از توزیع های طول عمر بر اساس توزیع گومپرتز مقایسه می شود.
    کلیدواژگان: توزیع گومپرتز، تابع شکست، برآورد ماکسیمم درست نمایی، توزیع مارشال-الکین گومپرتز
  • مجید آبیار، عبدالرحیم بادامچی زاده صفحات 27-36
    در این جا یک صف M/M/1 همراه با بازخورد بررسی می شود که در صورت خرابی سرویس دهنده، فاجعه رخ می دهد و پس از تعمیر سرویس دهنده، سامانه مجددا شروع به کار می کند. با وقوع فاجعه سامانه فرو می پاشد و تا پایان زمان تعمیر، متقاضی به سامانه مراجعه نمی کند. جواب های حالت گذرا برای تابع احتمال اندازه سامانه ارائه می شود و با استفاده از آن تحلیل های حالت پایا انجام می شود و برخی اندازه های موثر بودن سامانه معرفی می گردند. سپس نتایج حاصل برای بررسی و مدل سازی عملکرد یک دستگاه خودپرداز بانک مورد استفاده قرار می گیرد و به منظور مشاهده و بهینه سازی عملکرد دستگاه مذکور، اثرهای تغییر پارامترها بر اندازه های موثر بودن سامانه مورد بررسی قرار می گیرند. در نهایت به کمک نرم افزار R ، عملکرد سامانه شبیه سازی می شود و نتایج به دست آمده با مقادیر مورد انتظار مقایسه می گردند.
    کلیدواژگان: تحلیل حالت گذرا، تحلیل حالت پایا، بازخورد، اندازه های موثر بودن، شبیه سازی
  • فتانه نظام پور، علیرضا سلیمانی صفحات 37-41
    در این مقاله برخی ویژگی های خانواده لوژستیک X- و عضوی از این خانواده، توزیع لوژستیک-نرمال، در جزئیات مورد مطالعه قرار گرفته است. میانگین انحرافات، تابع خطر و مد برای توزیع لوژستیک-نرمال به دست آمده است. همچنین در این مقاله از روش درست نمایی ماکسیمم برای برآورد پارامترها و از یک مجموعه داده برای نشان دادن برنامه های کاربردی، توزیع لوژستیک-نرمال استفاده شده است.
    کلیدواژگان: توزیع X-T، توزیع لوژستیک، تابع خطر، معیار اطلاع آکائیکه، معیار اطلاع بیزی، برآورد درست نمایی ماکسیمم
  • الهه کدخدا، مرتضی محمدی، غلامرضا محتشمی برزادران صفحات 43-51
    توزیع لامبدای تعمیم یافته { generalized lambda distribution}(GLD) ، تعمیمی از توزیع تک پارامتری توکی است که انعطاف پذیری بسیار زیادی در مدل بندی اطلاعات و داده های آماری دارد. در این مقاله، نخست دو شکل پارامتری متفاوت از توزیع GLD را ارائه و ویژگی های این توزیع را بررسی خواهیم کرد. سپس چهار روش گشتاوری، صدکی، starship و ماکسیمم درست نمایی را برای برآورد پارامترهای توزیع GLD ارائه می کنیم. در انتها به کمک آزمون کولموگروف-اسمیرنوف به مقایسه دو شکل پارامتری توزیع GLD و چهار روش برآورد پارامترهای این توزیع می پردازیم و این توزیع را به داده های بورس اوراق بهادار تهران برازش می دهیم.
    کلیدواژگان: توزیع لامبدای تعمیم یافته، گشتاورها، برآورد پارامترها
  • محمود خراتی، فاطمه سهرابی صفحات 53-61
    توزیع نرمال در عمل، کاربردهای فراوانی دارد. مسئله آزمون این که آیا نمونه ای از مشاهدات از توزیع نرمال تبعیت می کند، توسط بسیاری از آماردانان مورد مطالعه قرار گرفته است. هدف اصلی این مقاله ارائه روش آزمونی ساده برای آزمون کردن توزیع نرمال چند متغیره است.
    کلیدواژگان: توزیع نرمال استاندارد، آزمون شاپیرو-ویلک، توان، شبیه سازی مونته کارلو
  • مسعود قاسمی بهجانی، حسن زارعی صفحات 63-72
    در این مقاله با پیشنهاد یک تابع سود و به دست آوردن برآورد بیزی، حجم نمونه مطلوب را بر اساس این تابع سود به دست می آوریم. این تابع سود به صورت مخصوص برای به دست آوردن برآورد بیز وقتی توزیع پسینی، گاما باشد طراحی شده است. با استفاده از این تابع سود، حجم نمونه مطلوب را برای توزیع های نرمال با میانگین معلوم، نمایی، پارتو و به قسمی می یابیم که هزینه نمونه گیری کمینه شود. در این فرایند برای کمینه کردن هزینه از تابع هزینه لیندلی استفاده می کنیم. در این جا به دلیل دشوار بودن محاسبات، اندازه نمونه را نمی توان به روش آنالیزی به دست آورد به همین دلیل به کمک روش های عددی،پوآسون حجم نمونه مطلوب را به دست می آوریم.
    کلیدواژگان: وزیع پارتو، تابع هزینه، تابع سود، تابع زیان، ریسک پسینی
  • بهمن حمیدیان، حسین باغیشنی صفحات 73-84
    تحلیل بیزی داده های زمین آماری حجیم، با محاسبات ماتریسی سنگین و هزینه بر مواجه است. این محاسبات برای داده های فضایی و فضایی-زمانی چندمتغیره با ساختارهای وابستگی پیچیده، سنگین تر نیز خواهند بود. این مسئله برای الگوریتم های نمونه گیری MCMC که استفاده از آنها در تحلیل بیزی مدل های فضایی معمول هستند، مشکلاتی جدی مانند سرعت کند و همگرایی زنجیر ایجاد می کند. برای فرار از چنین مشکلات محاسباتی، یک رهیافت جانشین، استفاده از مدل های دون رتبه است که با کاهش فضای پارامتر و پرهیز از محاسبات ماتریسی سنگین، موجب می شود تا نرخ همگرایی الگوریتم های MCMC و سرعت محاسبات بهبود یابد. در مدل های دون رتبه، اطلاعات فضایی مکان های مشاهده شده در یک مجموعه از مکان های کوچک تر خلاصه می شوند. این مجموعه کوچک تر به مجموعه گره معروف است. تعیین نقاط مجموعه گره و تعداد آنها به طوری که برآورد ساختار وابستگی فضایی متناظرشان نمایشی واضح و کم خطا از ساختار وابستگی حاصل از همه داده ها باشد، یک جنبه پایه ای و کلیدی در ساخت مدل های دون رتبه محسوب می شود. طراحی نقاط مکانی و تعداد گره ها برای اجرای این کاهش بعد، هدف اصلی این مقاله است. برای نمایش عملکرد طرح های مختلف در این رده از مدل ها، داده های کیفیت آب منطقه وسیعی از استان گلستان را در بازه زمانی سال های 1382 تا 1392 مورد تحلیل قرار داده ایم.
    کلیدواژگان: استنباط بیزی، الگوریتم MCMC، داده های فضایی-زمانی، مجموعه گره، مدل دون رتبه
  • حمیدرضا نواب پور، اکرم صفرنژادبروجنی، طیبه چگینی صفحات 85-96
    تحلیل رده نهان (LCA) روشی برای ارزیابی خطاهای غیر نمونه گیری، به خصوص خطای اندازه گیری داده های رسته ای است. [1] ، چهار رهیافت مدل بندی رده نهان، یعنی پارامتری سازی مدل احتمالاتی، مدل لگ خطی، مدل مسیر تعدیل یافته و مدل نموداری را با استفاده از نمودارهای مسیر معرفی کرده است. این مدل ها قابل تبدیل به یکدیگرند. مدل های احتمالاتی رده نهان، درست نمایی جدول رده بندی تقاطعی متغیرها را بر حسب احتمال های شرطی و حاشیه ای مربوط به هر خانه این جدول بیان می کند. در این رهیافت پارامترهای مدل با استفاده از الگوریتم EM براورد می شوند. برای آزمون مدل رده نهان، آماره خی دو به عنوان ملاک نیکویی برازش معرفی شده است. در این مقاله از LCA و داده های یک آمارگیری کوچک مقیاس برای محاسبه خطای بد رده بندی (که یک نوع خطای اندازه گیری است) نسبت دانشجویانی که دست کم در یک درس مردود شده اند و نیز خطای بد رده بندی نسبت دانشجویانی که دست کم یک بار مشروط شده اند، استفاده شده است.
    کلیدواژگان: خطای کل آمارگیری، خطای اندازه گیری، مدل احتمالاتی، تحلیل رده نهان، استاندارد طلایی، خطای بد رده بندی
|
  • Mehdi Shams Dr Pages 1-10
    ýGiven the importance of Markov chains in information theoryý, ýthe definition of conditional probability for these random processes can also be defined in terms of mutual informationý. ýIn this paperý, ýthe relationship between the concept of sufficiency and Markov chains from the perspective of information theory and the relationship between probabilistic sufficiency and algorithmic sufficiency is determinedý.
    Keywords: ýsufficient functioný, ýMarkov chainý, ýmutual informationý, ýprobabilistic sufficiencyý, ýalgorithmic sufficiencyý
  • Abbas Rasuoli, Masume Imani Pages 11-15
    ýIn this articleý, ýfirst of allý, ýthe Kumaraswamy distribution is introducedý. ýThený, ýthe joint and marginal distributions of W = X1/X2 and T = X1/X1 where X1 and X2 are independent Kumaraswamy random variablesý, ýare obtained and the moments of these random variables are computedý.
    ýThe distribution of random variables W and T can be used in reliability studies and statistical models such as stress-strengthý.
    Keywords: ýKumaraswamy distridutioný, ýGauss hypergeometric functioný, ýjoint distributioný, ýstress-strength modelý, ýsystem reliabilitiesý
  • Shahram Yaghoobzadeh Shahrastani Pages 17-26
    ýIn this paperý, ýa new distribution of the three-parameter lifetime model called the Marshall-Olkin Gompertz is proposed on the basis of the Gompertz distributioný. ýIt is a generalization of the Gompertz distribution having decreasing failure rate and can also be increasing and bathtub-shaped depending on its parametersý. ýThe probability density functioný, ýcumulative distribution functioný, ýhazard rate function and some mathematical properties of this model such asý, ýcentral momentsý, ýmoments of order statisticsý, ýRenyi and Shannon entropies and quantile function are derivedý. ýIn additioný, ýthe maximum likelihood of its parameters method is estimated and this new distribution compared with some Gompertz distribution generalizations by means of a set of real dataý.
    Keywords: ýLindely linear cost functioný, ýnormal distributioný, ýposterior distribitioný, ýposterior riský
  • Majid Abiar, Abdolrahim Badamchizadeh Pages 27-36
    ýIn this paperý, ýan M/M/1 queue with instantaneous Bernoulli feedback is studied in the event of server failureý, ýthe catastrophe occurs and after repairý, ýit starts to work againý. ýThe transient response for the probability function of the system size is presentedý. ýThe steady state analysis of system size probabilities and some performance measures of system are providedý. ýThen the results are used to consider the performance of an ATMý. ýThen to observe and optimize the performace of the ATMý, ýwe illustrate the effects of changing parameters on system performance measuresý. ýAt lastý, ýwe simulate the system by using the R applicationý. ýThen we compare its results with expected resultsý.
    Keywords: transient analysisý, ýsteady analysisý, ýfeedbacký, ýperformance measuresý, ýsimulatingý
  • Fattaneh Nezampoor, Alireza Soleimani Pages 37-41
    ýIn this paper some properties of logisticsý - ýx family are discussed and a member of the familyý, ýthe logistic–normal distributioný, ýis studied in detailý. ýAverage deviationsý, ýrisk function and fashion for logistic–normal distribution is obtainedý. ýThe method of maximum likelihood estimation is proposed for estimating the parameters of the logistic–normal distribution and a data set is used to show applications of logistic–normal distributioný.
    Keywords: ýT-X distributioný, ýLogistic distributioný, ýRisk functioný, ýAkaike Information Criterioný, ýBaisian Information Criterioný, ýMaximum likelihood estimationý
  • Elaheh Kadkhoda, Morteza Mohammadi, Gholam Reza Mohtashami Borzadaran Dr Pages 43-51
    ýGeneralized Lambda Distribution is an extension of Tukey's lambda distributioný, ýthat is very flexible in modeling information and statistical dataý. ýIn this paperý, ýWe introduced two parameterization of this distributioný. ýThen We estimate parameters by moment matchingý, ýpercentileý, ýstarship and maximum likelihood methods and compare two parameterization and parameter estimation methods with Kolmogorov-Smirnov testý.
    Keywords: ýGeneralised Lambda Distributioný, ýmomentsý, ýparameter estimationý
  • Mahmood Kharrati Pages 53-61
    ýNormal distribution is widely used in many applicationsý. ýThe problem of testing whether observations come from a normal distribution has been studied extensively by many researchersý. ýOur main goal in this article is to present a simple test procedure for testing multivariate ýnormalityýý.
    Keywords: ýStandard normal distributioný, ýShapiro–Wilk testý, ýpowerý, ýMonte Carlo simulationý
  • Masoud Ghasemi Behjani, Milad Asadzadeh Pages 63-72
    ýIn this paper we propose a utility function and obtain the Bayese stimate and the optimum sample size under this utility functioný. ýThis utility function is designed especially to obtain the Bayes estimate when the posterior follows a gamma distributioný. ýWe consider a Normal with known meaný, ýa Paretoý, ýan Exponential and a Poisson distribution for an optimum sample size under the proposed utility functioný, ýso that minimizes the cost of samplingý. ýIn this processý, ýwe use Lindley cost function in order to minimize the costý. ýHereý, ýbecause of the complicated form of computationý, ýwe are unable to solve it analytically and use the mumerical methids to get the optimum sample size.
    Keywords: ýPareto distributioný, ýCost functioný, ýUtility functioný, ýLoss functioný, ýPosterior Riský
  • Bahman Hamidiyan, Dr Hoseein Baghishni Pages 73-84
    ýAnalysis of large geostatistical data setsý, ýusuallyý, ýentail the expensive matrix computationsý. ýThis problem creates challenges in implementing statistical inferences of traditional Bayesian modelsý. ýIn addition,researchers often face with multiple spatial data sets with complex spatial dependence structures that their analysis is difficultý. ýThis is a problem for MCMC sampling algorithms that are commonly used in Bayesian analysis of spatial modelsý, ýcausing serious problems such as slowing down and chain integrationý. ýTo escape from such computational problemsý, ýwe use low-rank modelsý, ýto analyze Gaussian geostatistical dataý. ýThis models improve MCMC sampler convergence rate and decrease sampler run-time by reducing parameter spaceý. ýThe idea here is to assumeý, ýquite reasonablyý, ýthat the spatial information available from the entire set of observed locations can be summarized in terms of a smallerý, ýbut representativeý, ýsets of locationsý, ýor ‘knots’ý. ýThat isý, ýwe still use all of the data but we represent the spatial structure through a dimension reductioný. ýSoý, ýagainý, ýin implementing the reductioný, ýwe need to design the knotsý. ýConsideration of this issue forms the balance of the articleý. ýTo evaluate the performance of this class of modelsý, ýwe conduct a simulation study as well as analysis of a real data set regarding the quality of underground mineral water of a large area in Golestan provinceý, ýIraný.
    Keywords: ýInference Bayesianý, ýMCMC Algorithmý, ýSpatio-Temporal dataý, ýknot setý, ýlow-rank modelsý
  • Dr Hamidreza Navabpuor, Akram Safarnejad, Tayebe Chegini Pages 85-96
    ýLatent class analysis (LCA) is a method of evaluating non sampling errorsý, ýespecially measurement error in categorical dataý. ýBiemer (2011) introduced four latent class modeling approachesý: ýprobability model parameterizationý, ýlog linear modelý, ýmodified path modelý, ýand graphical model using path diagramsý. ýThese models are interchangeableý. ýLatent class probability models express likelihood of cross-classification tables in term of conditional and marginal probabilities for each cellý. ýIn this approach model parameters are estimated using EM algorithmý. ýTo test latent class model chi-square statistic is used as a measure of goodness-of-fitý. ýIn this paper we use LCA and data from a small-scale survey to estimate misclassification error (as a measurement error) of students who had at least a failing grade as well as misclassification error of students with average grades below 14ý.
    Keywords: ýTotal survey errorý, ýmeasurement errorý, ýprobability modelý, ýlatent class analysisý, ýgold standardý, ýmisclassification error