فهرست مطالب

مجله علوم آماری
سال چهارم شماره 1 (پیاپی 7، بهار و تابستان 1389)

  • تاریخ انتشار: 1389/05/12
  • تعداد عناوین: 7
|
  • عبدالرضا سیاره، رئوف عبیدی صفحه 1
    ملاک اطلاع آکاییک به طور گسترده ای برای انتخاب مدل به کار گرفته می شود، اما مقدار عددی آن تفسیر دقیقی ندارد. آزمون کاکس که تعمیمی از آزمون نسبت درستنمایی است برای انتخاب مدل از بین مدل های غیر آشیانی است یکی از معدود آزمون هابرای آزمون فرضیه های غیر آشیانی است. هنگامی که مدل درست دا ه ها مجهول است، براساس ملاک اطلاع آکائیک یکی از مدل های رقیب انتخاب می شود. اما با قاطغیت نمی توان گفت که مدل انتخاب شده به وسله این ملاک تا چه اندازه برآورد مناسبی برای مدل درست است. زیرا مشخص نیست که مدل خوب -توصیف شده یا بد توصیف- شده است. در این مقاله ملاک اطلاع آکائیک وآزمون فرضیه کاکس و توانایی آن ها در ممیزی بین مدل ها مورد بررسی قرارگرفته است و به دکمک شبیه سازی به بررسی این موضوع پرداخته می شود که اگر براساس ملاک آکائیک، مدلی را به عنوان برآورد مدل درست بپذیریم آیا آزمون کاکس قدرت تشخیص مدل بهتر را دارد؟ همچنین به موضوع تعیین یک مجموعه از مدل های رقیب پرداخته و روشی برای انتخاب این مجموعه پیشنهاد می شود
    کلیدواژگان: آزمون کاکس، مدل های غیر آشیانی، ملاک اطلاع آکائیک، ملاک کولبک، لیب لر
  • ملیحه عباس نژاد مشهدی، داود محمدی صفحه 21
    در این مقاله ابتدا توزیع های متقارن بر اساس تفاضل آنتروپی رنی آماره های مرتب زیر نمونه ها، مشخصه سازی می شوند. سپس آزمونی برای تقارن توزیع بر مبنای برآورد آنتروپی رنی آماره های مرتب معرفی می گردد. بر اساس روش شبیه سازی مونت کارلو، توان آزمون پیشنهادی محاسبه شده و با آزمون ارائه شده توسط حبیبی و ارقامی (1386) مقایسه می شود. نشان داده خواهد شد آزمون پیشنهاد شده برای برخی توزیع های جانشین از توان بالاتری برخوردار است.
    کلیدواژگان: آنتروپی رنی، برآورد آنتروپی رنی، آماره های مرتب
  • موسی گل علی زاده، عاطفه فرخی صفحه 35
    مدل های چند سطحی در علوم کاربردی شامل علوم اجتماعی، جامعه شناسی، پزشکی و اقتصاد برای تحلیل داده های همبسته مورد استفاده قرار می گیرند. روش های متفاوتی برای برآورد این مدل ها با متغیر پاسخ نرمال وجود دارند. در این مقاله برای به کارگیری روش بیزی از تعمیم الگوریتم مونت کارلوی زنجیر مارکوف استفاده می شود که قالبی ساده داشته و باعث حذف همبستگی بین نمونه های شبیه سازی برای پارامترهای ثابت وخطای منتسب به گروه ها می شود. چون بعد ماتریس کواریانس بردار خطای جدید افزایش می یابد، برای تسریع همگرایی این روش دو راهکار بر مبنای تجزیه چولسکی ماتریس کواریانس پیشنهاد می شود. سپس عملکرداین روش ها در مطالعه شبیه سازی و مثالی کاربردی مورد ارزیابی قرار می گیرد.
    کلیدواژگان: داده های چند سطحی، مدل های عرض از مبدا تصادفی، الگوریتم مونت کارلوی زنجیر مارکوف، تجزیه چولسکی
  • غدیر مهدوی، زهرا ماجدی صفحه 59
    نویسندگان: غدیر مهدوی و زهرا ماجدی نوع مطالعه: کاربردی و توسعه ای | موضوع مقاله: آمار کاربردی چکیده مقاله:بر خلاف واریانس که قدرت تفکیک انحرافات مثبت و منفی راندارد، مقدار در معرض خطر معیار مناسبی برای محاسبه ریسک های مالی به شمار می رود که ریسک های منفی و واقعی را تبیین نموده و از آن می توان برای برآورد ریسک های احتمالی یک شرکت بیمه استفاده کرد. از سوی دیگر بررسی توزیع خسارت ها، به مدیران ریسک مالی کمک کند تا بهتر بتوانند در مورد تخصیص سرمایه تصمیم بگیرند. در این مقاله کارایی نظریه مقدار کرانگینی در برآورد مقدار در معرض خطر با کارایی سایر روش های شناخته شده مدل سازی، از جمله مدلGARCH، روش واریانس-کواریانس و شبیه سازی تاریخی مورد مقایسه قرار می گیرد و مدلی است برآورد دقیقتر و پایدارتری را نتیجه دهد، ارائه می شود. روش واریانس- کوواریانس، شبیه سازی تاریخی و مدلهای پارتو تعمیم یافته و پارتو تعمیم یافته سازوار برآوردهای نسبتا پایدارتری را ارئه می دهند. همچنین برآوردهای حاصل از دو مدل GARCH(1،1) و GARCH(1،1)-t دارای نوسان های بالایی هستند. در مجموع مدل های پارتو تعمیم یافته، روش شبیه سازی تاریخی و مدل GARCH(1،1)-t برآوردهای دقیقتری را ارائه می دهند.
    کلیدواژگان: نظریه مقدار کرانی، مقدار در معرض خطر، مدل GARCH، روش واریانس، کوواریانس، شبیه سازی تاریخی
  • نرگس نجفی، حسین بیورانی صفحه 77
    در این مقاله ابتدا به معرفی فاصله های p-تحمل با کمترین زیان پسین پرداخته و سپس به کمک تابع زیان توان دوم خطا و استفاده از سه روش متوسط طول، متوسط همگرائی و بدترین برآمد به محاسبه اندازه نمونه برای برآورد پارامتر ɵدر توزیع نرمال با توزیع پیشین نرمال پرداخته می شود.
    کلیدواژگان: استنباط بیزی، تابع زیان توان دوم خطا، ناحیه های با کمترین زیان پسین
  • مهرداد نیاپرست، سحر مهرمنصور صفحه 89
    عمده تحقیقات بهینه سازی طرح برای مدل های با اثرات آمیخته روی مدل های خطی و مدل های با پاسخ دودویی تمرکز دارد. اخیرا مدل های پواسون با اثرات تصادفی نیز توسط بعضی از محققین در نظر گرفته شده است. در این مقاله حالتی خاص از مدل های آمیخته پواسون تحت عنوان مدل پواسون با عرض از مبداء تصادفی بررسی می شود. تغییرات طرح آزمایش بر حسب واریانس اثر تصادفی را بدست آورده و نشان داده می شود که این تغییرات وابسته به پارامتر واریانس است. به کمک ملاک کارایی تاثیر اثر تصادفی روی نقاط طرح در مقایسه با مدل های متناظر بدون اثر تصادفی بررسی و نشان داده می شود که این کارایی به مقدار واریانس اثر بستگی دارد.
    کلیدواژگان: D، بهینه، شبه درستنمایی، D، کارایی، مدل رگرسیون پواسون، ماتریس شبه اطلاع، اثر تصادفی
  • حمیدرضا نواب پور، محدثه صفاکیش صفحه 105
    به موازات گسترش زندگی اجتماعی و کاربرد روز افزون آمار در برنامه ریزی ها، تقاضا برای تلید و انتشار اطلاعات اقتصادی و اجتماعی رشد چشمگیری داشته است. یکی از روش های گردآوری چنین اطلاعاتی استفاده از آمارگیری های نمونهای است. کیفیت داده های حاصل از آمارگیری ها برای صاحبنظران و برنامه ریزان مهم است. در سالهای اخیر مفهوم بار پاسخگویی به عنوان یکی از مو لفه های نوظهور کیفیت داده ها بیان شده است. متاسفانه در نظام آماری ملی ایران به منظور بهبود کیفیت داده های آمارگیری هیچ اقدامی برای ارزیابی بار پاسخگویی صورت نگرفته است. ما در این مقاله روش های موجود اندازه گیری بار پاسخگویی را معرفی کرده و فعالیت های صورت گرفته در دیگر کشورها را به منظور ارزیابی بار پاسخگویی تحمیل شده در طرحهای آمارگیری، بیان می کنیم. رهیافت معمول برای ارزیابی بار پاسخگویی، طراحی یک آمارگیری با عنوان بار پاسخگویی تحمیلی و اجرای آن همراه با آمارگیری میزبان است. به منظور نشان دادن چگونگی طراحی، اجرا و تحلیل نتیجه های این آمارگیری، نمونه ای از آن که برای اندازه گیری بار پاسخگویی تحمیلی در آمارگیری سلامت در دانشکده اقتصاد دانشگاه علامه طباطبایی اجرا شده است؛ ارایه می شود.
    کلیدواژگان: بار پاسخ گویی تحمیل شده، آمارگیری PRB، نماگر بار پاسخ گویی، آمارگیری های کارگاهی
|
  • Abdolreza Sayyareh, Raouf Obeidi Page 1
    AIC is commonly used for model selection but the value of AIC has no direct interpretation Cox's test is a generalization of the likelihood ratio test When the true model is unknown based on AIC we select a model but we cannot talk about the closeness of the selected model to the true model Because it is not clear the selected model is wellspecified or mis-specified This paper extends Akaikes AIC-type model selection beside the Cox test for model selection and based on the simulations we study the results of AIC and Cox's test and the ability of these two criterion and test to discriminate models If based on AIC we select a model whether or not Cox's test has a ability of selecting a better model Words which one will considering the foundations of the rival models On the other hand the model selection literature has been generally poor at reflecting the foundations of a set of reasonable models when the true model is unknown As a part of results we will propose an approach to selecting the reasonable set of models.
  • Maliheh Abbasnejad Mashhadi, Davood Mohammadi Page 21
    In this paper, we characterize symmetric distributions based on Renyi entropy of order statistics in subsamples. A test of symmetry is proposed based on the estimated Renyi entropy. Critical values of the test are computed by Monte Carlo simulation. Also we compute the power of the test under different alternatives and show that it behaves better that the test of Habibi and Arghami (1386).
  • Mousa Golalizadeh, Atefeh Farokhy Page 35
    The multilevel models are used in applied sciences including social sciences, sociology, medicine, economic for analysing correlated data. There are various approaches to estimate the model parameters when the responses are normally distributed. To implement the Bayesian approach, a generalized version of the Markov Chain Monte Carlo algorithm, which has a simple structure and removes the correlations among the simulated samples for the fixed parameters and the errors in higher levels, is used in this article. Because the dimension of the covariance matrix for the new error vector is increased, based upon the Cholesky decomposition of the covariance matrix, two methods are proposed to speed the convergence of this approach. Then, the performances of these methods are evaluated in a simulation study and real life data.
  • Ghadi Mahdavi, Zahra Majedi Page 59
    The GARCH(1,1) and GARCH(1,1)-t models lead to highly volatile quantile forecasts, while historical simulation, Variance–Covariance, adaptive generalized Pareto distribution and non-adaptive generalized Pareto distribution models provide more stable quantile forecasts. In general, GARCH(1,1)-t, generalized Pareto distribution models and historical simulation are preferable for most quantiles.
  • Narges Najafi, Dr Hossein Bevrani Page 77
    This paper is devoted to compute the sample size for estimation of Normal distribution mean with Bayesian approach. The Quadratic loss function is considered and three criterions are applied to obtain p- tolerance regions with the lowest posterior loss. These criterions are: average length, average coverage and worst outcome. The proposed methodology is examined, and its effectiveness is shown.
  • Mehrdad Niaparast, Sahar Mehr-Mansour Page 89
    The main part of optimal designs in the mixed effects models concentrates on linear models and binary models. Recently, Poisson models with random effects have been considered by some researchers. In this paper, an especial case of the mixed effects Poisson model, namely Poisson regression with random intercept is considered. Experimental design variations are obtained in terms of the random effect variance and indicated that the variations depend on the variance parameter. Using D-efficiency criterion, the impression of random effect on the experimental setting points is studied. These points are compared with the optimal experimental setting points in the corresponding model without random effect. We indicate that the D-efficiency depends on the variance of random effect.
  • Hamidreza Navvabpour, Mohadese Safakish Page 105
    Parallel to social developments and increasing use of statistics in planning, demand for producing and disseminating social and economic information have been risen dramatically. Survey sampling is one of the methods of gathering such information. The quality of survey data is important for planners and researches. In recent years, the concept of response burden has been expressed as one of the new components of the data quality. Unfortunately, In National Statistical System of Iran nothing has been done to evaluate response burden in order to improve survey data quality. In this paper, we introduce existing methods of measuring response burden and express other countries experiences to assess perceived response burden in surveys. A common approach to assess response burden is designing a Perceived Response Burden survey and carry it out along with the host survey. In order to illustrate how to design, conduct and analyze results of this survey, a Perceived Response Burden survey which has been conducted in Faculty of Economic, Allameh Tabatabaei University, to measure response burden impose on respondents in Health Survey is presented.