فهرست مطالب

مجله علوم آماری - سال دوازدهم شماره 2 (پیاپی 24، پاییز و زمستان 1397)
  • سال دوازدهم شماره 2 (پیاپی 24، پاییز و زمستان 1397)
  • تاریخ انتشار: 1397/08/12
  • تعداد عناوین: 14
|
  • وحیده احراری، سیمیندخت براتپور *، آرزو حبیبی راد صفحات 295-321
    آنتروپی نقش اساسی در مباحث قابلیت اعتماد و مطالعات طول عمر سیستم ها ایفا می کند. در مطالعات اخیر توجه زیادی به استفاده از تابع چندک، خواص و کاربردهای آن به عنوان رویکردی جایگزین در تشخیص مدل های آماری و تحلیل داده ها شده است. در مقاله حاضر آنتروپی مانده تسالیس مبتنی بر تابع چندک معرفی و به بررسی خواص آن در مدل های پیوسته پرداخته می شود. با در نظر گرفتن توزیع های طول عمر خاص، صورت هایی بسته برای آنتروپی مانده تسالیس چندکی بدست آورده و خواص یکنوایی آنها را مورد مطالعه قرار داده و به مشخص سازی بر اساس این آنتروپی پرداخته شده است. همچنین اندازه واگرایی تسالیس بر مبنای تابع چندک و شکل چندکی آن برای متغیر مانده عمر بدست آورده می شود. در نهایت یک برآوردگر برای آنتروپی مانده تسالیس چندکی معرفی شده و با مطالعه شبیه سازی، عملکرد آن مورد بررسی قرار گرفته است.
    کلیدواژگان: آنتروپی مانده تسالیس، آنتروپی شانون، اندازه واگرایی تسالیس، مانده طول عمر، تابع چندک، ترتیب های تصادفی و مشخص سازی
  • نبز اسمعیل زاده *، رضا نیک بخت صفحات 323-340
    آزمون همگنی واریانس ها اغلب به عنوان یک آزمون مقدماتی برای تحلیل های دیگر، مثل آزمون برابری میانگین های جوامع مورد استفاده قرار می گیرد. تاکنون آزمون های متعددی در طرح بلوکی کامل تصادفی به منظور بهبود توان و ارائه ی یک آزمون استوار در برابر فرض نرمال بودن ارائه شده است، که رایج ترین آن ها آزمون بارتلت و لون بوده و بقیه تعمیمی از این دو آزمون هستند. توزیع آماره های این آزمون ها به صورت مجانبی محاسبه می شود. اخیرا آزمونی براساس برآورد مقادیر بحرانی معرفی شده است.
    در این مقاله با استفاده از شبیه سازی روش برآورد مقادیر بحرانی را روی نه آزمون همگنی واریانس ها اعمال کرده و عملکرد آن ها در توزیع های نرمال و تی با تعداد گروه های تیماری و بلوکی مختلف سنجیده می شود. نتایج نشان می دهند که آزمون ها براساس روش برآورد مقادیر بحرانی عملکرد بهتری از لحاظ حفظ نرخ خطای نوع اول و توان نسبت به حالت استفاده از توزیع تقریبی دارند.
    کلیدواژگان: آزمون لون، آزمون هان، آزمون بهاندری و دی، طرح بلوکی کامل تصادفی، همگنی واریانس ها
  • معصومه اکبری لاکه *، زهره صفرزاده صفحات 341-350
    توزیع پارتو دارای کاربردهای فراوانی در علوم اقتصادی و بیمه ای است. تا کنون خواص زیادی از این توزیع براساس داده های ترتیبی نظیر آماره های مرتب و رکوردها مورد بحث و بررسی قرار گرفته است. در این مقاله ضمن تعریف جدیدی از مفهوم مشاهدات نزدیک رکورد، برخی از نتایج مشخصه سازی توزیع پارتو براساس تعداد این مشاهدات به دست آمده است.
    کلیدواژگان: توزیع پارتو، رکورد، مشاهدات نزدیک رکورد، مشخصه سازی
  • پیمان امیری دوماری، مهرداد نادری *، احد جمالیزاده صفحات 351-364
    یک روش مناسب در برازش داده های نامتقارن و تحلیل داده هایی با ساختار غیر نرمال, استفاده از کلاس توزیع های وزن دار شده است. در این مقاله خانواده دیگری از توزیع های چوله-لاپلاس بر اساس تابع وزن دو پارامتری و به منظور برازش بهتر داده هایی از جوامع نامتقارن چند مدی و غیر نرمال معرفی می شود. همچنین برخی مشخصه های اصلی توزیع از جمله چولگی و کشیدگی, تابع مولد گشتاور و غیره مورد بررسی قرار گرفته اند. در انتها نیز کاربرد توزیع برای برازش به داده ها، با استفاده از یک مجموعه داده واقعی مورد بررسی قرار گرفته است.
    کلیدواژگان: توزیع آلفا-بتا چوله-لاپلاس، توزیع چوله-لاپلاس، برآوردگر درستنمایی ماکسیمم، تابع مولد گشتاور
  • ابوذر بازیاری *، نرگس موسوی صفحات 365-383

    هدف این مقاله یافتن برآوردگرهایی مناسب برای تابع چگالی جمعیت آماری با روش نمونه گیری ترابرشی خطی در حضور توابع آشکار ساز با توزیع های با دم های سبک و سنگین است، بعلاوه نشان داده می شود که چگونه نوع تابع آشکار ساز می تواند در انتخاب بهتربن برآوردگر تاثیرگذار باشد. سپس برآوردگری نااریب پیشنهاد می شود که دارای واریانس کمتری نسبت به برآوردگر های موجود است. در مطالعه ای شبیه سازی نشان داده می شود اگر توابع آشکار ساز دارای توزیع دم سبک باشند، برآوردگرهای جدید دارای کمترین میانگین توان دوم خطا خواهند بود.

    کلیدواژگان: تابع آشکار ساز، کارایی نسبی، میانگین توان دوم خطا، نمونه گیری ترابرشی خطی
  • مریم برزویی بیدگلی *، محمد آرشی صفحات 385-394
    یکی از روش های رفع مشکل همخطی در مدل های خطی، استفاده از برآوردگر لیو است. در این مقاله، برآوردگر جدیدی را با تعمیم برآوردگر لیو اصلاح شده لی و یانگ (2012) ارائه شده است. این برآوردگر بر اساس یک اطلاع پیشین از بردار پارامترها در مدل رگرسیون خطی و برآوردگر تعمیم یافته آکدنیز و کاچیرانلار (1995) به دست می آید. با استفاده از معیار ماتریس میانگین توان دوم خطا، شرایط برتری این برآوردگر بر برآوردگر لیو تعمیم یافته به دست آورده می شود. به منظور مقایسه رفتار این برآوردگر با برآوردگرهای موجود، یک مثال عددی و یک مطالعه شبیه سازی انجام شده است.
    کلیدواژگان: اطلاع پیشین، برآوردگر تعمیم یافته لیو اصلاح شده، برآوردگر لیو اصلاح شده، برآوردگر لیو تعمیم یافته، همخطی
  • قباد برمال زن * صفحات 395-412
    مجموع مقادیر خسارت ها دریک دوره خاص، یک کمیت اساسی برای مدیریت مناسب شرکت های بیمه و قیمت گذاری پوشش های بیمه ای هستند. در این مقاله، به بررسی ترتیب تصادفی معمولی بین مجموع مقادیر خسارت ها وقتی که تابع بقای خسارت ها، صعودی و مقعر هستند، پرداخته شده است. بعلاوه برخی از نتایج لی و لی (2016) تعمیم داده خواهد شد.
    کلیدواژگان: بيشاندن زنجيري چند متغيره، مدل نرخ خطر معکوس متناسب، ترتيب تصادفي، شور-محدب، شور-مقعر
  • ربیعاللهرحمانی* ، محی الدین ایزدی صفحات 413-428
    یک سیستم مشتمل بر ‎n‎ ‏‎ ‎مولفه‎ مستقل دو وضعیتی را در نظر بگیرید. فرض کنید ‏هر مولفه دارای یک وزن تصادفی بوده و سیستم در زمان ‎‎t‎‎ ‏‎ ‎کار ‎‏ کند‎ هرگاه مجموع وزن مولفه های فعال آن در این زمان‏، بزرگتر از مقدار از پیش تعیین شده ‎‎k‎‎ ‏‎ ‎باشد. ‎ چنین سیستمی را سیستم ‎‎k‎‎‏-از-‎‎n‎‎ ‏‎ ‎وزنی‎ تصادفی می نامیم. در این مقاله‏، به کمک ترتیب های تصادفی‏، نحوه تاثیر وزن و قابلیت اعتماد مولفه های یک سیستم ‎‎k‎‎‏-از-‎‎n‎ ‏‎ ‎وزنی‎ تصادفی را بر طول عمر آن بررسی کرده و نشان داده ایم که با افزایش وزن و قابلیت اعتماد مولفه ها‏، طول عمر سیستم نیز افزایش می یابد. هم چنین نشان داده ایم که بهترین سیستم ‎‎k‎‎‏-از-‎‎n‎‎ ‏‎ ‎وزنی‎ تصادفی زمانی ایجاد می شود که مولفه های با وزن بیشتر‏، دارای قابلیت اعتماد بیشتری نیز باشند. به کمک تناظر بین سیستم های ‎‎k‎‎‏-از-‎‎n‎‎ ‏‎ ‎وزنی و ‎منسجم‏،‎ تابع قابلیت اعتماد و میانگین زمان خرابی یک سیستم ‎‎k‎‏-از-‎‎n‎‎ ‏‎ ‎وزنی‎ تصادفی را برحسب قابلیت اعتماد سیستم های منسجم بیان کرده ایم. علاوه بر این‏، یک الگوریتم برای شبیه سازی میانگین زمان خرابی سیستم های ‎‎k‏-از-‎‎n‎‎ ‏‎ ‎وزنی‎ تصادفی‏، ارایه و پیاده سازی کرده ایم.
    کلیدواژگان: سیستم k-از-n وزنی تصادفی، میانگین زمان تا خرابی، ترتیب تصادفی معمولی
  • زهرا رنگینیان، مائده به فروز، ابوذر بازیاری* صفحات 429-447
    در این مقاله، نشان داده می شود که استفاده از خسارت های دارای توزیع پارتو برای محاسبه احتمالات ورشکستگی می تواند به ضرر مدیران شرکت بیمه باشد. با محاسبه خطای نسبی این خسارت ها، نشان داده می شود که برآورد میانگین خسارت ها برآوردی مناسب در مدل های مخاطره بیمه نخواهد بود. خواهیم دید که وجود خسارت های دارای توزیع پارتو در مدل بیمه اتکایی مازاد خسارت، ممکن است به ضرر بیمه گذاران شرکت باشد. همچنین در این سبد بیمه، با محاسبه امید شرطی متغیر تصادفی اندازه خسارت، نشان داده می شود که استفاده از خسارت های دارای توزیع پارتو، مناسب در برآورد خسارت ها نیست. با روش شبیه سازی، برآورد امید شرطی متغیر تصادفی اندازه خسارت برای برخی از توزیع های آماری محاسبه می شود. نتایج با مثال های واقعی بررسی می شوند.
    کلیدواژگان: احتمال ورشکستگی، توزیع پارتو، شبیه سازی، مدل های مخاطره
  • افسانه شکرانی، محمد خراشادی زاده* صفحات 449-468
    در این مقاله ابتدا به معرفی اندازه نادرستی کریج به عنوان تعمیمی از آنتروپی شانون پرداخته شد سپس اندازه نادرستی گذشته عمر براساس مفهوم تابع چندک بازنویسی شده است. در ادامه مشخص سازی هایی برای توزیع های طول عمر با خاصیت نرخ شکست وارون متناسب براساس اندازه نادرستی گذشته عمر چندکی ارائه شده است. همچنین رده توزیع های طول عمر دارای خاصیت اندازه نادرستی گذشته عمر صعودی (نزولی) و ویژگی هایی از آن مورد بررسی قرار گرفته است. بعلاوه با ارائه مثالی از داده های واقعی، کاربردی از اندازه نادرستی چندکی بیان شده است.
    کلیدواژگان: آنتروپی شانون، تابع چندک، اندازه نادرستی کریج، اندازه نادرستی گذشته عمر، مدل نرخ شکست وارون متناسب
  • فرشته عثمانی* ، علی اکیر راسخی صفحات 469-483
    ریزش داده ها و مقادیر گمشده از مشکلات معمول در تحلیل داده ها محسوب می شود. لذا اهمیت دارد که با برآورد مقادیر گمشده، داده ها کامل شده و در مسیری مناسب و صحیح برای تحلیل قرار داده شوند. دو روش معمول برای مقابله با داده های گمشده "جانهی چندگانه" و "وزن دهی احتمال معکوس" هستند. در این مقاله، رویکرد سومی معرفی خواهد شد که ترکیبی از دو روش جانهی چندگانه و وزن دهی احتمال معکوس است. با توجه به نتایج حاصل از مطالعه شبیه سازی روش ترکیبی مزایای بیشتری نسبت به سایر گزینه ها دارد. با توجه به وجود مقادیر گمشده در اکثر مطالعات به خصوص در حوزه پزشکی، نادیده گرفتن آن ها سبب تحلیل اشتباه شده و استفاده از روش های نیرومند، برای تحلیل صحیح، با اهمیت تلقی می شود.
    کلیدواژگان: جانهی چندگانه، وزن دهی احتمال معکوس، گمشدگی
  • محمد کاظمی *، داود شاهسونی، محمد آرشی صفحات 485-512
    در این مقاله یک روش دو مرحله ای برای انتخاب متغیر و تشخیص مولفه های خطی و غیرخطی در مدل های جمعی با بعد بالا معرفی می شود. در مرحله اول، از یک روش غربالگری برای کاهش بعد فضای متغیرها استفاده می شود. این روش غربالگری بر اساس همبستگی فاصله ای بین متغیرهای توضیحی و تابع توزیع حاشیه ای متغیر پاسخ ساخته شده و زمانی که متغیر پاسخ دم سنگین یا دارای مقادیر فرین باشد، عملکرد خوبی را از خود نشان می دهد. در مرحله دوم، از روشی مبتنی بر دو تابع تاوان برای انتخاب همز مان مولفه های غیرصفر و خطی استفاده می شود. کارایی این روش دو مرحله ای با مطالعه شبیه سازی و تحلیل یک مجموعه داده واقعی بررسی شده است.
    کلیدواژگان: انتخاب متغیر، تشخیص ساختار، غربالگری، کاهش بعد، مدل جمعی خطی-جزیی
  • علی محمدیان مصمم *، سروه محمدی صفحات 513-525
    در این مقاله پارامترهای تابع کوواریانس های فضایی با استفاده از روش درستنمایی مرکب بلوکی برآورد می شود. در این روش درستنمایی مرکب با استفاده از تابع های چگالی توام بلوک های زوجی داده های تفاضل یافته ساخته می شود. برای این منظور پس از انجام تفاضل گیری مجموعه داده های بزرگ را به مجموعه داده های کوچک تر افراز کرده تابع درستنمایی هر یک از مجموعه داده های کوچک تر به طور جداگانه محاسبه و در نهایت از طریق جمع به سادگی با هم ترکیب می شوند. از مزایای روش درستنمایی بلوکی این است که نیازی به معکوس کردن و محاسبه دترمینان ماتریس های با ابعاد بالا ندارد. سپس با استفاده از مطالعه شبیه سازی روش ارائه شده در این مقاله با روش درستنمایی مرکب بلوکی زوجی از نظر کارایی و محاسباتی مقایسه می شود. مطالعات شبیه سازی نشان می دهد که برآوردگرهای حاصل از روش ارائه شده به خوبی برآوردگرهای درستنمایی است. در نهایت یک داده واقعی مورد تحلیل قرار خواهد گرفت.
    کلیدواژگان: آمار فضایی، ایستایی، همسانگردی، اطلاع گودامب، تابع درستنمایی مرکب
  • بهزاد منصوری* ، رحیم چینی پرداز صفحات 527-547
    در این مقاله یک روش برای برآورد ماتریس کوواریانس مدل ARMA با بهره گیری از ماتریس باند پیشنهاد شده است. تابع درستنمایی مدل ARMA با ماتریس کوواریانس قطری به دست آمده و تقریب هایی نیز برای معیارهایی مانند کولبک-لیبلر و چرنوف ارائه شده است. بعلاوه دو قاعده برای ممیزی مدل های ARMA با استفاده از تقریب های به دست آمده پیشنهاد شده است. سپس با استفاده از داده های شبیه سازی شده و واقعی، توانایی روش پیشنهادی در ممیزی مدل های مختلف ARMA نشان داده شده است. کاهش قابل ملاحظه تعداد محاسبات برای سری های زمانی بزرگ و نرخ خطای ممیزی پایین از ویژگی های قواعد پیشنهاد شده است. همچنین عدم نیاز به فرض نرمال بودن در یک قضیه نشان داده شده است.
    کلیدواژگان: مدل ARMA، ماتریس باند، تابع درستنمایی، ممیزی سری های زمانی
|
  • Vahideh Ahrari , Simindokht Baratpour*, Arezo Habibirad Pages 295-321
    Entropy plays a fundamental role in reliability and system lifetesting areas. In the recent studies, much attentions have been paid to use quantile functions properties and their applications as an alternate approac in distinguishing statistical models and analysis of data. In the present paper, quantile based residual Tsallis entropy is introduced and its properties in continuous models are investigated. Considering distributions of certain lifetime, explicit versions for quantile based residual Tsallis entropy are obtained and their properties monotonicity are studied and characterization based on this entropy is investigated. Also quantile based Tsallis divergence is introduced and quantile based residual Tsallis divergence is obtained. Finally, an estimator for the quantile based residual Tsallis entropy is introduced and its performance is investigate by study simulation.
    Keywords: Residual Tsallis entropy, Shannon entropy, Tsallis divergence, Residual lifetime, Quantile function, Stochastic orders, Characterization
  • Nabaz Esmailzadeh* , Reza Nikbakht Pages 323-340
    Variances homogeneity test are mostly applied as a preliminary test to other analyses like test of equality of means. So far, several tests have been offered in randomized complete block design, that the most prevalent of them are Bartlett and Levene tests, and others are generalized kind of these two tests. The distribution of statistics for these tests are obtained asymptotically. Recently, a test has been introduced base on estimated critical values. In this paper, nine tests are examined based on estimated critical values method and their performance are evaluated with various blocks and treatment groups for normal and t-student distributions by a simulation study. The method of estimated critical values has a good performance in the type I error and a power improvement with respect to using asymptotic distribution.
    Keywords: Levene's test, Han's test, Bhandary, Dai's test, Randomized Complete Block Design, Homogeneity of Variances
  • Masoumeh Akbari Lakeh*, Zohreh Safarzadeh Pages 341-350
    The Pareto distribution has many applications in economics and actuarial sciences. So far, a lot of properties of this distribution based on order data such as order statistics and records are studied. In this paper, a new version of notion of near-record observations is defined. Then, some results of characterization of Pareto distribution based on this new definition are obtained.
    Keywords: Pareto distribution, Record, Near-record observations, Characterization
  • Peyman Amiri Domari , Mehrdad Naderi *, Ahad Jamalizadeh Pages 351-364
    In order to construct the asymmetric models and analyzing data set with asymmetric properties, an useful approach is the weighted model. In this paper, a new class of skew-Laplace distributions is introduced by considering a two-parameter weight function which is appropriate to asymmetric and multimodal data sets. Also, some properties of the new distribution namely skewness and kurtosis coefficients, moment generating function, etc are studied.
    Finally, The practical utility of the methodology is illustrated through a real data collection
    Keywords: Alpha-beta skew-Laplace distribution, Maximum likelihood estimation, Moment generating function, Skew Laplace distribution
  • Abouzar Bazyari *, Narges Mousavi Pages 365-383

    In this article, we wish to find and select appropriate estimators for statistical population density function using line transect sampling in the present of detection functions with light and heavy tailed distributions. Also it is shown that how the type of detection function could be effective in selection of the best estimator and then we propose a unbiased estimators that has the lower variance than the existed estimators. the simulation results show that if detection functions have heavy tailed distribution, then the new estimators have least mean square error.

    Keywords: Detection function, Line transect sampling, Mean square error, Relative efficiency
  • Maryam Borzoei Bidgoli *, Mohammad Arashi Pages 385-394
    One way of dealing with the problem of collinearity in linear models, is to make use of the Liu estimator. In this paper, a new estimator by generalizing the modified Liu estimator of Li and Yang (2012) has been proposed. This estimator is constructed based on a prior information of vector parameters in linear regression and the generalized estimator of Akdeniz and Kachiranlar (1995). Using the mean square error matrix criterion, we have obtained the superiority conditions Of this newly defined estimator over the generalized Liu estimator. For comparison sake, a numerical example as well as a Monte Carlo simulation study are considered.
    Keywords: Prior Information, Generalized Modified Liu Estimator, Modified Liu Estimator, Generalized Liu Estimator, Colinearity
  • Ghobad Barmalzan * Pages 395-412
    The aggregate claim amount in a particular time period is a quantity of fundamental importance for proper management of an insurance company and also for pricing of insurance coverages. In this paper, the usual stochastic order between aggregate claim amounts is discussed when the survival function of claims is a increasing and concave. The results established here complete some results of Li and Li (2016).
    Keywords: Chain majorization, Proportional reversed hazard rate model, Stochastic order, Schur-concave, T-tranform matrix
  • Muhyiddin Izadi, Rabeeollah Rahmani * Pages 413-428
    Consider a system consisting of ‎n‎‎ ‎independent binary ‎components. ‎Suppose ‎that ‎each component has a random weight and the system works, at time ‏‎t, ‎if ‎the ‎sum ‎of ‎the ‎weight ‎of all ‎working ‎components ‎at ‎time ‎‎t‎‎, ‎is above ‎a pre-specified value k.‎ We ‎call ‎such a‎ ‎system ‎as ‎random-‎weighted-‎k‎‎-out-of-‎n‎‎ ‎system. ‎In ‎this ‎paper, we investigate the effect of the component weights and reliabilities on the system performance and show that the larger weights and reliabilities, the larger lifetime (with respect to the usual stochastic order). ‎We ‎also ‎show ‎that ‎the ‎best ‎‎random-‎weighted-‎k‎‎-out-of-‎n‎‎ ‎system ‎is ‎obtaind ‎when ‎the components with the ‎more ‎weights ‎have simultaneously ‎more ‎reliability. The reliability function and mean time to failure of a ‎random-‎weighted-‎k‎-out-of-‎n‎ ‎system are stated based on the reliability function of coherent systems. Furthermore, a simulation algorithm is presented to observe the mean time to failure of ‎random-‎weighted-‎k‎‎-out-of-‎n‎ ‎system.
    Keywords: Random-Weighted-k-out-of-n System, Mean Time to Failure, Usual Stochastic Order
  • Zahra Ranginian , Maede Behfrouz , Abouzar Bazyari * Pages 429-447
    In this paper, it is shown that using the cliams with Pareto distribution for computing the ruin probabilities could has detriment for the heads of insurance company. With computing the relative error of these cliams it is shown that the estimation of claims mean is not suitable in insurance models. We will show that existance of claims with Pareto distribution in the excess of loss reinsurance model may be detriment for the policyholders of company. Also in this portfolio, with computing the conditional expectation of claims measure show that using the claims with Pareto distribution is not suitable in the estimation of claims. The estimation of conditional expectation of random variable of claims is computed by simulation method for some of the statistical distributions. The results are investigated with real examples.
    Keywords: Pareto Distribution, Risk Models, Ruin Probability, Simulation
  • Afsaneh Shokrani , Mohammad Khorashadizadeh* Pages 449-468
    This paper first introduces the Kerridge inaccuracy measure as an extension of the Shannon entropy and then the measure of past inaccuracy has been rewritten based on the concept of quantile function. Then, some characterizations results for lifetimes with proportional reversed hazard model property based on quantile past inaccuracy measure are obtained. Also, the class of lifetimes with increasing (decreasing) quantile past inaccuracy property and some of its properties are studied. In addition, via an example of real data, the application of quantile inaccuracy measure is illustrated.
    Keywords: Shannon entropy, Quantile function, Kerridge's inaccuracy measure, Past inaccuracy measure, Proportional reversed hazard model
  • Freshteh Osmani *, Ali Akbar Rasekhi Pages 469-483
    Data loss and missing values is a common problem in data analysis. Therefore, it is important that by estimating missing values, the data was completed and placed in the proper path. Two approaches commonly used to deal with missing data are multiple imputation (MI) and inverse-probability weighting (IPW). In this study, a third approach which is a combination of MI and IPW will be introduced. It can be said by results of the simulation study that IPW/MI can have advantages over alternatives. Regarding the missing values in most studies, especially in the medical field, ignoring them leads to wrong analysis. So, using of robust methods to proper analysis of missing values is essential.
    Keywords: Multiple Imputation, Inverse-Probability Weighting, Missingness
  • Mohammad Kazemi *, Davood Shahsavani , Mohammad Arashi Pages 485-512
    In this paper, we introduce a two-step procedure, in the context of high dimensional additive models, to identify nonzero linear and nonlinear components. We first develop a sure independence screening procedure based on the distance correlation between predictors and marginal distribution function of the response variable to reduce the dimensionality of the feature space to a moderate scale. Then a double penalization based procedure is applied to identify nonzero and linear components, simultaneously. We conduct extensive simulation experiments and a real data analysis to evaluate the numerical performance of the proposed method.
    Keywords: Dimensionality Reduction, Partial Linear Additive Model, Screening, Structure Identification, Variable Selection
  • Ali Mohammadian Mosammam* , Serve Mohammadi Pages 513-525
    In this paper parameters of spatial covariance functions have been estimated using block composite likelihood method. In this method, the block composite likelihood is constructed from the joint densities of paired spatial blocks. For this purpose, after differencing data, large data sets are splited into many smaller data sets. Then each separated blocks evaluated separately and finally combined through a simple summation. The advantage of this method is that there is no need to inverse and to find determination of high dimensional matrices. The simulation shows that the block composite likelihood estimates as well as the pair composite likelihood. Finally a real data is analysed.
    Keywords: Spatial Statistics, Stationary, Isotropic, Godambe information, Block composite likelihood
  • Behzad Mansouri *, Rahim Chinipardaz Pages 527-547
    In this paper, using Band matrix, a method has been proposed to estimating the covariance matrix of the ARMA model and the likelihood function of the ARMA model with diagonal covariance matrix has been obtained and approximations for Kullback-Leibler and Chernoff criteria were presented. In addition, two rules for discriminating the ARMA models has been proposed. A simulation and real data sets are used to illustrate the performance of the proposed rules. Significant reduction of the calculations for large time series and low discrimination error rate are two characteristics of the proposed rules. In addition no need to normal assumption is showed in a theorem.
    Keywords: ARMA model, Band matrix, Likelihood function, Discrimination of time series