فهرست مطالب

  • سال پانزدهم شماره 1 (پیاپی 29، بهار و تابستان 1400)
  • تاریخ انتشار: 1400/01/25
  • تعداد عناوین: 14
|
  • مجتبی اصفهانی، محمد امینی*، غلام رضا محتشمی برزادران صفحات 1-23

    در این مقاله  تبدیل  زمان کل آزمون معرفی و ویژگی های آن مورد بررسی قرار می گیرد. سپس ارتباط این تبدیل با برخی مفاهیم قابلیت اعتماد بیان می شود. نمودار زمان کل آزمون برای برخی توزیع های طول عمر رسم شده و تحلیل داده واقعی بر اساس این نمودار انجام می شود. علاوه بر این با استفاده از روش تابع تغییر شکل یک خانواده از توزیع های تغییر شکل یافته جدید معرفی شده; تفسیر آماری از دیدگاه قابلیت اعتماد برای توزیع جدید و تابع بقا متناظر آن ارایه می شود و در ادامه با در نظر گرفتن توزیع پایه وایبول یک تعمیم از توزیع وایبول به دست آورده و با تحلیل یک داده واقعی نشان داده می شود که توزیع جدید برازش بهتری نسبت به توزیع پایه به داده های طول عمر دارد.

    کلیدواژگان: تابع نرخ خطر، تبدیل زمان کل آزمون، نمودار زمان کل آزمون
  • محمدحسین پورسعید* صفحات 23-38

    در این مقاله بر پایه یک کمیت محوری مناسب، دو روش برای تعیین ناحیه اطمینان میانگین و انحراف معیار توزیع یکنواخت دو پارامتری معرفی می شود که در آن ها به کار گیری روش های عددی الزامی نیست. در روش اول با مینیمم کردن مساحت ناحیه اطمینان، کوچکترین ناحیه اطمینان بدست آورده می شود و در روش دوم نیز با استفاده از کوتاه ترین بازه های اطمینان برای میانگین و انحراف معیار و به کار گیری فرمول بن فرونی، ناحیه اطمینان توام معرفی می شود. با مقایسه مساحت و احتمال پوشش نواحی اطمینان معرفی شده و همچنین مقایسه پهنای نوار در برگیرنده انحراف معیار در دو روش، نشان داده می شود که روش اول عملکرد بهتری را دارد. در پایان نیز روشی برای تقریب چندک توزیع F که در محاسبه نواحی اطمینان از آن استفاده می شود، ارایه می گردد.

    کلیدواژگان: توزیع یکنواخت دو پارامتری، ناحیه اطمینان، روش بن فرونی
  • جلال چاچی*، علیرضا چاجی صفحات 39-60

    در این مقاله رویکرد جدیدی در برآورد پارامترهای مدل رگرسیون خطی  کمترین قدرمطلق انحرافات معرفی می شود که مبتنی بر مسایل بهینه سازی بر مبنای الحاق وزنی قدرمطلق انحرافات مرتب شده است. الحاق وزنی  قدرمطلق انحرافات برازش مرتب شده در مساله بهینه سازی در حالی که توابع نیکویی برازش مختلفی را بطور همزمان در مساله مدل سازی در نظر می گیرد، توانایی تحلیل داده ها به منظور شناسایی نقاط دورافتاده را نیز فراهم می کند. بر این اساس این رویکرد تحت تاثیر مشاهدات دورافتاده قرار نمی گیرد و در هر مساله متناسب با تعداد مشاهداتی که پتانسیل دورافتاده بودن را دارا هستند، به انتخاب بهترین برآوردگر مدل با بهینه ترین مقدار نقطه شکست در بین مجموعه ای از برآوردگرهای کاندید دیگر  می پردازد. نیکویی برازش رویکرد پیشنهادی در مدل سازی داده های  شبیه سازی شده و داده های واقعی در مهندسی آب با حضور مشاهدات دورافتاده تحلیل شده است. همچنین در انتها به تحلیل حساسیت برآوردگرها شامل بررسی معیارهای نااریبی و کارایی برآوردگرها پرداخته شده است.

    کلیدواژگان: رگرسیون وزنی، قدرمطلق انحرافات مرتب شده، نقطه شکست، توان های دوم خطا
  • مجید چهکندی*، جلال اطمینان، محمد خنجری صادق صفحات 61-80

    افزونگی و کاهش دو روش اصلی برای بهبود قابلیت اعتماد سیستم هستند. در روش افزونگی، قابلیت  اعتماد سیستم با افزودن مولفه های اضافی به برخی از مولفه های اصلی سیستم بهبود می یابد. در روش کاهش قابلیت اعتماد سیستم با کاهش نرخ شکست همه یا برخی از مولفه های سیستم افزایش می یابد. این مقاله به بررسی هم ارزی بین روش های افزونگی و کاهش براساس مفهوم عامل های هم ارزی قابلیت اعتماد می پردازد. یک فرمول بسته برای محاسبه عامل هم ارزی بقاء به دست می آید. این عامل، میزان کاهش در نرخ خطر مولفه (های) یک سیستم برای اینکه قابلیت اعتماد آن برابر با زمانی باشد که به یکی از روش های افزونگی بهبود یافته است را مشخص می کند. تاثیر اندازه اهمیت مولفه نیز در نتایج به دست آمده، مورد مطالعه قرار گرفته است.

    کلیدواژگان: اندازه اهمیت مولفه، روش افزونگی، روش کاهش، عامل هم ارزی قابلیت اعتماد
  • زهرا خادم بشیری، علی شادرخ*، مسعود یارمحمدی صفحات 81-96

    یکی از بحث های چالشی در مدل های رگرسیونی انتخاب مدل بهینه است، بدین شکل که چگونه می توان متغیرهای توضیحی مهم و متغیرهای قابل اغماض را مشخص کرده و رابطه بین متغیر پاسخ و متغیرهای توضیحی را به طور ساده تر بیان نمود. با توجه به محدودیت های مربوط به انتخاب متغیر به روش کلاسیک نظیر انتخاب گام به گام، می توان از روش های رگرسیون تاوانیده استفاده کرد. یکی از مدل های رگرسیون تاوانیده، مدل رگرسیونی لاسو است که در آن فرض می شود خطاها از توزیع نرمال پیروی می کنند. در این مقاله، مدل رگرسیون لاسو بیزی با خطایی با توزیع نامتقارن و وجود متغیرهای توضیحی از بعد بالا معرفی می شود. سپس با شبیه سازی و تحلیل داده های  واقعی، عملکرد مدل پیشنهادی مورد بحث و بررسی قرار می گیرد.

    کلیدواژگان: رگرسیون تاوانیده، رگرسیون لاسوی بیزی، توزیع لاپلاس نامتقارن، توزیع آلفا رگرسیون تاوانیده، توزیع آلفا چوله نرمال، الگوریتم گیبس، چوله نرمال
  • زهرا رحیمیان آزاد، افشین فلاح* صفحات 97-118

    این مقاله میانگین گیری بیزی مدل های رگرسیونی گاوسی وارون را برای تحلیل رگرسیونی در شرایطی که مشاهدات پاسخ مثبت و چوله به راست هستند، مورد توجه قرار می دهد. چالش های محاسباتی مربوط به کمیت های لازم برای اجرای این روش و  چگونگی غلبه بر آنها، مورد بحث قرار گرفته است.  یک جنبه جالب روش پیشنهادی آن است که با در نظر گرفتن توزیع های پیشین مناسب، نمایش های بسته ای برای کمیت های پسینی مورد علاقه فراهم آورده شده است. روش پیشنهادی در قالب یک مطالعه شبیه سازی مورد ارزیابی قرار گرفته و چگونگی کاربست آن در مسایل کاربردی، به وسیله یک مثال واقعی مربوط به مطالعات زلزله شناسی، شرح داده شده است.

    کلیدواژگان: یانگین گیری بیزی مدل ها، رگرسیون، توزیع گاوسی وارون، توزیع پیش بین
  • زهرا رضایی قهرودی*، حسن رنجی، علیرضا رضایی صفحات 119-146

    در اکثر آمارگیری ها، پرسش مشاغل و فعالیت ها از طریق پرسش های باز سوال می شود و کدگذاری این اطلاعات به هزاران رده به روش دستی صورت می گیرد که بسیار زمان بر و پرهزینه است. با توجه به ضروریات مدرن سازی نظام آماری کشورها، امروزه استفاده از روش های یادگیری آماری در آمار رسمی برای داده های اولیه و  ثانویه ضروری است. همچنین، روش های رده بندی یادگیری آماری در فرایند تولید آمار رسمی بسیار کاربرد دارد. هدف این مقاله، کدگذاری برخی فرایندهای آمارگیری ها با روش های یادگیری آماری و آشنایی مدیران در مورد امکان استفاده از روش های یادگیری آماری در تولید آمارهای رسمی است. دو کاربرد از روش های یادگیری آماری رده بندی شامل کدگذاری خودکار رشته فعالیت های اقتصادی و کدگذاری پرسش های باز پرسشنامه های مراکز آماری با چهار روش تکرار، روش ترکیبی ماشین بردار پشتیبان با ترکیب مدل ها در سطوح مختلف تجمیع، ترکیب روش تکرار و ماشین بردار پشتیبان و روش نزدیکترین همسایه روی داده های آمارگیری از کارگاه های صنعتی ایران انجام شده است.

    کلیدواژگان: کدگذاری خودکار، متن کاوی، یادگیری آماری، آمار رسمی
  • مجتبی زینعلی، احسان بهرامی سامانی* صفحات 147-164

    این مقاله با هدف مدل بندی توام داده های شمارشی طولی تعداد سلول های CD4 و زمان تا رخداد مرگ در افراد مبتلا به HIV مبتنی بر مدل زمان شکست شتابیده پایه ریزی شده است. برای مدل بندی پاسخ شمارشی طولی، از مدل رگرسیون آمیخته خطی تعمیم یافته تحت خانواده توزیع های سری توانی استفاده شده است و برای داده های زمان تا رخداد پیشامد، مدل پارامتری زمان شکست شتابیده تحت توزیع وایبل در نظر گرفته شده است. این دو پاسخ از طریق اثرات تصادفی همبسته با توزیع نرمال به یکدیگر مرتبط می شوند. فرض می شود پاسخ های طولی و زمان تا رخداد به شرط اثرات تصادفی و متغیرهای کمکی مستقل هستند. در نظر گرفتن تعداد صفر زیاد برای دو پاسخ و مکانیسم سانسور از راست، مدل توامی را تولید کرده است که تاکنون توسط محققان دیگر مورد بررسی قرار نگرفته است. پارامترهای مدل توام نیز با روش های مونت کارلوی زنجیر مارکوفی برآورد شدند.

    کلیدواژگان: مدل زمان شکست شتابیده، زمان تا رخداد پیشامد، سانسور از راست، خانواده توزیع های سری توانی، مدل رگرسیون آمیخته خطی تعمیم یافته
  • بهرام طارمی، محسن آوجی، ناهید سنجری فارسی پور* صفحات 165-191

    در این مقاله با استفاده از خانواده توزیع های مارشال-اولکین-ناداراجه تعمیم یافته وایبل، توزیع های نمایی، وایبل اصلاح شده و گمپرتز را بدست آورده تابع بقا، تابع چگالی و تابع مخاطره رآن ها تعیین شده است. سپس الگویی برای شبیه سازی از توزیع ها ارایه گردیده است. برای حالت نمایی نیز تحت تابع زیان های توان دوم خطا، آنتروپی، توان دوم خطای  لگاریتمی و لاینکس اصلاح شده پارامترها به روش بیزی برآورد شده اند. در انتها توزیع های ارایه شده به داده های واقعی برازانده شده است.

    کلیدواژگان: توزیع مارشال-اولکین، وایبل تعمیم یافته، آمار بیزی، تابع بقاء، تابع مخاطره
  • احسان گل زاده گروی، پرویز نصیری*، سید مهدی صالحی صفحات 193-218

    در این مقاله برآورد بیز تجربی پارامتر توزیع نمایی تحت توابع زیان  توان دوم خطا و لاینکس وقتی  داده ها با طرح نمونه گیری  مجمو عه رتبه دار رکوردی جمع آوری شده باشند، مورد بررسی قرار گرفته  است. سپس پیش گویی نقطه ای و بازه ای مقادیر رکوردی  حاصل از دنباله آینده مطالعه و نتایج به دست آمده از طرح نمونه گیری مذکور با نتایج حاصل از طر ح نمونه گیری معکوس مقایسه شده اند. برای مقایسه برآوردگرها، از دو معیار مخاطره بیزی و مخاطره پسین و برای مقایسه پیش گویی های نقطه ای، از معیار میانگین توان دوم خطای پیش گویی استفاده شده است. برای ارزیابی بازه های پیش گویی، متوسط طول بازه و احتمال پوشش ارایه شده اند. با مطالعه شبیه سازی و ارایه مثال واقعی، دو روش برآورد با هم مقایسه شده و عملکرد طرح های معرفی شده ارزیابی خواهند شد.

    کلیدواژگان: برآورد، پیش گویی، رکورد، بیز تجربی، نمونه گیری مجمو عه رتبه دار رکوردی
  • میثم محمدپور*، حسین بیورانی، رضا عربی بلاغی صفحات 219-232

    توزیع های احتمالی سرعت باد یکی از خصوصیات اصلی باد برای ارزیابی پتانسیل انرژی باد در یک منطقه مشخص هستند.  در این مقاله، توزیع لگ-لجستیک سه پارامتری معرفی شده و با شش مدل آماری مورد استفاده برای مدل سازی داده های سرعت باد واقعی گزارش شده در ایستگاه های تبریز و ارومیه مقایسه شده است.  پارامترهای مدل با روش ماکسیمم درستنمایی و با استفاده از الگوریتم نیلدر-مید برآورد شده است. میزان برازش به توزیع های پیشنهادی بر اساس ضریب تعیین، آزمون خی-دو، آزمون کولموگوروف اسمیرنف و معیار ریشه میانگین توان دوم خطا اندازه گیری می شود. نتایج تحلیل ها نشان می دهند که توزیع لگ-لجستیک سه پارامتری بهترین برازش را برای مدل بندی داده های سرعت باد سالانه و فصلی در ایستگاه ارومیه و به جز فصل تابستان برای ایستگاه تبریز فراهم می کند. همچنین شاخص خطای چگالی توان باد برای توزیع های مختلف محاسبه شده است.

    کلیدواژگان: سرعت باد، توزیع تجربی، روش ماکسیمم درستنمایی، آزمون های نیکویی برازش، خطای چگالی توان باد
  • مرتضی محمدی، مهدی عمادی*، محمد امینی صفحات 233-254

    اندازه های واگرایی می توانند به عنوان معیارهای وابستگی در نظر گرفته می شوند و برحسب تابع چگالی مفصل بازنویسی شوند. در این مقاله، معیارهای وابستگی جفری و هلینجر با استفاده از روش تبدیل پروبیت بهبود یافته برآورد می شوند و سازگاری مجانبی آن ها اثبات می گردد. علاوه براین، یک مطالعه شبیه سازی برای سنجش دقت برآوردگرها انجام شده است. نتایج شبیه سازی نشان می دهند که برای حجم نمونه کم یا شدت وابستگی ضعیف، معیار وابستگی هلینجر عملکردی بهتری نسبت به معیارهای وابستگی کولبک-لیب لر و جفری دارند. در انتها، کاربردی از روش های مورد بررسی در هیدرولوژی ارایه شده است.

    کلیدواژگان: واگرایی، وابستگی، چگالی مفصل، تبدیل پروبیت
  • احد ملک زاده*، اصغر اسمعیلی عیان، سید مهدی محمودی صفحات 255-274

    مدل داده پانلی در بسیاری از شاخه های علمی همانند اقتصاد، علوم اجتماعی، پزشکی و اپیدمیولوژی مورد استفاده قرار می گیرد. در دهه های گذشته، استنباط روی ضرایب رگرسیون در مدل های داده پانلی توسعه یافته است. در این مقاله، به معرفی روش هایی به منظور انجام آزمون فرضیه برابری مدل پانلی در بین گروه های موجود در مجموعه داده های پانلی پرداخته می شود. ابتدا یک کمیت تصادفی معرفی می شود که توزیع آن را به دو روش تقریب و بوت استرپ پارامتری برآورد خواهد شد. همچنین یک کمیت محوری برای انجام این آزمون فرضیه معرفی می شود. در یک مطالعه شبیه سازی، رویکردهای پیشنهادی با روش موجود بر اساس خطای نوع اول و توان آزمون مورد مقایسه قرار می گیرد. همچنین مجموعه داده های پانل بنزینی با روش ارایه شده مورد تحلیل قرار می گیرد.

    کلیدواژگان: داده های پانلی، ضریب رگرسیونی، بوت استرپ پارامتری، روش دقیق
  • مهسا نادی فر، حسین باغیشنی*، افشین فلاح صفحات 275-301

    بسیاری از داده های فضایی-زمانی، به ویژه در پزشکی و تصویرسازی بیماری ها، شمارشی هستند. معمولا این نوع داده های شمارشی دارای تغییرپذیری مضاعفی هستند که کارایی مدل پواسون را برای تحلیل آن ها خدشه دار می کند. لحاظ کردن این تغییرپذیری در فرآیند مدل بندی، نقش مهمی در افزایش کارایی تحلیل داده های فضایی-زمانی شمارشی دارد. با این هدف، در این مقاله، یک مدل فضایی-زمانی بیزی جدید با انعطاف بالا برای مدل بندی پراکنش داده ها، به نام گامای شمارشی، معرفی شده است. برای برازش و استنباط این مدل، روش تقریب لاپلاس آشیانی جمع بسته به کار گرفته شده است. برای ارزیابی عملکرد مدل پیشنهادی در مقایسه با مدل های سنتی پواسون و دوجمله ای منفی، از یک مطالعه شبیه سازی استفاده شده است. افزون بر این، کاربست مدل در تحلیل داده های سرطان خون در استان خراسان رضوی، نشان داده شده است.

    کلیدواژگان: اثر متقابل فضایی-زمانی، بیش پراکنش، توزیع پیشین با پیچیدگی تاوانیده، داده های شمارشی، مدل گامای شمارشی
|
  • Mojtaba Esfahani, Mohammad Amini*, Gholamreza Mohtashami Borzadaran Pages 1-23

    In this article, the total time on test  (TTT) transformation and its major properties are investigated. Then, the relationship between the TTT transformation and some subjects in reliability theory is expressed. The TTT diagram is also drawn for some well-known lifetime distributions, and a real-data analysis is performed based on this diagram. A new distorted family of distributions is introduced using the distortion function. The statistical interpretation of the new life distribution from the perspective of reliability is provided, and its survival function is derived. Finally, a generalization of the Weibull distribution is introduced using a new distortion function. A real data analysis shows its superiority in fitting in comparison to the traditional Weibull model.

    Keywords: Hazard Rate Function, Total Time on Test Transform, Total Time on Test Plot
  • MohammadHossein Poursaeed* Pages 23-38

    In this paper, based on an appropriate pivotal quantity, two methods are introduced to determine confidence region for the mean and standard deviation in a two parameter uniform distribution, in which the application of numerical methods is not mandatory. In the first method, the smallest region is obtained by minimizing the confidence regionchr('39')s area, and in the second method, a simultaneous Bonferroni confidence interval is introduced by using the smallest confidence intervals. By the comparison of area and coverage probability of the introduced methods, as well as, comparison of the width of strip including the standard deviation in both methods, it has been shown that the first method has a better efficiency. Finally, an approximation for the quantile of F
    distribution used in calculating the confidence regions in a special case is presented.

    Keywords: Bonferroni Method, Joint Confidence Region, Two-Parameter Uniform Distribution
  • Jalal Chachi*, Alireza Chaji Pages 39-60

    This article introduces a new method to estimate the least absolutes linear regression modelchr('39')s parameters, which considers optimization problems based on the weighted aggregation operators of ordered least absolute deviations. In the optimization problem, weighted aggregation of orderd fitted least absolute deviations provides data analysis to identify the outliers while considering different fitting functions simultaneously in the modeling problem. Accordingly, this approach is not affected by outlier observations and in any problem proportional to the number of potential outliers selects the best model estimator with the optimal break-down point among a set of other candidate estimators. The performance and the goodness-of-fit of the proposed approach are investigated, analyzed and compared in modeling analytical dataset and a real value dataset in hydrology engineering at the presence of outliers. Based on the results of the sensitivity analysis, the properties of unbiasedness and efficiency of the estimators are obtained.

    Keywords: Weighted Regression, Ordered Absolutes-Deviations, Breakdown Point, Squared Errors
  • Majid Chahkandi*, Jalal Etminan, Mohammad Khanjari Sadegh Pages 61-80

    Redundancy and reduction are two main methods for improving system reliability. In a redundancy method, system reliability can be improved by adding extra components  to some original components of the system. In a reduction method, system reliability increases by reducing the failure rate at all or some components of the system. Using the concept of reliability equivalence factors, this paper investigates equivalence between the reduction and redundancy methods. A closed formula is obtained for computing the survival equivalence factor. This factor determines the amount of reduction in the failure rate of a system component(s) to reach the reliability of the same system when it is improved. The effect of component importance measure is also studied in our derivations.

    Keywords: Component Importance Measure, Redundancy Method, Reduction Method, Reliability Equivalence Factor
  • Zahra Khadem Bashiri, Ali Shadrokh*, Masoud Yarmohammadi Pages 81-96

    One of the most critical discussions in regression models is the selection of the optimal model, by identifying critical explanatory variables and negligible variables and more easily express the relationship between the response variable and explanatory variables. Given the limitations of selecting variables in classical methods, such as stepwise selection, it is possible to use penalized regression methods. One of the penalized regression models is the Lasso regression model, in which it is assumed that errors follow a normal distribution. In this paper, we introduce the Bayesian Lasso regression model with an asymmetric distribution error and the high dimensional setting. Then, using the simulation studies and real data analysis, the performance of the proposed modelchr('39')s performance is discussed.

    Keywords: Penalized Regression, Bayesian LASSO Regression, Asymmetric Laplace Distribution, Alpha-Skew Normal Distribution, Gibbs Algorithm
  • Zahra Rahimian Azad, Afshin Fallah* Pages 97-118

    This paper considers the Bayesian model averaging of inverse Gaussian regression models for regression analysis in situations that the response observations are positive and right-skewed. The computational challenges related to computing the essential quantities for executing of this methodology and their dominating ways are discussed. Providing closed form expressions for the interested posterior quantities by considering suitable prior distributions is an attractive aspect of the proposed methodology. The proposed approach has been evaluated via a simulation study and its applicability is expressed by using a real example related to the seismic studies.

    Keywords: Bayesian Model Averaging, Regression, Inverse Gaussian Distribution, Predictive Distribution
  • Zahra Rezaei Ghahroodi*, Hasan Ranji, Alireza Rezaei Pages 119-146

    In most surveys, the occupation and job-industry related questions are asked through open-ended questions, and the coding of this information into thousands of categories is done manually. This is very time consuming and costly. Given the requirement of modernizing the statistical system of countries, it is necessary to use statistical learning methods in official statistics for primary and secondary data analysis. Statistical learning classification methods are also useful in the process of producing official statistics. The purpose of this article is to code some statistical processes using statistical learning methods and familiarize executive managers about the possibility of using statistical learning methods in the production of official statistics. Two applications of classification statistical learning methods, including automatic coding of economic activities and open-ended coding of statistical centers questionnaires using four iterative methods, are investigated. The studied methods include duplication, support vector machine (SVM) with multi-level aggregation methods, a combination of the duplication method and SVM, and the nearest neighbor method.

    Keywords: Automated Coding, Text Mining, Statistical Learning, Official Statistics
  • Mojtaba Zeinali, Ehsan Bahrami Samani* Pages 147-164

    This article aims to joint modeling of longitudinal CD4 cells count and time to death in HIV patients based on the AFT model. The modeling of the longitudinal count response, a GLME model under the family of PSD, was used. In contrast, for the TTE data, the parametric AFT model under the Weibull distribution was investigated. These two responses are linked through random effects correlated with the normal distribution. The longitudinal and survival data are then assumed independent, given the latent linking process and any available covariates. Considering excess zeros for two responses and right censoring, presented a joint model that has not yet been investigated by other researchers. The parameters were also estimated using MCMC methods.

    Keywords: Accelerated Failure Time Model, Time to Event, Right Censoring, Family of Power Series Distribution, Generalized Linear Mixed Effect (GLME) Model
  • Bahram Tarami, Mohsen Avaji, Nahid Sanjari Farsipour* Pages 165-191

    In this paper, using the extended Weibull Marshall-Olkin-Nadarajah family of distributions, the exponential, modified Weibull, and Gompertz distributions are obtained, and density, survival, and hazard functions are simulated. Next, an algorithm is presented for the simulation of these distributions. For exponential case, Bayesian statistics under squared error, entropy Linex, squared error loss functions and modified Linex are calculated. Finally, the presented distributions are fitted to a real data set.

    Keywords: Marshal-Olkin Distribution, Generalized Weibull Distribution, Bayesian Statistics, Survival Function, Hazard Function
  • Ehsan Golzade Gervi, Parviz Nasiri*, Mahdi Salehi Pages 193-218

    The empirical Bayes estimation of the exponential distribution parameter under squared error and LINEX loss functions is investigated when the record collects the data ranked set sampling scheme method. Then, point and interval predictions for future record values are studied. The results of this sampling scheme are compared with the products of the inverse sampling scheme. To compare the accuracy of estimators, Bayes risk and posterior risk criteria are used. These point predictors are compared in the sense of their mean squared prediction errors. To evaluate the prediction intervals for both the sampling schemes, the average interval length and coverage probability are computed and compared. In the present study, the hyperparameters are estimated in two methods. By studying the simulation and presenting real data, the estimation methods are compared, and the performance of the introduced schemes is evaluated.

    Keywords: Estimation, Prediction, Record, Empirical Bayes, Record Ranked Set Sampling
  • Meysam Mohammadpour*, Hossein Bevrani, Reza Arabi Belaghi Pages 219-232

    Wind speed probabilistic distributions are one of the main wind characteristics for the evaluation of wind energy potential in a specific region.  In this paper, 3-parameter Log-Logistic distribution is introduced and it compared with six used statistical models for the modeling the actual wind speed data reported of Tabriz and Orumiyeh stations in Iran. The maximum likelihood estimators method via Nelder–Mead algorithm is utilized for estimating the model parameters. The flexibility of proposed distributions is measured according to the coefficient of determination, Chi-square test, Kolmogorov-Smirnov test, and root mean square error criterion. Results of the analysis show that 3-parameter Log-Logistic distribution provides the best fit to model the annual and seasonal wind speed data in Orumiyeh station and except summer season for Tabriz station. Also, wind power density error is estimated for the proposed different distributions.

    Keywords: Wind Speed, Empirical Distribution, Maximum Likelihood Method, Goodness-of-fit Tests, Wind Power Density Error
  • Morteza Mohammadi, Mahdi Emadi*, Mohammad Amini Pages 233-254

    Divergence measures can be considered as criteria for analyzing the dependency and can be rewritten based on the copula density function. In this paper, Jeffrey and Hellinger dependency criteria are estimated using the improved probit transformation method, and their asymptotic consistency is proved. In addition, a simulation study is performed to measure the accuracy of the estimators. The simulation results show that for low sample size or weak dependence, the Hellinger dependency criterion performs better than Kullback-Libeler and Jeffrey dependency criteria. Finally, the application of the studied methods in hydrology is presented.

    Keywords: Divergence, Dependency, Copula Density, Probit Transformation
  • Ahad Malekzadeh*, Asghar Esmaeli Ayan, Seyed Mahdi Mahmodi Pages 255-274

    The panel data model is used in many areas, such as economics, social sciences, medicine, and epidemiology. In recent decades, inference on regression coefficients has been developed in panel data models. In this paper, methods are introduced to test the equality models of the panel model among the groups in the data set. First, we present a random quantity that we estimate its distribution by two methods of approximation and parametric bootstrap. We also introduce a pivotal quantity for performing this hypothesis test. In a simulation study, we compare our proposed approaches with an available method based on the type I error and test power. We also apply our method to gasoline panel data as a real data set.

    Keywords: Panel Data, Regression Coefficient, Parametric Bootstrap, Exact Method
  • Mahsa Nadifar, Hossein Baghishani*, Afshin Fallah Pages 275-301

    Many of spatial-temporal data, particularly in medicine and disease mapping, are counts. Typically, these types of count data have extra variability that distrusts the classical Poisson modelchr('39')s performance. Therefore, incorporating this variability into the modeling process, plays an essential role in improving the efficiency of spatial-temporal data analysis. For this purpose, in this paper, a new Bayesian spatial-temporal model, called gamma count, with enough flexibility in modeling dispersion is introduced. For implementing statistical inference in the proposed model, the integrated nested Laplace approximation method is applied. A simulation study was performed to evaluate the performance of the proposed model compared to the traditional models. In addition, the application of the model has been demonstrated in analyzing leukemia data in Khorasan Razavi province, Iran.

    Keywords: Spatial-Temporal Interaction, Over-Dispersion, Penalized Complexity Prior, Count Data, Gamma Count Model