فهرست مطالب

نشریه اندیشه آماری
سال بیست و هشتم شماره 1 (پیاپی 55، بهار و تابستان 1402)
- تاریخ انتشار: 1402/06/10
- تعداد عناوین: 12
-
-
صفحات 1-14
این پژوهش با هدف کاربرد نظریه رفتارهای برنامه ریزی شده برتمایل به کارآفرینی و تاثیر این تمایل بر توسعه فناوری اطلاعات درجوانان 18-30 ساله ایرانی در زمستان سال 1401 انجام شد. بخشی از افراد نمونه در این پژوهش براساس رده سنی درج شده در مشخصات اپراتورهای تلفن همراه(18-30 ساله) در استان تهران بودند که با استفاده از سیستم پیامک و ارسال آدرس پیوند در آن، به صورت تصادفی پرسشنامه را دریافت کردند (طبق روش های تصادفی موجود در این اپراتورها برای ارسال پیامک به مشترکین) و نیز بخش دیگر دانشجویان18- 30ساله دانشگاه آزاد اسلامی واحد تهران جنوب بودند، که پرسشنامه پژوهش به صورت تصادفی در اختیار آنها قرار گرفت. روایی پرسشنامه توسط صاحب نظران حوزه فناوری اطلاعات و ارتباطات تایید شد و پایایی آن براساس آزمون آلفای کرونباخ با ضریب آلفا حداقل 0/70 (مقدار ملاک) به دست آمد. نتایج پژوهش نشان داد که براساس نظریه رفتارهای برنامه ریزی شده، تمایل به کارآفرینی بر توسعه فناوری اطلاعات در جوانان 18-30 ساله ایرانی تاثیر دارد.
کلیدواژگان: کارآفرینی، نگرش و ادراک نسبت به رفتار، فناوری های نوین، معادلات ساختاری -
صفحات 15-25
بوت استرپ یک روش بازنمونه گیری بر پایه کامپیوتر و روش های استنباط آماری است که می تواند برآوردی برای خطای برآوردگرها فراهم کند. در این مقاله علاوه بر اینکه بازه اطمینان بوت استرپی برای چندک ها با روش های بوت استرپ صدکی، بوت استرپ اریب تصحیح شده شتابیده و t-بوت استرپ محاسبه می شود همچنین بازه اطمینان به روش بیشینه چگالی بوت استرپی برای توزیع های احتمال مورد استفاده در داده های آب و هواشناسی مطرح می شود و میانگین طول بازه اطمینان را به عنوان ملاکی برای ارزیابی روش ها به دست می آوریم. برای محاسبه میانگین طول بازه اطمینان ها با روش های متفاوت، ابتدا بهترین توزیع از بین توزیع های پرکاربرد به داده های اصلی برازش داده می شود و پارامترهای توزیع برازش داده شده را به روش ماکسیمم درستنمایی برآورد و از روی آن چندک ها را به دست می آوریم. سپس با تکرار نمونه های بوت استرپی شبیه سازی شده تا رسیدن احتمال پوشش چندک واقعی به سطح اطمینان اسمی 0.95 ادامه می دهیم. نتایج شبیه سازی انجام شده نشان می دهد که روش بیشینه چگالی بوت استرپی کمترین میانگین طول بازه اطمینان را در بین همه روش ها را دارد.
کلیدواژگان: روش بازنمونه گیری بوت استرپ، چندک، احتمال پوشش، مقادیر بیشینه -
صفحات 27-41
استفاده از منابع اداری در اجرای سرشماری ها، امکان کاهش هزینه ها، بهبود کیفیت داده ها و تولید اطلاعات با توالی زمانی کوتاه تر را فراهم می کند. موارد ذکرشده می تواند علاوه بر نظارت سالانه ی نماگرهای اهداف توسعه ی پایدار، در تامین نیازهای رو به گسترش نظام برنامه ریزی و پژوهشی کشور نیز نقش به سزائی داشته باشد، اما چالش های زیادی نیز در این رابطه وجود دارد که یکی از مهم ترین آن ها ارزیابی کیفیت ثبت های اداری است. ارزیابی کیفیت اصلی ترین جنبه ی به کارگیری داده های ثبتی و اداری در سرشماری و از ضروریات اجرای سرشماری ثبتی مبنا است که در آن نمی توان از معیارهای سنتی ارزیابی کیفیت استفاده کرد. به عبارت دیگر، علی رغم مزایای به کارگیری داده های ثبتی و اداری در سرشماری، بسیاری از مخاطره های کلیدی کیفیت وجود دارند که باید قبل از استفاده از آن ها در سرشماری بررسی و ارزیابی شوند. در این مقاله روش هایی که اداره های آمار ملی چگونه می توانند کیفیت داده های به دست آمده از ثبت ها را با هدف تولید برون داد های آماری باکیفیت ارزیابی کنند، مرور شده است. از این رو، ابزارها و نماگرهای کلیدی مورد استفاده برای تعیین کمیت ارزیابی کیفیت در هر یک از چهار مرحله ی ارزیابی کیفیت شامل منبع، داده های ورودی، فرایند و برون داد در فرایند سرشماری معرفی شده است.
کلیدواژگان: سرشماری سنتی، سرشماری ثبتی مبنا، ارزیابی کیفیت داده های اداری -
صفحات 43-54
امروزه تشخیص بیماری ها با استفاده از هوش مصنوعی و الگوریتم های یادگیری ماشین از اهمیت بسیار بالایی برخوردار است، چرا که با استفاده از داده های موجود در زمینه مطالعاتی بیماری مورد نظر می توان به اطلاعات و نتایج سودمندی دست یافت که از رخداد بسیاری از مرگ ومیر ها می کاهد. از جمله این بیماری ها می توان به تشخیص بیماری دیابت که امروزه با توجه به رشد زندگی شهرنشینی و کاهش فعالیت افراد گسترش یافته است، اشاره کرد. پس تشخیص این موضوع که فرد به بیماری دیابت مبتلا می گردد یا خیر از اهمیت بسیار بالایی برخوردار است. در این مقاله از مجموعه داده مربوط به اطلاعات افرادی که آزمایش تشخیص دیابت را انجام داده اند استفاده شده است. این اطلاعات مربوط به 520 نفر است، عمل رده بندی افراد به دو دسته که آیا نتیجه آزمایش دیابتشان مثبت است یا خیر صورت می گیرد و از روش های رده بند بیزی مانند ماشین بردار پشتیبان بیزی، بیز ساده، CN$ و روش رده بند ترکیبی کت بوست استفاده شده است تا بتوان نتیجه گرفت که کدام یک از این روش ها می توانند توانمندی بهتری برای تحلیل داده ها داشته باشند و همچنین برای مقایسه این روش ها از معیار های دقت، صحت، وضوح، حساسیت و نمودار راک استفاده شده است.
کلیدواژگان: رده بندی، رده بندی ترکیبی، رده بندی بیزی -
صفحات 55-62
این مقاله به بررسی برخی از ویژگی های اکستروپی طول عمر سیستم های منسجم می پردازد با این فرض که توزیع طول عمر مولفه های سیستم مستقل و به طور یکسان توزیع شده اند. نتایج ارائه شده با استفاده از مفهوم اثر مشخصه به دست آمده است. بدین منظور، ابتدا عبارتی برای اکستروپی طول عمر سیستم های منسجم بدست آورده شده است. سپس، مقایسه های تصادفی اکستروپی برای سیستم های منسجم به شرطی که هر دو سیستم دارای اثر مشخصه یکسان باشند، مورد بحث قرار می گیرد. در مواردی که تعداد مولفه های سیستم زیاد یا سیستم دارای ساختار پیچیده ای باشد، بدست آوردن مقدار دقیق اکستروپی طول عمر سیستم سخت یا وقت گیر می باشد. بنابراین، کران هایی نیز برای اکستروپی بدست آمده است. علاوه بر این، یک معیار جدید برای انتخاب یک سیستم ارجح بر اساس اکستروپی نسبی پیشنهاد شده است که نزدیکترین طول عمر سیستم دلخواه به سیستم موازی را در نظر می گیرد.
کلیدواژگان: اکستروپی، اکستروپی نسبی، اثرمشخصه، ترتیب های تصادفی، سیستم منسجم -
صفحات 63-73
واریانس و آنتروپی معیارهایی متمایز هستند که معمولا برای اندازه گیری عدم قطعیت متغیرهای تصادفی استفاده می شوند. در حالی که واریانس نشان می دهد که چگونه یک متغیر تصادفی بیشتراز حد انتظارش گسترش می یابد، معیارآنتروپی عدم قطعیت یک رویکرد اطلاعاتی را اندازه گیری می کند به عبارت دیگر میانگین مقدار اطلاع یک متغیر تصادفی را اندازه گیری می کند.برای دو توزیع یکنواخت و نرمال واریانس نسبتی از آنتروپی توانی است. یافتن یک چنین رابطه یکنوا بین واریانس و انتروپی برای یک کلاس بزرگتر از این دو توزیع اهمیت و کاربرد زیادی در پردازش سیگنال، یادگیری ماشین، تئوری اطلاعات و احتمال و آمار دارد.برای کم کردن خطاهای برآوردگرها مورد استفاده قرار می گیرد و یک راهبردی را انتخاب می کند که به طور متوسط بیشترین یا تقریبا بزرگ ترین کاهش در آنتروپی توزیع مکان هدف داشته باشد و اثربخشی این روش با استفاده از شبیه سازی ها با مدل های سنجش کاوی امتحان می شوند. در این مقاله کران بالای واریانس برای توزیع های تک مدی که دم آنها سنگین تر از دم توزیع نمایی است به کمک آنتروپی توانی ایجاد می گردد
کلیدواژگان: آنتروپی توانی، کران های واریانس، توزیع های تک مدی، پیوستگی لیپ شیتز -
صفحات 75-83
در این مقاله مدل صف بندی $M/M/1$ که در آن زمان های بین دو ورود متوالی مشتری ها دارای توزیع نمایی با پارامتر $lambda$ و زمان های سرویس دارای توزیع نمایی با پارامتر $mu$ و مستقل از زمان های بین ورودهای متوالی هستند، در نظر گرفته می شود. همچنین فرض می شود که سیستم تا زمان $T$ فعال است. سپس تحت این زمان توقف $(T)$، برآوردهای بیز، $E$-بیز و بیز سلسله مراتبی پارامتر شدت ترافیک این مدل صف بندی، تحت تابع زیان آنتروپی عمومی و با در نظر گرفتن توزیع های پیشین گاما و ارلانگ به ترتیب برای پارامترهای $lambda$ و $mu$ به دست آورده می شود. سپس به کمک تحلیل عددی و بر اساس شاخصی جدید بر حسب احتمال پایایی و تابع هزینه، روش های برآورد بیز، $E$-بیز و بیز سلسله مراتبی با هم مقایسه می شوند.
کلیدواژگان: احتمال پایایی، تابع هزینه، برآورد $E$ -بیز، برآورد بیز سلسله مراتبی، مدل صف بندی $M، M، 1$ -
صفحات 85-100
اهمیت آمار و آموزش آن در دنیای کنونی که سرشار از اطلاعات و داده است، برکسی پوشیده نیست. تفکر آماری هسته اصلی درک صحیح مفاهیم آماری، تجزیه و تحلیل داده ها و تفسیر پدیده هاست. پژوهش حاضر با هدف دستیابی به تعریفی جامع از تفکر آماری و تعیین عناصر آن، پژوهش های سی و سه سال اخیر را مورد مطالعه قرار داده است. این پژوهش توصیفی، به روش فراترکیب کیفی به انجام رسیده است تا بینشی عمیق و تفسیری جامع از کلیت پژوهش های موجود ارائه کند. بر اساس معیارهای ورود تعداد 123 پژوهش در بازه سالهای 1990 تا 2022، شناسائی شد و در نهایت پس از غربالگری، تعداد 22 تحقیق برای بررسی و تحلیل دقیق انتخاب شد. با توجه به یافته های فراترکیب حاضر، عناصر تفکر آماری عبارتند از: 1- داده محور بودن: توجه به داده ها، تشخیص نیاز به داده ها، جمع آوری و در نظر گرفتن داده ها، بازنمایی های مختلف داده ها و نیز روش های تبدیل آنها به یکدیگر. 2- تغییر پذیری: در نظرداشتن تغییرات دائمی در همه پدیده ها. 3- استنباط آماری: توجه به انواع نمونه گیری، استدلال و استنباط با استفاده از مدل های آماری شامل استفاده از نمودارهای آماری و تعمیم نتایج از نمونه به جامعه. 4- تحلیل زمینه آماری: تلفیق مسئله آماری با زمینه.
کلیدواژگان: تفکر آماری، سواد آماری، استدلال آماری، آموزش آمار و فراترکیب. -
صفحات 101-112
باتوجه به محدود بودن منابع انرژی درجهان، بهینه سازی انرژی امری حیاتی است. بخش زیادی از این انرژی توسط ساختمان ها مصرف می شود. بنابراین هدف از این پژوهش کشف عوامل موثر به طورهمزمان بر بارگرمایشی و سرمایشی ساختمان ها است. در پژوهش حاضر بر روی 768 ساختمان مسکونی متنوع شبیه سازی شده با نرم افزار Ecotect، بررسی و تحقیق انجام شده است. از مدل رگرسیون همزمان و روش های تحلیل اکتشافی داده ها برای شناسایی عوامل موثر به طور همزمان بر بارگرمایشی و سرمایشی ساختمان ها استفاده شده و براساس متغیرهای فشردگی نسبی، ارتفاع، مساحت سطح و سقف ساختمان ها متغیر جدیدی تحت عنوان type (مدل ساختمان) معرفی و نشان داده شد که یکی از قوی ترین عوامل موثر بر بارگرمایشی و سرمایشی ساختمان ها متغیر type (مدل ساختمان) است. این متغیر مرتبط با شکل ساختمان است. در مدل رگرسیون همزمان فرض می شود که پاسخ ها از توزیع نرمال چندمتغیره پیروی می کنند. سپس این مدل را با مدل های رگرسیون جدا از هم (بدون فرض همبستگی پاسخ ها) مقایسه کرده و طبق معیارهای اطلاع آکائیکه[1] و معیار اطلاع انحراف[2] به برتری مدل رگرسیون همزمان اشاره شده است. پارامترهای دو مدل توسط روش ماکسیمم درستنمایی برآورد شده است و مقدار اطلاع آکائیکه مدل همزمان نسبت به مدل جدا از هم، کاهش 0072/0% داشته است که برتری مدل همزمان را نشان داده است. همچنین میزان اطلاع انحراف برابر با 001736/0% شده است و در مقایسه با توزیع کای منجر به رد فرض صفر آزمون برتری مدل ها شده است که منجر به برتری مدل رگرسیون همزمان می شود.
کلیدواژگان: مدل رگرسیون همزمان، تحلیل اکتشافی داده ها، عملکرد انرژی ساختمان، شکل ساختمان -
صفحات 113-124
استنباط آماری پارامتر تنش-مقاومت چند مولفه ای، ، در یک توزیع وایبول سه پارامتری بررسی می شود. مسئله در دو حالت مختلف مورد مطالعه قرار می گیرد. در حالت اول، با فرض اینکه متغیرهای تنش و مقاومت هر دو دارای پارامتر شکل و مکان مشترک و پارامترهای مقیاس غیرمشترک هستند و تمام این پارامترها نامعلومند، برآورد درستنمائی ماکسیمم و برآورد بیزی پارامتر بررسی می شود. در این حالت، از آنجائیکه برآورد بیزی دارای فرم بسته نمی باشد، با دو روش لیندلی و تقریب زده می شود. همچنین فواصل اطمینان مجانبی به دست آمده است. در حالت دوم، با فرض اینکه متغیرهای تنش و مقاومت دارای پارامتر شکل و مکان مشترک معلوم و پارامترهای مقیاس غیرمشترک و نامعلوم هستند، برآورد درستنمائی ماکسیمم، برآورد نااریب با واریانس به طور یکنواخت مینیمم، برآورد دقیق بیزی پارامتر و نیز فاصله اطمینان مجانبی محاسبه می شود. در نهایت، با استفاده از شبیه سازی مونت کارلو، عملکرد برآوردگرهای مختلف با هم مقایسه شده اند.
کلیدواژگان: پارامتر تنش-مقاومت چند مولفه ای، برآورد بیز، تقریب لیندلی، توزیع وایبول سه پارامتری -
صفحات 125-132
در پژوهش های بیم سنجی، خسارت های بیمه ای را با توزیع های احتمالی مناسب مدل بندی می کنند. از آنجا که خسارت ها، پس از ارزیابی، با واحد های پولی معین می شوند از توزیع هایی که مقادیر مثبت را اختیار می کنند برای مدل بندی آن ها استفاده می شود. علاوه بر این، با توجه به قرارداد های بیمه ای، خسارت ها در یک محدوده کراندار قرار می گیرند که بایستی در مدل بندی لحاظ شوند. این ویژگی ها در حالت یک متغیره دشواری و محدودیت چندانی ایجاد نمی کند. اما در حالت چند متغیره مساله قدری پیچیده تر می شود. در چنین شرایطی مفصل ها می توانند مفید واقع شوند. با این وجود بررسی همبستگی بین متغیر ها، به عنوان نخستین گام در تحلیل چندمتغیره، نقش مهمی ایفا می کند. بر این اساس بررسی تاثیر کراندار بودن خسارت ها بر همبستگی بین آن ها مساله ای است که در این مقاله مورد توجه قرار گرفته است. در این راستا ضریب همبستگی پیرسون، به عنوان متداول ترین شاخص برای بررسی رابطه بین متغیر ها، مورد استفاده قرار گرفته است. ابتدا مساله بر پایه ضریب همبستگی بین دو متغیر تصادفی بررسی شده و در ادامه بررسی ها بر روی برآورد گشتاوری ضریب همبستگی پیرسون انجام شده است. داده های مربوط به خسارت های مالی و جانی بیمه نامه های شخص ثالث در یکی از شرکت های بیمه ایرانی به عنوان یک مطالعه موردی بررسی شده است. کران های پائینی و بالایی برای پارامتر ضریب همبستگی پیرسون و برآورد گشتاوری آن به دست آمده است. کران های مربوط به پارامتر ضریب همبستگی با توجه به تابع مفصل به دست آمده است در حالی که برای برآورد ضریب همبستگی از آماره های ترتیبی استفاده شده است. علاوه بر این با توجه به ماهیت داده ها، ضریب همبستگی بین خسارت های مالی و جانی به دو صورت محاسبه و با یکدیگر مقایسه شدند. مقایسه کران های به دست آمده نشان می دهد که کران های $+1$ و $-1$ برای ضریب همبستگی پیرسون در خسارت های بیمه ای در دسترس نیست و کران های باریک تری برای این ضریب قابل ترسیم است.
کلیدواژگان: آماره های مرتب، گشتاور، تحدید -
صفحات 133-148
ریسک به معنی شرایطی است که در آن امکان انحراف از یک نتیجه پیش بینی شده وجود دارد. بیمه یکی از روش های مواجهه با ریسک است که منجر به انتقال تمام یا بخشی از ریسک از بیمه گذار به بیمه گر می شود. بیمه نامه ها معمولا به دو صورت بیمه زندگی و غیرزندگی دسته بندی می شوند. براساس این دسته بندی هر بیمه نامه ای که موضوع آن سلامت فرد یا افراد بیمه شده باشد، بیمه نامه اشخاص درغیر اینصورت بیمه نامه غیرزندگی خواهد بود. بسیاری از بیمه های موجود در صنعت بیمه، جزء بیمه های غیرزندگی طبقه بندی می شوند. بیمه های آتش سوزی، اتومبیل، مهندسی، باربری، نفت و انرژی از مصداقهای این بیمه هستند. تبیین و محاسبه سه موضوع در مدل های ریسک اهمیت زیادی دارد: احتمال ورشکستگی، زمان ورشکستگی و مقدار ورشکستگی.در این مقاله نتایج اصلی و شناخته شده ای که تاکنون در زمینه بیمه های غیرزندگی به دست آمده است؛ با تاکید بر احتمال ورشکستگی ، همراه با مثالهای مختلف آورده می شود.
کلیدواژگان: مدل ریسک کرامر-لاندبرگ، مدل ریسک اسپاراندرسون، حق بیمه تصادفی، توزیع آمیخته نمایی، فرایند پواسون مرکب، احتمال ورشکستگی
-
Pages 1-14
This study aimed to apply the theory of planned behaviors on entrepreneurial tendencies and the effect of this tendency on the development of information technology among 18-30 years old Iranian youth in the winter of 1401. A part of the sample was based on the age group listed in the characteristics of mobile operators (18-30 years old) in Tehran province who received the questionnaire completely randomly using SMS system and sending the link address, and also another section was a of students aged 18-30 years old of The Islamic Azad University of South Tehran Branch, and the research questionnaire was provided to them. The validity of the questionnaire was confirmed by experts in ICT and its reliability was obtained based on Cronbach's alpha test with an alpha coefficient of at least 0.70 (criterion). The results showed that according to the theory of planned behaviors, entrepreneurial tendency has an effect on information technology development in Iranian youth aged 18-30 years.
Keywords: Entrepreneurship, Attitude, Perception Towards Behavior, New Technologies, SEM -
Pages 15-25
Bootstrap is a computer-based resampling and statistical inference method that can provide an estimate for the uncertainty of distribution parameters and quantiles in a frequency analysis. In this article, in addition to calculating the bootstrap confidence interval for the quantiles with percentile bootstrap(BP), accelerated bias-corrected bootstrap(BCA) and t-bootstrap methods, calculating of the confidence interval is proposed using the bootstrap highest density method(HDI) for the probability distributions used in the hydrology data and we obtain the average length of the confidence interval as a criterion for evaluating the methods. To calculate the average length of the confidence interval with different methods, first, the best distribution among the widely used distributions is fitted to the original data, and the parameters of the fitted distribution are estimated by the maximum likelihood method, and from that we obtain the quantiles. Then we continue by repeating the simulated bootstrap samples until the probability of covering the real quantile reaches the nominal confidence level of 0.95. The simulation results show that the bootstrap highest density method gives the lowest average confidence interval length among all methods.In previous studies, the probability of coverage with the same number of samples as the original sample and the number of bootstrap repetitions (for example, 1000) have been obtained, and finally the coverage probability closest to the nominal value of 0.95 was chosen as the optimal state, while in this article, for Avoiding a large number of bootstrap iterations, considering the number of different samples n = 20, 40, 60, ..., 160 that are simulated from the mother distribution, we continue the number of iterations of the bootstrap samples only until reaching the coverage probability of 0.95. Usually, two-parameter distributions require fewer samples than three-parameter distributions. In terms of the number of necessary repetitions (B) to reach the 95% confidence level, the t-bootstrap method usually required fewer repetitions, although the implement time of this method was longer in R software. The best distribution for the data used in this research is the two-parameter distribution of Frechet, which was selected as the best distribution in 80% of the stations, which can be used for similar studies that deal with the maximum annual precipitation values. According to the fitted distributions for the data of different stations, the two-parameter distributions always fit the data better than the three-parameter distributions. In general, the widest confidence intervals were obtained with BCA and tbootstrap methods, and the shortest confidence intervals were obtained with HDI and BP methods. Also, in terms of the distribution used and the length of the confidence interval, the two-parameter Gamma distribution has provided shorter confidence intervals and the three-parameter GEV and LP3 distributions have provided wider confidence intervals.
Keywords: Resampling Bootstrap Method, Quantile, Cover Coverage, Extreme-Values -
Pages 27-41
The use of administrative resources in censuses provides the possibility of reducing costs, improving data quality and producing information with a shorter time sequence. The mentioned cases, in addition to the annual monitoring of indicators of sustainable development goals, can also play a significant role in meeting the growing needs of the country's planning and research system, but there are many challenges in this regard, one of the most important of which is the assessment of the quality of administrative data. Quality assessment is the most important aspect of using registration and administrative data in the census, and it is one of the necessities of the registers-based population and housing censuses, where traditional quality assessment criteria cannot be used. In other words, despite the advantages of using register and administrative data in the census, there are many key quality risks that need to be addressed and assessed before using them in the census. In this paper, the methods by which the national statistics offices can evaluate the quality of the data obtained from the registers with the aim of producing high-quality statistical outputs have been reviewed. Therefore, the tools and key indicators used to quantify the quality assessment in each of the four stages of quality assessment including source, input data, process and output in the census process are introduced.
Keywords: Traditional Census, Registers-Based Census, Assessing The Quality Of Administrative Data -
Pages 43-54
Today, the diagnosis of diseases using artificial intelligence and machine learning algorithms are of great importance, because by using the data available in the study field of the desired disease, useful information and results can be obtained that reduce the occurrence of many deaths. Among these diseases, we can mention the diagnosis of diabetes, which has spread today due to the growth of urban life and the decrease in people's activity. So, it is very important to know whether a person is suffering from diabetes or not. In this article, the data set related to the information of people who have done the diabetes diagnosis test is used, this information is related to 520 people. People are classified into two groups based on whether their diabetes test result is positive or not, and Bayesian classification methods such as Bayesian Support Vector Machine, Naive Bayes, CNK and CatBoost ensemble classification method have been used to conclude which of these The methods can have a better ability to analyze the data and also to compare these methods use accuracy, precision, F1-score, recall, ROC diagram.
Keywords: Classification, Bayesian Classification, Ensemble Classification -
Pages 55-62
This paper explore some extropy properties of the lifetime of coherent systems with the assumption that the lifetime distribution of system components are independent and identically distributed. The presented results are obtained using the concept of system signature. To this aim, we first provide an expression for extropy of the lifetime of coherent systems. Then, stochastic extropy comparisons are discussed for coherent systems under the condition that both systems have the same characteristic structure. In cases where the number of system components is large or the system has a complex structure, it is difficult or time-consuming to obtain the exact extropy value of the system lifetime. Therefore, bounds are also obtained for extropy. In addition, a new criterion for selecting a preferred system based on relative extropy is proposed, which considers the lifetime of the desired system closest to the parallel system.
Keywords: Extropy, Relative Extropy, System Signature, Stochastic Orders, Coherent System -
Pages 63-73
Variance and entropy are distinct metrics that are commonly used to measure the uncertainty of random variables. While the variance shows how a random variable spreads more than expected, the entropy measure measures the uncertainty of an information approach, in other words, it measures the average amount of information of a random variable.For both uniform and normal distributions, variance is a ratio of power entropy. Finding such a monotonic relationship between variance and entropy for a larger class of these two distributions is very important and useful in signal processing, machine learning, information theory, probability and statistics, for example, it is used to reduce the errors of estimators and choose a strategy. gives, on average, the greatest or nearly greatest reduction in the entropy of the distribution of the target location, and the effectiveness of this method is tested using simulations with mining assay models. In this article, the upper bound of the variance for single-mode distributions whose tails are heavier than the tails of exponential distributions is created with the help of power entropy
Keywords: Power Entropy, Vriance Bounds, Unimodal Distributions, Lipshitz Continuity -
Pages 75-83
In this article, queunig model $M/M/1$ is Considered, in which the innterarrival of customers have an exponenial disributon with the parameter $lambda$ and the service times have an exponenial disributon with the parameter $mu$ and are independent of the interarrival times. it is also assumed that the system is active until $T$. Then, under this stopping time Bayesian, $E$-Bayesian and hierarchical Bayesian estimations of the traffic intensity parameter of this queuing model are obtained under the general entropy loss function and considering the gamma and erlang prior distributions for parameters $lambda$ and $mu$, respicctively. Then, using numerical analysis and based on a new index, Bayesian, $E$-Bayesian and hierarchical Bayesian estimations are compared.
Keywords: Stationary Probability, Cost Function, $E$-Bayesian Estimation, Hierarchical Bayesian Estimation, The $M, 1, 1$ Queuing System -
Pages 85-100
The importance of statistics and its education in today’s world, which is full of information and data, is not hidden from anyone. Statistical thinking is the main core of correct understanding of statistical concepts, data analysis and interpretation of phenomena. With the aim of achieving a comprehensive definition of statistical thinking and determining its elements, the present research has studied the researches of the last thirty years. This descriptive research has been carried out in a qualitative metacomposite method to provide an insight into the totality of existing studies. Based on the entry criteria, 123 researches were identified between 1990 and 2022, and finally, after screening, 22 researches were selected for detailed review and analysis. According to the present metacomposite findings, the elements of statistical thinking are: 1) Being dataoriented:paying attention to data, identifying the need for data, collecting and considering data, different representations of data, and methods of converting them to each other. 2) Variability: Considering permanent changes in all phenomena. 3) Statistical inference: paying attention to the types of sampling, reasoning and inference using statistical models, including the use of statistical charts and generalizing the results from the sample to the population. [4) Analysis of the statistical context:combining the statistical problem with the context.
Keywords: Statistical Thinking, Statistical Literacy, Statistical Reasoning, Statistics Education, Metasynthesis -
Pages 101-112
Given the limited energy resources globally, energy optimization is crucial. A significant portion of this energy is consumed by buildings. Therefore, the aim of this research is to explore the simultaneous factors affecting the heating and cooling of buildings. In the current research, 768 different residential buildings simulated with Ecotect software have been investigated. Joint regression model and exploratory data analysis methods were used to identify the influencing factors of the heating and cooling of buildings. Based on variables such as relative compactness, overall height, surface area, and roof of the buildings, a new variable called ”type” (building model) was introduced and shown to be one of the strongest factors affecting the heating and cooling of buildings. This variable is related to the shape of the building. In the joint regression model, it is assumed that the responses follow a multivariate normal distribution. Then this model is compared with separate regression models (without assuming responses correlation) and using Akaike’s information criterion and deviance information criterion, pointing to the superiority of the joint regression model. Additionally, the model parameters are estimated using the maximum likelihood estimation method and the amount of Akaike model compared to the separate model is a decrease of 0.0072%, which shows the superiority of the joint regression model. The deviance information criterion is equal to 0.001736%, and in comparison with the chi distribution, the null hypothesis is rejected to test the superiority of the models, which is regressed to the superiority of the joint model.
Keywords: Joint Regression Model, Exploratory Data Analysis, Building Energy Performance, Building Shape -
Pages 113-124
The statistical inference of the multi-component stress-strength parameter, $R_{s,k}$, is considered in the three-parameter Weibull distribution. The problem is studied in two cases. In the first case, assuming that the stress and strength variables have common shape and location parameters and non-common scale parameters and all these parameters are unknown, the maximum likelihood estimation and the Bayesian estimation of the parameter $R_{s,k}$ are investigated. In this case, as the Bayesian estimation does not have a closed form, it is approximated by two methods, Lindley and $mbox{MCMC}$. Also, asymptotic confidence intervals have been obtained. In the second case, assuming that the stress and strength variables have known common shape and location parameters and non-common and unknown scale parameters, the maximum likelihood estimation, the uniformly minimum variance unbiased estimators, the exact Bayesian estimation of the parameter $R_{s,k}$ and the asymptotic confidence interval is calculated. Finally, using Monte Carlo simulation, the performance of different estimators has been compared.
Keywords: Multi-Component Stress-Strength Parameter, Bayesian Estimate, Lindley's Approximation, Three-Parameter Weibull Distribtuion -
Pages 125-132
Actuarial studies treat insurance losses as random variables, and appropriate probabilistic models are sought to model them. Since losses are evaluated in terms of a unitary amount, distributions with positive support are typically used to model them. However, in practice, losses are often bounded due to policyholder conditions, which must be considered when modeling. While this is not a problem for univariate cases, it becomes complicated for multivariate cases. Copulas can be helpful in such situations, but studying the correlation is crucial in the first step. Therefore, this paper addresses the problem of investigating the effect of restricted losses on correlation in multivariate cases. The Pearson correlation coefficient is a widely used measure of linear correlation between variables. In this study, we examine the correlation between two random variables and investigate the estimator of the correlation coefficient. Furthermore, we analyze a real-world dataset from an Iranian insurance company, including losses due to physical damage and bodily injury as covered by third-party liability insurance. Upper and lower limits for both the Pearson correlation coefficient and its estimator were derived. The Copula method was employed to obtain the bounds for the correlation parameters, while order statistics were used to obtain the bounds for the sample correlation coefficient. Furthermore, two methods were used to determine the correlation between physical damage and bodily injury, and the results were compared. Our findings suggest that the commonly used upper and lower bounds of -1 and +1 for the Pearson correlation coefficient may not always apply to insurance losses. Instead, our analysis reveals that narrower bounds can be established for this measure in such cases. The results of this study provide important insights into modeling insurance losses in multivariate cases and have practical implications for risk management and pricing decisions in the insurance industry.
Keywords: Order Statistics, Moment, Confinement -
Pages 133-148
Risk means a situation in which there is a possibility of deviation from a predicted result. Insurance is one of the methods of risk exposure that leads to the transfer of all or part of the risk from the insured to the insurer. Insurance policies are usually classified into two types: personal and non-life (non-life) insurance. According to this classification, any insurance policy that deals with the health of the insured person or persons is a personal insurance policy, otherwise it will be a nonlife insurance policy. Many insurances in the insurance industry are classified as non-life insurances. Fire, automobile, engineering, shipping, oil and energy insurances are examples of these insurances. Explanation and calculation of three issues in risk models are very important: the ruin probability, the time of ruin and the amount of ruin. In this article, the main and well-known results that have been obtained so far in the field of non-life insurance; Emphasizing the possibility of ruin, it is given along with various examples.
Keywords: Kramer-Landberg Risk Model, Sparanderson Risk Model, Stochastic Premium, Mixed-Exponential Distribution, Compound Poisson Process, Ruin Probability