فهرست مطالب

اندیشه آماری - سال بیست و هفتم شماره 2 (پیاپی 54، پاییز و زمستان 1401)

نشریه اندیشه آماری
سال بیست و هفتم شماره 2 (پیاپی 54، پاییز و زمستان 1401)

  • تاریخ انتشار: 1402/02/16
  • تعداد عناوین: 12
|
  • نفیسه آزادی، ابراهیم ریحانی*، آناهیتا کمیجانی، احسان بهرامی سامانی صفحات 1-13

    هدف این پژوهش بررسی تفکر آماری دانشجومعلمان کارشناسی رشته آموزش ریاضی در مبحث سواد نموداری بر اساس چارچوب وایلد و فنکوچ است. بدین منظور پرسشنامه ای شامل 9 سوال سواد نموداری (نمودار جعبه ای) طراحی گردید. سوالات براساس مولفه های چارچوب وایلد و فنکوچ، طبقه بندی شدند. پرسشنامه توسط 50 دانشجومعلم رشته آموزش ریاضی دانشگاه های فرهنگیان و تربیت دبیرشهیدرجایی (دختر و پسر) تکمیل گردید. پاسخ ها براساس چارچوب واتسون که جرح و تعدیل یافته ای از مدل سولو است، سطح بندی شدند. معناداری تفاوت‏های جنسیتی دانشجومعلمان از نظر آماری تایید نشد. یافته ها نشان داد که بیشتر پاسخ های دانشجومعلمان در تمامی مولفه های آماری در سطح رابطه ای قرار دارد اما نتایج عملکرد متوسط دانشجومعلمان در مولفه های تفکر آماری را در مبحث سواد نموداری نشان داد.

    کلیدواژگان: دانشجومعلمان، معلمان، تفکر آماری، سواد نموداری، چارچوب واتسون
  • علی صفدری وایقانی* صفحات 15-22

    در این نوشتار نگاهی به دیدگاه آنری پوانکاره درباره روش شناسی علم ریاضی برگرفته از کتاب علم و روش پرداخته و به نقش انتخاب حقایق در اکتشاف علم ریاضی می نگریم. نویسنده به بنیان های روش شناسی علم می پردازد و آینده ریاضیات و راستای گسترش علم ریاضی که از گذشته شروع و در حال ادامه است را به زیبایی تبیین کرده و خواننده را تحت تاثیر این تفکر عمیق قرار می دهد. باور نویسنده به چهارچوب اکتشاف قوانین ریاضی مبتنی بر حقایق به خوبی در این کتاب مشهود است. تفکر ژرف پوانکاره در مطالعه قوانین شانس و واقعیت های پنهان آن در ارتباط با حقایق هستی انکار ناپذیر است. این نوشته کوتاه گزیده ای از محتوی بخش اول کتاب جهت آشنایی با آن را ارایه می نماید.

    کلیدواژگان: انتخاب حقیقت، آینده ریاضیات، علم ریاضی، شا‎ ‎نس. ‎
  • صدیقه زمانی مهریان* صفحات 23-32

    روش یادگیری آمیخته تقویت شده ‎(BML)، روشی فزاینده برای یادگیری مدل های آمیخته در مسیله طبقه بندی است. در هر مرحله از روش یادگیری آمیخته تقویت شده، مولفه جدیدی با توجه به یک تابع هدف در جهت به حداکثر رساندن تابع هدف به مدل آمیخته اضافه می شود. از جمله توابع هدف مورد استفاده در این روش، تابع درستنمایی و به طور معادل معیارهای اطلاع هستند. در این روش مولفه جدیدی به مدل آمیخته اضافه می شود که باعث بیشترین افزایش تابع درستنمایی شود.

    چون تابع درستنمایی و معیارهای اطلاع توانایی تشخیص مدل های معادل را ندارد، بنابراین ممکن است مدل آمیخته جدید و مدل آمیخته فعلی معادل باشند و اضافه کردن مولفه جدید به مدل آمیخته فعلی باعث بهبود مدل نشود. در این مقاله روش یادگیری آمیخته تقویت شده با استفاده از آزمون انتخاب مدل وونگ که توانایی تشخیص مدل های معادل را دارد، تصحیح شده است. همچنین عملکرد دو روش یادگیری با استفاده از داده های شبیه سازی و مجموعه داده های واردات کالای ایالات متحده توسط گمرک ارزیابی شده است.

    کلیدواژگان: الگوریتم تقویت کننده، انتخاب مدل، برآوردگر ‎‎ درستنمایی ماکسیمم، مدل آمیخته، یادگیری ماشین
  • شهرام یعقوب زاده* صفحات 33-39

    در این مقاله برای خانواده مدل های ‎‎$‎‎‎{E_r/M/2, r=1,2,cdots}‎$‎‏ با زمان های بین ورودهای دارای توزیع ارلانگ و زمان های سرویس با توزیع نمایی‏، مدل بهینه تعیین می شود. ‎‏روش انتخاب مدل بهینه به این صورت است که ابتدا تابع هزینه معرفی و سپس شاخصی جدید بر حسب تابع هزینه و احتمال پایایی سیستم به نام ‎$SER‎$‎ معرفی می شود. مدلی بهینه است که ‏ دارای شاخص ‎$‎SER‎‎$‎‎‏ بزرگ تری باشد. همچنین برای تشریح روش تعیین مدل بهینه از تحلیل عددی استفاده می شود.

    کلیدواژگان: تابع هزینه، احتمال پایایی سیستم، توزیع ارلانگ
  • مهدی روزبه*، آرتا روحی، فاطمه جهادی صفحات 41-52

    تحلیل داده های تابعی برای توسعه رویکردهای آماری در داده هایی مورد استفاده قرار می گیرد که دارای ماهیت تابعی و پیوسته هستند و چون این توابع به فضاهای با بعد بی نهایت تعلق دارند، استفاده از روش های متداول در آمار کلاسیک برای تحلیل آن ها، با چالش روبرو است. مشهورترین تکنیک تحلیل داده های آماری، رویکرد مولفه های اصلی تابعی می باشد که ابزاری مهم برای کاهش بعد است، در این مقاله با استفاده از روش رگرسیون مولفه اصلی تابعی براساس جریمه مشتق دوم، ریج و لاسو به تحلیل داده های تابعی آب و هوای کانادا و داده های تابعی طیف سنج پرداخته خواهد شد. بدین منظور برای تعیین مقدار بهینه پارامتر جریمه در روش های مورد استفاده از اعتبار سنجی متقابل تعمیم یافته‏‏، که معیاری معتبر و کارآمد است‏، استفاده می گردد.

    کلیدواژگان: اعتبار سنجی متقابل تعمیم یافته‎، رگرسیون تابعی، رگرسیون مولفه اصلی، تحلیل داده های تابعی
  • منیژه صانعی طبس* صفحات 53-59

    تحلیل رگرسیون به روش کمترین توان های دوم مستلزم برقراری فرضیات زیربنایی است. یکی از مسایلی که تحلیل رگرسیون به این روش را با مشکلات عمده مواجه می سازد وجود هم خطی در بین متغیرهای رگرسیونی است. روش های زیادی برای حل مشکلات ناشی از وجود هم خطی معرفی شده اند. یکی از این روش ها رگرسیون ستیغی است. در این مقاله یک برآورد جدید برای پارامتر ستیغی به کمک ماکسیمم آنتروپی تی سالیس تعمیم یافته ارایه داده وآن را برآوردگر ریج ماکسیمم آنتروپی تی سالیس مرتبه دو تعمیم یافته می نامیم. برای مجموعه داده های سیمان پرتلند که از هم خطی قوی برخوردار هستند و از سال 1332 ، برآوردگرهای مختلفی برای این داده ها ارایه شده است این برآورد گر را محاسبه و با برآوردگر ستیغی ماکسیمم آنتروپی تعمیم یافته و برآوردگر کمترین توان های دوم مقایسه می کنیم.

    کلیدواژگان: رگرسیون ریج، ماکسیمم آنتروپی تعمیم یافته، آنتروپی تی سالیس، ماکسیمم آنتروپی تی سالیس تعمیم یافته
  • محمد جریره* صفحات 61-69

    در این

    در این مقاله‎‏‏، تعداد خرابی یک سیستم منسجم‎ ‏تحت فرض این که طول عمر مولفه های سیستم‏، متغیرهای تصادفی گسسته و وابسته ی غیرهم توزیع می باشند‏، مورد مطالعه قرار گرفته است. ابتدا، احتمال این که دقیقا  ‎‎‎‎i‎‎‎‏‎  خرابی‏،‎  ‎‎i=0,..., n-k‎‎‏‏،  در یک سیستم  ‎‎k  از  ‎n‎  تحت شرطی که سیستم در زمان نظارت  ‎t  کار می کند‏،  محاسبه می شود. در ادامه، این نتیجه را به سایر سیستم های منسجم تعمیم داده شده است. علاوه بر این، نشان داده شده است که در حالت استقلال و هم توزیعی طول های عمر مولفه ها‏، احتمال به دست آمده با احتمال متناظر در حالت پیوسته به دست آمده ی در ادبیات موجود‏، مطابقت دارد. در نهایت با ارایه ی مثال های کاربردی‏، رفتار این احتمال در حالتی که مولفه ها‏ی سیستم دارای طول های عمر تبادل پذیر و لزوما غیرهم توزیع می باشند‏، بررسی شده است

    کلیدواژگان: قابلیت اعتماد، سیستم منسجم، بردار علامت، ‎‎ ‎‎ سیستم های ‎‎‎‎k‎‎‎ ‎ از ‎‎‎‎n‎‎‎، توزیع طول عمر گسسته، آماره های ترتیبی، تبادل پذیر
  • کامران میرزایی، مریم پارساییان* صفحات 71-79

    در مقاله حاضر سعی شده است راهنمایی کاملا عملیاتی و مفیدی در خصوص اجرای طرح نمونه گیری خوشه ای دومرحله ای در پژوهش های میدانی ارایه شود که با توجه به شرایط و امکانات فعلی موجود در کشور، از پرکاربردترین طرح های نمونه گیری است. به علاوه برای استفاده بیشتر محققان در این حوزه، در این مقاله کدهایی برای اجرای نمونه گیری خوشه ای دومرحله ای با حجم غیریکسان بر اساس احتمال متناسب با اندازه به همراه مثالی در مورد نمونه گیری خوشه ای دومرحله ای با احتمال متناسب با اندازه (PPS) با داده های فرضی  با استفاده از نرم افزار R آورده شده است.

    کلیدواژگان: چارچوب نمونه گیری، احتمال متناسب با حجم نمونه، نمونه گیری تصادفی، نمونه گیری خوشه ای دومرحله ای، پژوهش میدانی
  • لیلا رجبی*، بهزاد منصوری صفحات 81-94

    برآورد چگالی به روش هسته یک روش استاندارد برای برآورد تابع چگالی احتمال است که در بسیاری موارد عملکرد مناسبی دارد. با این حال، مشخص شده است که برای توزیع های نامنفی، چوله و دم پهن که از ویژگی های معمول توزیع طول عمر است، عملکرد خوبی ندارد. هدف این مقاله بررسی عملکرد روش های اصلاح اریبی ضربی (MBC) با استفاده از برآوردگرهای هسته نامتقارن و مقایسه این برآوردگر با دیگر روش های رفع مسیله مرزی است. در این مقاله، علاوه بر معرفی روش های MBC در ترکیب با برآوردگرهای هسته نامتقارن، در یک مطالعه شبیه سازی به مقایسه این روش با دیگر روش های اصلاح اریبی پرداخته شده و نشان داده شده است که این برآوردگر می تواند نسبت به برآوردگر هسته استاندارد، در برخی موارد برازش بسیار بهتری برای برآورد چگالی فراهم کند. هم چنین از روش های MBC با استفاده از برآوردگرهای هسته نامتقارن برای برآورد چگالی طول عمر قرنیه های پیوند داده شده به 119 بیمار استفاده شده است.

    کلیدواژگان: مسئله مرزی، هسته نامتقارن، اصلاح اریبی ضربی، چگالی طول عمر
  • فاطمه حسن تبار، فیروزه حقیقی*، سمانه افتخاری مهابادی صفحات 95-103

    از میان بردار خروج های مختلف در سانسور فزاینده نوع دوم، یافتن بردار خروج بهینه با استفاده  از رویکردهای بهینه یابی در آزمایشات طول عمر مورد توجه است. رویکردهای بهینه یابی چند-هدفه با در نظر گرفتن چند هدف بصورت همزمان، سعی در یافتن طرح بهینه می نمایند. در این مقاله با در نظر گرفتن دو معیار و استفاده از رویکردهای بهینه یابی ترکیبی، بردار خروج بهینه در سانسور فزاینده نوع دوم با مکانیسم خروج تصادفی وابسته مبتنی بر تابع ربط لوجیت     به دست آورده می شود. مکانیسم خروج تصادفی  وابسته مبتنی بر مدل لوجیت در نظر گرفته شده، شامل پارامترهای تنظیمی است که بوسیله آزمایشگر و با توجه به اهداف آزمایش و فواصل شکست احتمالی تنظیم و تعیین می گردد. این پارامترها، امکان تنظیم احتمال خروج را در مکانیسم سانسور  در جهت کاهش هزینه و زمان آزمایش فراهم می کند. تعیین مقدار بهینه این پارامترها با توجه به معیار بهینگی مد نظر، بردار خروج بهینه  را نتیجه می دهد. مطالعات شبیه سازی برای ارزیابی  رویکرد بهینه یابی ترکیبی و مقایسه آن با معیارهای بهینه یابی تک-هدفه در مکانیسم سانسور تصادفی وابسته انجام می گردد. در انتها نتایج و پیشنهادات ارایه شده است

    کلیدواژگان: سانسور فزاینده نوع دوم، مکانیسم سانسور تصادفی وابسته مبتنی بر مدل لوجیت، رویکرد بهینه یابی ترکیبی، طرح بهینه چند-هدفه، میانگین زمان آزمایش، هزینه سانسور
  • فریبا شکوهی* صفحات 105-120

    نحوه جمع آوری داده های معتبر و کارا از اولین چالش های یک تحقیق علمی است. غالبا داده های کمی یا کیفی از طریق نظرسنجی پرسشنامه ای پس از تعیین دامنه و تعداد نمونه از فرمول های آماری و یا انجام مصاحبه با خبرگان به دست می آید. کاربرد این روش ها با صرف زمان و هزینه قابل توجه و محدودیت هایی همراه است. لذا جستجوی روش های موثر، سریع وکم هزینه تر با بهره گیری از فناوری های ارتباطی نوین، ضروری است. هدف از این مطالعه معرفی روش "گروه کانونی"  به عنوان یک روش عمیق،  ساختاریافته و موثر در جمع آوری داده های کیفی بخصوص در روش های فازی است و با بررسی پیشینه، شیوه اجرا و بیان مزایای کاربردی آن در رفع  برخی محدودیت تحقیقاتی، بویژه در جمع بندی آرای خبرگان در مسایل چند بعدی، میان رشته ای و مبهم می پردازد. این روش امکان حذف برخی متغیرهای ناشناخته در یک مطالعه را کاهش داده، با سرعت و دقت بالا، به جمع آوری و یکپارچه سازی داده ها کمک می کند. در این مقاله، یک نمونه از کاربرد روش گروه کانونی در یکپارچه سازی شاخص های تیوری ساخت ناب و پایدار با روش دیمتل خبره فازی ارایه شده است.

    کلیدواژگان: تحلیل کیفی عمیق، تصمیم گیری چندمعیاره، دیمتل فازی ذوزنقه ای، فوکس گروپ
  • روح الله روزگار*، امیررضا محمودی صفحات 121-135

    بسیاری از روش های برآوردیابی رگرسیونی در مواجه با داده های پرت به شدت تحت تاثیر قرار می گیرند و خطاهای زیادی در برآوردهای حاصل از آنها رخ می‏‏‏‏‏دهد. در سال‏های اخیر، برای حل این مشکل روش‏های توانمندی توسعه یافته اند. برآوردگر حداقل واگرایی توان چگالی یک روش برآورد بر مبنای حداقل فاصله بین دو تابع چگالی است که این روش، برآورد توانمندی در مواجه با موقعیت هایی که داده ها شامل تعدادی داده پرت هستند ارایه می دهد. در این پژوهش، روش برآوردگر توانمند حداقل واگرایی توان چگالی را برای برآورد پارامترهای مدل رگرسیون پواسون ارایه می کنیم که می تواند برآورد گرهای توانمند با کمترین نقصان در کارایی تولید کند. همچنین عملکرد برآوردگرهای پیشنهادی را از طریق ارایه مثال واقعی مورد بررسی قرار خواهیم داد.

    کلیدواژگان: برآوردگر حداقل واگرایی توان چگالی، پارامتر همسان ساز، توانمندی، داده پرت، رگرسیون پواسون، مدل خطی تعمیم یافته
|
  • Nafise Azadi, Ebrahim Reyhani*, Anahita Komeyjani, Ehsan Bahrami Samani Pages 1-13

    The purpose of this research is to investigate the statistical thinking of undergraduate student teachers in the field of mathematics education in the topic of diagrammatic literacy based on the framework of Wilde and Pfannkuch. For this purpose, a questionnaire including 9 diagram literacy questions (box diagram) was designed. The questions were classified based on the components of the Wilde and Pfannkuch framework. Questionnaire was completed by 50 student teachers of math education of Farhangian University of Education and Training of the director of Shahid Darjaei (boys and girls). The responses were leveled based on Watson's framework, which is a modification of Solow's model. The significance of the gender differences of student teachers was not confirmed statistically. The findings showed that most of the student teachers' answers in all statistical components are at the relational level, but the results showed the average performance of the student teachers in the components of statistical thinking in the topic of graph literacy.

    Keywords: Student teachers, teachers, statistical thinking, graph literacy, Watson framework
  • Ali Safdari Vaighani* Pages 15-22

    In this article, we take a look at Henri Poincaré's view on the methodology of mathematics, taken from the book Science and Method, and look at the role of choosing facts in the discovery of mathematics. The author deals with the foundations of the methodology of science and beautifully explains the future of mathematics and the direction of the development of mathematics, which started from the past and is continuing, and impresses the reader with this deep thinking. The author's belief in the framework of discovery of mathematical rules based on facts is well evident in this book. Poincaré's profound thinking in studying the laws of chance and its hidden realities in relation to the facts of existence is undeniable. This short article presents a selection of the content of the first part of the book to get familiar with it.

    Keywords: Choice of truth, future of mathematics, mathematical science, chance
  • Sedigheh Zamani Mehreyan* Pages 23-32

    ‎The boosted mixture learning method‎, ‎BML‎, ‎is an incremental method to learn mixture models for the classification problem‎. ‎In each step of the boosted mixture learning method‎, ‎a new component is added to the mixture model according to an objective function to ensure that the objective function is maximized‎. ‎Sometimes the likelihood function or equivalently information criteria are defined as the objective function of BML‎. ‎The mixture model is updated whenever a new component is added to the mixture model based on the maximum likelihood function and information criteria‎.

    ‎Since the information criteria does not have the ability to identify equivalent models‎, ‎therefore‎, ‎it is possible that the new mixture model and the current mixture model are equivalent‎.

    ‎In this paper‎, ‎the boosted mixture learning method has been corrected using Vuong's model selection test‎, ‎which has the ability to identify equivalent models‎. ‎The performance of two learning methods is evaluated over simulation data and over the U.S‎. ‎imports of goods by customs basis.‎

    Keywords: Boosted algorithm, ‎M‎odel selection, ‎M‎aximum likelihood estimator, Mixture ‎m‎odel‎‎, ‎M‎achine learning
  • Shahram Yaghoobzadeh* Pages 33-39

    In this article, the optimal model is determined for the family of models ‎$‎‎‎{E_r/M/1, rin N}‎$‎ with interarrival times with Erlang distribution‎‏ ‎and service times with exponential distribution‎. The method of choosing the optimal model is that first, a cost function is introduced, and then a new index is introduced according to the cost function and the ‎stationary‎ probability of the system called ‎‏‎‎$‎‎‎SER‎$‎.‎‏ A model with a larger ‎$‎SER‎$‎ index is ‎optimal.‎ Numerical analysis is also used to describe the method of determining optimal ‎model.

    Keywords: ‎Cost function‎, Probability of system ‎stationary‎, Erlang distribution‎
  • Mahdi Roozbeh* Pages 41-52

    Functional data analysis is used to develop statistical approaches to the data sets that are functional and continuous essentially‎, ‎and because these functions belong to the spaces with infinite dimensional‎, using conventional methods in classical statistics for analyzing such data sets is challenging‎.
    The most popular technique for statistical data analysis is the functional principal components approach‎, ‎which is an important tool for dimensional reduction‎. In this research, using the method of‎ functional principal component regression based on the second derivative penalty‎, ‎ridge and lasso, ‎the ‎analysis of ‎Canadian climate and spectrometric data sets ‎is proceed‎. ‎To ‎do ‎this, ‎to ‎obtain ‎the ‎optimum ‎values ‎of ‎the ‎penalized ‎parameter ‎in ‎proposed ‎methods, ‎the generalized cross validation, which is a ‎valid ‎and ‎efficient ‎criterion, ‎is ‎applied.‎

    Keywords: ‎Functional Data Analysis, Functional Regression, Generalized Cross ‎Validation, ‎‎Principal Component Regression
  • Manije Sanei Tabass* Pages 53-59

    Regression analysis using the method of least squares requires the establishment of basic assumptions. One of the problems of regression analysis in this way faces major problems is the existence of collinearity among the regression variables. Many methods to solve the problems caused by the existence of the same have been introduced linearly. One of these methods is ridge regression. In this article, a new estimate for the ridge parameter using generalized maximum Tsallis entropy is presented and we call it the Ridge estimator of generalized maximum Tsallis entropy. For the cement dataset Portland, which have strong collinearity and since 1332, different estimators have been presented for these data, this estimator is calculated and We compare the generalized maximum Tsallis entropy ridge estimator, generalized maximum entropy ridge estimator and the least squares estimator.

    Keywords: Ridge regression, Generalized maximum entropy, Tsallis entropy, Generalized maximum Tsallis entropy
  • Mohamad Jarire* Pages 61-69

    In this article, the number of failures of a coherent system has been studied under the assumption that the lifetime of system components are non-distributed discrete and dependent random variables. First, the probability that exactly i Failure i=0, ..., n-k, in a system $k$ From n Under the condition that the system at the time of monitoring t it works it will be counted. In the following, this result has been generalized to other coherent systems. In addition, it has been shown that in the case of independence and co-distribution of component lifetimes, the probability obtained is consistent with the corresponding probability in the continuous state obtained in the existing literature. Finally, by presenting practical examples, the behavior of this probability has been investigated in the case that the system components have interchangeable and necessarily non-distributed lifetimes

    Keywords: Reliability, coherent system, Signature‎, ‎‎k-out-of-n‎‎ System, Discrete lifetime distribution, Order Statistics, Exchangeable
  • Kamran Mirzaie, Maryam Parsaeian* Pages 71-79

    In the present article, an attempt has been made to provide a fully operational and useful guide regarding the implementation of two-stage cluster sampling plan in field research, which is one of the most widely used sampling plans according to the current conditions and facilities in the country. . In addition, for further use by researchers in this field, this article provides codes for implementing two-stage cluster sampling with unequal size based on probability proportional to size along with an example on two-stage cluster sampling with probability proportional to size (PPS) with hypothetical data using R software is included.

    Keywords: sampling frame, probability proportional to sample size, random sampling, two-stage cluster sampling, field research
  • Leila Rajabi*, Behzad Mansouri Pages 81-94

    Kernel density estimation is a standard method for estimating the probability density function, which in many cases works well. However, it has been found that it does not work well for negative, sloping, and wide-tail distributions, which are common features of the distribution of longevity, income, and so on. The purpose of this paper is to evaluate the performance of multiplicative bias correction (MBC) methods using asymmetric kernel estimators and compare this estimator with other boundary problem solving methods. In this paper, in addition to introducing MBC methods in combination with asymmetric kernel estimators, a simulation study shows that this estimator can, in some cases, provide a much better fit for density estimation than the standard kernel estimator. MBC methods using asymmetric kernel estimators were also used to estimate the lifetime density of transplanted corneas in 119 patients.

    Keywords: Boundary problem, Asymmetric kernel, Multiplicative bias correction, lifetime density
  • Firoozeh Haghighi, Fatemeh Hassantabar Darzi*, Samaneh Eftekhari Mahabadi Pages 95-103

    In Type-II progressive censoring, determining the optimal censoring scheme among all those available censoring schemes is an essential practical issue. Multi-objective optimal approach try to find the optimal design by considering multiple objectives simultaneously. In this article, by considering two criteria and using compound optimal approach, the optimal random removal vector is obtained in Type-II progressive censoring design with dependent random removal mechanism based on  logit link function. The considered dependent random removal mechanism based on the logit link function, including tunning parameters which are determined by the experimenter according to the goals of experiment and possible failure distances.These parameters adjust the removal probability in the random removal mechanism in order to reduce the cost and time of experiment. Determining the optimal value of these parameters according to the optimal criterion results in the optimal removal vector. Simulation studies are conducted to evaluate the compound optimal approach and compare the performance of the proposed approach with single-objective optimal design. At the end, the conclusions and few possible further works are presented.

    Keywords: Type-II progressive censoring, Dependent random removal mechanism, Compound optimal approach, Multi-objective optimal design, Expected experiment time, Cost of censoring
  • Fariba Shokoohi* Pages 105-120

    The process of collecting valid and efficient data is a critical challenge in scientific research. Traditional methods of collecting quantitative or qualitative data, such as questionnaire surveys or expert interviews, are time-consuming, costly, and limited in scope. The COVID-19 pandemic has made these methods even more challenging due to social constraints. As a result, new communication technologies are needed to develop faster, less expensive, and more effective data collection methods. This study proposes the "Focus Group" method as an alternative for qualitative fuzzy-based studies. We provide a detailed history, instruction, and advantages of the approach, which overcomes research limitations in multidimensional, interdisciplinary, and ambiguous issues. The method integrates an efficient and systematic approach using online technology to collect expert opinions with high speed and accuracy, thereby reducing the possibility of omitted variables. We present an example of the Focus Group method's application in a study of the integration of influential variables in lean and sustainable construction using a fuzzy DEMATEL method. The results indicate that the Focus Group method can provide a deep, systematic, and efficient approach to data collection in qualitative research, allowing researchers to overcome various limitations and produce reliable and comprehensive results.

    Keywords: Deep qualitative evaluation, Trapezoidal fuzzy DEMATEL, MCDA methods
  • Roohollah Roozegar*, Amir Reza Mahmoodi Pages 121-135

    Many regression estimation techniques are strongly affected by outlier data and many errors occur in their estimation. In the recent years, robust methods have been developed to solve this issue. The minimum density power divergence estimator is an estimation method based on the minimum distance between two density functions, which provides a robust estimate in situations where the data contain a number of outliers. In this research, we present the robust estimation method of minimum density power divergence to estimate the parameters of the Poisson regression model, which can produce robust estimators with the least loss in efficiency. Also, we will investigate the performance of the proposed estimators by providing a real example.

    Keywords: Generalized linear model, Minimum Density Power Divergence Estimator, Outlier data, Poisson regression, Robustness, Tuning parameter