فهرست مطالب

اندیشه آماری - سال بیست و ششم شماره 1 (پیاپی 51، بهار و تابستان 1400)

نشریه اندیشه آماری
سال بیست و ششم شماره 1 (پیاپی 51، بهار و تابستان 1400)

  • تاریخ انتشار: 1400/09/03
  • تعداد عناوین: 12
|
  • منیره معنوی، مهدی روزبه* صفحات 1-24

    روش کمترین توان های دوم برای برآورد ضرایب رگرسیونی مدل های خطی روشی بسیار ساده، کاربردی و مفید است. این روش آماری توسط کاربران رشته های مختلف به سبب ارایه بهترین برآوردگر خطی نااریب با کمترین واریانس مورد استفاده قرار می گیرد. متاسفانه این روش در شرایطی که مشاهده ‎(مشاهدات)‎ پرت در مجموعه داده حضور داشته باشند، خروجی قابل اطمینانی نخواهد داشت، زیرا نقطه فروریزش (معیار استواری برآوردگر) این روش %0 است. به همین سبب شناسایی این مشاهدات امری حایز اهمیت است. تاکنون روش های مختلفی برای شناسایی این مشاهدات پیشنهاد شده است. در این مقاله به ‏مرور و بحث در مورد جزییات روش های معرفی شده پرداخته می شود. در انتها با ارایه یک مثال شبیه سازی به بررسی هر یک از روش های معرفی شده می پردازیم.

    کلیدواژگان: کمترین توان های دوم، نقطه اهرمی، نقطه پرت، شناسایی نقاط پرت
  • ابوالفضل رفیع پور* صفحات 25-35

    امروزه ضرورت توجه به آموزش آمار در همه پایه ها از دوره ابتدایی گرفته تا دانشگاه بیش از پیش نمایان شده است. یکی از اهداف نظام های مختلف آموزشی که در اسناد بالادستی آنها انعکاس یافته است، داشتن شهروندانی است که مجهز به سواد آماری هستند. در این راستا، بسیاری از سازمان ها و نهادهای آماری، از آموزش آمار به عنوان یکی از اهداف و رسالت های ویژه خود یاد کرده اند. کتاب های درسی ریاضی مدرسه ای در ایران نیز بخش هایی را به بحث های آمار و احتمال اختصاص داده اند. بررسی نقش مباحث آمار و احتمال در کتاب های درسی مدرسه ای در ایران نشان می دهد که پیشرفت خوبی در گنجانیدن بحث های آمار و احتمال در کتاب های درسی حاصل شده است، اما هنوز با وضعیت ایده آل فاصله زیادی دارد. در مقاله حاضر پس از بحث مختصر در مورد ضرورت توجه به آموزش آمار در برنامه درسی ریاضی مدرسه ای، سیر تاریخی ارایه بحث های آموزش آمار و احتمال در ایران و جهان مرور خواهد شد. سپس چالش های موجود در معرفی مباحث آموزش آمار و احتمال در برنامه درسی ریاضی مدرسه ای به تصویر کشیده می شود و در پایان دو رویکرد جدید (توجه به مه داده ها، استفاده از فناوری های نوین برای شبیه سازی و مدل سازی پدیده های دنیای واقعی) برای رسیدن به وضعیت مطلوب در حوزه آموزش آمار و احتمال، با تفصیل بیشتر و ذکر مثال، معرفی خواهند شد.

    کلیدواژگان: چالش های آموزش آمار، برنامه درسی ریاضی مدرسه ای، مدل سازی با استفاده از فناوری های نوین، مه داده ها
  • فاطمه حسینی*، امید کریمی صفحات 37-46

    برای مدل بندی پاسخ های فضایی گسسته، مدل های آمیخته خطی تعمیم یافته فضایی استفاده می شود. در این مدل ها همبستگی فضایی داده ها به صورت متغیرهای پنهان فضایی وارد مدل می شود. معمولا برای سادگی فرض می شود که متغیرهای پنهان دارای توزیع نرمال هستند که نادرست بودن این فرض برروی دقت نتایج تاثیرگذار است.در این مقاله متغیرهای پنهان با میدان تصادفی چوله گاوسی بسته مدل بندی می شوند که بزرگ تر و انعطاف پذیرتر از میدان تصادفی گاوسی می باشد. یک الگوریتم جدید برای به دست آوردن برآورد ماکسیمم درستنمایی پارامترها معرفی می شود. اساس الگویتم معرفی شده بر مبنای الگوریتم ماکسیمم سازی امیدریاضی و نوعی الگوریتم مونت کارلویی همیلتونی است. کارایی و سرعت الگوریتم معرفی شده در یک مثال شبیه سازی بررسی می شود.

    کلیدواژگان: مدل های آمیخته خطی تعمیم یافته فضایی، الگوریتم مونت کارلوی همیلتونی، میدان تصادفی چوله گاوسی بسته
  • طیبه کرمی*، محی الدین ایزدی، مهرداد نیاپرست صفحات 47-59

    یکی از مسایل مهم در علوم مختلف موضوع رده بندی است. رگرسیون لوژیستیک یکی از روش های آماری برای رده بندی داده ها است که در آن توزیع داده ها معلوم فرض می شود.محققان امروزه علاوه بر روش های آماری از روش های دیگری که در آن نیاز به معلوم بودن توزیع داده ها نیست مانند روش های یادگیری ماشین برای رده بندی داده ها استفاده می کنند . در این در این مقاله علاوه بر رگرسیون لوژیستیک، برخی از الگوریتم های یادگیری ماشین شامل CART،تقویت، Bagging جنگل تصادفی  در حوزه ی یادگیری با نظارت توضیح داده می شود. در نهایت با استفاده از 4 مجموعه داده واقعی و یک مثال شبیه سازی شده  کارایی رگرسیون لوژیستیک با الگوریتم های یادشده  بر اساس معیار دقت و حساسیت و صحت  مورد مقایسه قرار می گیرند.

    کلیدواژگان: جنگل تصادفی، درخت تصمیم، یادگیری با نظارت، یادگیری گروهی
  • رامین کاظمی* صفحات 61-70

    هدف اصلی این مقاله، بررسی پرکولاسیون بستی و بندی روی مشبکه Z2 است. نمادها و مفاهیم اصلی شامل احتمال های بحرانی معرفی می شوند. مشبکه بتی و درخت های k-‎ شاخه ای مورد بررسی قرار می گیرند و در نهایت ‏مشبکه Z2 در نظر گرفته می شود. قضیه بنیادی هریس و کستن که کران های پایین و بالای احتمال های بحرانی را روی مشبکه Z2 ارایه می کند، بیان و ثابت می شوند.

    کلیدواژگان: پرکولاسیون بستی و بندی، احتمال های بحرانی، مشبکه ‎$mathbb{Z}^2$‎
  • پروانه مهدی زاده، تابان باغفلکی*، مهدی اسماعیلیان صفحات 71-87

    مدل های توام در مطالعات پیگیری شونده برای بررسی ارتباط بین نشانگرهای طولی و یک پیشامد بقا استفاده می شود و به وضعیت هایی با چند نشانگر طولی و یا ریسک های رقابتی تعمیم یافته است. بسیاری از دستاوردهای آماری در زمینه مدل بندی توام در مدل های پارامتر مشترک متمرکز شده است که شامل مشخصه هایی از نشانگر طولی به عنوان متغیرهای تبیینی در مدل بقا در نظر گرفته می شود. یک رهیافت کمتر شناخته شده، مدل کلاس پنهان توام است، این مدل با فرض اینکه ارتباط بین نشانگرهای طولی و خطر رخداد با یک ساختار کلاس پنهان کاملا مشخص می شود، بنا شده است. مدل کلاس پنهان به دلیل انعطاف پذیری در مدل بندی ارتباط بین نشانگرهای طولی و زمان تا رخداد پیشامد و همچنین توانایی در برگرفتن متغیرهای تبیینی به ویژه برای پیش بینی مناسب است. در این مقاله یک نمای کلی از مدل کلاس پنهان توام و تعمیم های آن ارایه می دهیم، در این راستا، ابتدا مروری بر مدل های بحث شده انجام می شود و سپس برآورد پارامترهای مدل مورد بحث قرار می گیرد. در بخش کاربرد، دو مجموعه ی داده ی واقعی مورد تحلیل و بررسی قرار می گیرند.

    کلیدواژگان: الگوریتم EM، اندازه گیری های طولی، برآوردگر درستنمایی ماکسیمم، ریسک های رقابتی، مدل بقا، مدل کلاس پنهان توام
  • انوشیروان کاظم نژاد لیلی*، پریسا ریاحی قره بابا، شایان مصطفایی صفحات 89-96

    الگوریتم کاهش بعد چندعاملی به عنوان یک الگوریتم توانمند برای شناسایی اثرات متقابل مراتب بالا در ساختارهای ابربعد محسوب می شود. در این تحقیق با استفاده از اطلاعات  748 مورد بیمار مبتلا به بیماری بهجت که به مرکز تحقیقات روماتولوژی، بیمارستان شریعتی تهران مراجعه کرده بودند  و 776 شاهد سالم، برای شناسایی اثرات متقابل بین پلی مورفیسم های ژن ERAP1 دخیل در رخداد بیماری بهجت از الگوریتم کاهش بعد چندعاملی استفاده شده است. محاسبات با استفاده از نرم افزار mdr 3.0.2 انجام گرفته است. مدل های حاصل از الگوریتم کاهش ابعاد چند عاملی با دقت متعادل[3] بالای 6/0 دخیل در افزایش ریسک بیماری بهجت تعیین شده اند. الگوریتم کاهش ابعاد چند عاملی توان و سرعت بالایی در محاسبه اثرات متقابل پلی مورفیسم ها یا جهش های ژنتیکی و شناسایی اثرات متقابل مهم و معنی دار دارد.
     

    کلیدواژگان: الگوریتم کاهش ابعاد چندعاملی، بیماری بهجت، اثرات متقابل ژن-ژن
  • حسین صمیمی حق گزار* صفحات 97-102

    در نظریه احتمال متغیر(بردار) تصادفی به گسسته، پیوسته مطلق، پیوسته منفرد و آمیخته ای از آن ها تقسیم بندی می شود. متغیرها (بردارها)ی تصادفی گسسته و پیوسته مطلق به طور گسترده در کتب مختلف احتمال و آمار مورد بررسی قرار گرفته اند. با این وجود، به مبحث تورزیع های پیوسته منفرد و توزیع های آمیخته ای که بخشی از آن پیوسته منفرد باشد، کمتر پرداخته شده است. در این مقاله مثالی از بردارهای تصادفی منفرد آورده می شود. همچنین، مثال هایی از بردارهای تصادفی آمیخته ارایه می شود که تابع توزیع آن ها به صورت ترکیب خطی محدب از توابع توزیع گسسته، پیوسته مطلق و پیوسته منفرد است.

    کلیدواژگان: بردار تصادفی، پیوسته مطلق، توزیع آمیخته، مجموعه کانتور
  • ابوذر بازیاری* صفحات 103-114

    در این مقاله، ابتدا به معرفی توزیع لامبدای تعمیم یافته و ویژگی های این توزیع پرداخته شده است. مفهوم تنش مقاومت بطور کامل توضیح داده شده و قابلیت اعتماد یک سیستم از دیدگاه تنش مقاومت مورد بررسی قرار ‏می گیرد. در ادامه به محاسبه فرم ریاضی پارامتر تنش مقاومت در توزیع لامبدای تعمیم یافته پرداخته شده است. برآورد پارامترها با روش گشتاورها مورد بررسی قرار گرفته و نیز به ازای مقادیر مختلف پارامترهای توزیع لامبدای تعمیم یافته، نمودار تابع چگالی لامبدای تعمیم یافته رسم و پارامتر تنش مقاومت محاسبه می شود. با یک مثال واقعی کاربرد نتایج نشان داده شده است.

    کلیدواژگان: توزیع لامبدای تعمیم یافته، پارامتر تنش مقاومت، پارامترهای مکان و مقیاس، سیستم های مهندسی
  • احسان بهرامی سامانی*، سمیرا بهرامیان صفحات 115-123

    رخداد داده های طول عمر مساله ای است که معمولا در تحقیق های گوناگون شامل آمارگیری ها، آزمایش های کلینیکی و مطالعات اپیدمیولوژی روی می دهد. اخیرا تحقیق های نظری وسیعی در حوزه ی تحلیل داده های طول عمر انجام شده است. با این حال، از آن جایی که معمولا اطلاعات کمی بر اساس داده ها برای برآورد صحیح پارامترهای مدل موجود است؛ استنباط ها ممکن نسبت به فرض های غیر قابل آزمون حساس باشند که نیاز به انجام یک تحلیل حساسیت را گوشزد می نماید.  در این مقاله، ما نحوه ارزیابی کردن اثر پریشیدگی پاسخ های رگرسیونی لگ - بتا وایبل را بیان می کنیم. همچنین کاربرد و تفسیر روش های تحلیل تاثیر با استفاده از  تحلیل داده های سانسور شده، مرور و تعمیم داده می شود. یک شیوه درستنمایی - مبنا که منجر به برآورده های ماکسیمم درستنمایی برای پارامترهای مدل می گردد، مورد استفاده قرار می گیرد. به منظور ارزیابی عملکرد شاخص های معرفی شده در کشف حساسیت پارامترهای کلیدی مدل، چندین مطالعه شبیه سازی انجام گرفته است. ما  به وسیله تحلیل کردن  داده های  سرطان، روش های بیان شده را تشریح می کنیم.

    کلیدواژگان: تحلیل حساسیت، مدل رگرسیون لگ - بتا وایبل، داده های سانسور شده، برآورد ماکسیمم درستنمایی، داده های سرطان
  • علیرضا طاهریون*، غزال آزادی صفحات 125-137

    به طور معمول، پایش نیمرخ از طریق نمودارهای کنترل صورت می گیرد و در اغلب آنها، متغیر پاسخ، قابل مشاهده است. در این مقاله، با مسئله مشابهی مواجهیم که در آن به جای مشاهده بردار پاسخ، مقادیر تابع پاداش را مشاهده می کنیم که برای تقریب به ذهن از مدل پرتاب نیزک استفاده کرده ایم. با فرض وجود حداکثر یک نقطه تغییر، دنباله ای مستقل از امتیازهای حاصل از پرتاب، مشاهده می شود و برآورد پارامتر دقت پرتابها و نقطه تغییر (در صورت وجود)، با دو رویکرد فراوانی گرا و بیزی ارایه ‎‎می شوند. در هر دو رویکرد، دو حالت ممکن پارامتر اسکالر دقت و ماتریس دقت، به تفکیک بررسی شده اند. نتایج ارایه شده از طریق یک مطالعه عددی بررسی شده اند و این روش ها روی داده های واقعی حاصل از پرتاب، پیاده شده اند.

    کلیدواژگان: الگوریتم EM، الگوریتم MCMC، توزیع آمیخته، متغیر پنهان، نقطه تغییر، نمونه گیر گیبز
  • سیده آزده فلاح مرتضی نژاد، غلامرضا محتشمی برزادران*، بهرام صادقپور گیلده، محمد امینی صفحات 139-152

    تابع مفصل یک ابزار مفید در شناسایی ساختار وابستگی داده های وابسته و در نتیجه برازش یک توزیع توام مناسب به داده ها می باشد. در این مقاله با استفاده از تابع مفصل داده های بورس شامل سه متغیر ضعف مالی، سود انباشته، و دارایی ملموس مربوط به ‎110 شرکت تجاری ایران از سال ‎1385 تا ‎1389‎ تحلیل می شود و به خصوص یک توزیع سه بعدی به این داده ها برازش شده است.‏ برای بررسی نوع وابستگی بین داده ها از ابزارهای مختلفی از جمله نمودار پراکنش‏، نمودار کای‏، و نمودار کندال استفاده نمودیم. همچنین اندازه وابستگی جهت دار و دمی داده ها را مورد بررسی قرار ‏می دهیم و ضرایب وابستگی کندال و اسپیرمن را نیز محاسبه می کنیم. ‏در انتها آزمون نیکویی برازش برای چند مفصل معروف را انجام دادیم تا بتوانم مفصل مناسب داده های بورس مقاله به دست آوریم.

    کلیدواژگان: تابع مفصل: وابستگی جهتی و دمی: نمودار کای و کندال‎
|
  • Monireh Maanavi, Mahdi Roozbeh* Pages 1-24

    ‎The method of least squares is a very simple‎, ‎practical and useful approach for estimating regression coefficients of the linear models‎. ‎This statistical method is used by users of different fields to provide the best unbiased linear estimator with the least variance‎. ‎Unfortunately‎, ‎this method will not have reliable output if outliers are present in the dataset‎, ‎as the collapse point (estimator consistency criterion) of this method is 0% ‎. ‎It is therefore important to identify these observations‎. Until now, ‎the various methods have been proposed to identify these observations‎. ‎In this article‎, the proposed methods are ‎reviewed ‎and ‎discussed in details‎‎‎. ‎Finally‎, ‎by presenting a simulation example‎, ‎we examine each of the proposed methods‎.

    Keywords: Least Squares, Leverage point, Outliers, Outlier Detection
  • Abolfazl Rafiepour* Pages 25-35

    Nowadays, the need to pay attention to teaching statistics at all levels from elementary school to university has become more apparent. One of the goals of the various educational systems, which is reflected in their upstream documents, is to have citizens who are equipped with statistical literacy. In this regard, many statistical organizations and institutions have mentioned statistics education as one of their special goals and missions. School math textbooks in Iran also have sections devoted to discussions of statistics and probability. An examination of the role of statistics in Iran school Mathematics textbooks shows that there is good progress in including statistics and probability concepts in textbooks, but it is still far from the ideal. In the present article, after a brief discussion on the necessity of paying attention to statistics education in the school mathematics curriculum, the historical course of presenting statistics education will be reviewed. Then, the challenges in introducing the topics of teaching statistics and probability in the school mathematics curriculum are illustrated, and in the end, two new approaches (attention to big-data, use of new technologies in stimulating and modeling real-world phenomena) will be introduced in more detail and with examples.

    Keywords: Statistics Education Challenges, School Mathematics Curriculum, Modeling with Using New Technologies, Big-Data
  • Fatemeh Hosseini*, Omid Karimi Pages 37-46

    Spatial generalized linear mixed models are used commonly for modeling discrete spatial responses. In this models the spatial correlation of the data is considered as spatial latent variables. For simplicity, it is usually assumed in these models that spatial latent variables are normally distributed. An incorrect normality assumption may leads to inaccurate results and is therefore erroneous. In this paper we model the spaial latent variables in a general random field, namely the closed skew Gaussian random field which is more flexible and includes the Gaussian random field. We propose a new algorithm for maximum likelihood estimates of the parameters. A key ingredient in our algorithm is using a Hamiltonian Monte Carlo version of the EM algorithm. The performance of the proposed model and algorithm is presented through a simulation study.

    Keywords: Spatial Generalized Linear Mixed Model, Hamiltonian Monte Carlo Algorithm, Closed Skew Gaussian Random Field
  • Tayebeh Karami*, Muhyiddin Izadi, Mehrdad Niaparast Pages 47-59

    The subject of classification is one of the important issues in different sciences. Logistic regression is one of the statistical methods to classify data in which the underlying distribution of the data is assumed to be known. Today, researchers in addition to statistical methods use other methods such as machine learning in which the distribution of the data does not need to be known. In this paper, in addition to the logistic regression, some machine learning methods including CART decision tree, random forest, Bagging and Boosting of supervising learning are introduced. Finally, using four real data sets, we compare the performance of these algorithms with respect to the accuracy measure.

    Keywords: Decision Tree, Ensemble Learning, Random Forest, Supervised Learning
  • Ramin Kazemi* Pages 61-70

    The main ‎goal‎ of this paper is to investigate the site and bond percolation of the lattice Z2‎. The main symbols and concepts, including critical probabilities, are introduced. Bethe lattice and k-branching trees are examined and finally lattice Z2 is considered. The fundamental theorem of Harris and Kesten that presents the lower and upper bounds of the critical probability on the lattice Z2 expresses and proves.

    Keywords: Site, bond percolation, critical probabilities, lattice $mathbb{Z}^2‎$
  • Taban Baghfalaki*, Parvaneh Mehdizadeh, Mahdy Esmailian Pages 71-87

    Joint models use in follow-up studies to investigate the relationship between longitudinal markers and survival outcomes
    and have been generalized to multiple markers or competing risks data. Many statistical achievements in the field of joint
    modeling focuse on shared random effects models which include characteristics of longitudinal markers as explanatory variables
    in the survival model. A less-known approach is the joint latent class model, assuming that a latent class structure
    fully captures the relationship between the longitudinal marker and the event risk. The latent class model may be appropriate
    because of the flexibility in modeling the relationship between the longitudinal marker and the time of event, as well as the
    ability to include explanatory variables, especially for predictive problems. In this paper, we provide an overview of the joint
    latent class model and its generalizations. In this regard, first a review of the discussed models is introduced and then the
    estimation of the model parameters is discussed. In the application section, two real data sets are analyzed.

    Keywords: Competing risks, EM Algorithm, Joint latent class model, Longitudinal measurements, Maximum likelihood estimator, Survival model
  • Anoshiravan Kazemnejad*, Parisa Riyahi, Shayan Mostafaee Pages 89-96

    The multifactorial dimension reduction algorithm is considered as a powerful algorithm for identifying high-order interactions in high dimensional structures. In this study, information of 748 patients with Behcetchr('39')s disease who referred to the Rheumatology Research Center, Shariati Hospital, Tehran, and 776 healthy controls was used to identify the interaction effects between ERAP1 gene polymorphisms involved in the occurrence of Behcetchr('39')s disease using the multifactor dimensionality reduction algorithm. Data analysis was performed using MDR 3.0.2 software. The models obtained from the multifactorial dimensional reduction algorithm with balanced accuracy above 0.6 have been determined to increase the risk of Behcetchr('39')s disease. The multi-factor reduction algorithm has high power and speed in calculating the interaction effects of polymorphisms or genetic mutations and identifying important interactions.

    Keywords: Multifactor dimensionality reduction algorithm, Behcet’s disease, gene-gen interaction
  • Hossein Samimi Haghgozar* Pages 97-102

    In probability theory, a random variable (vector) is divided into discrete, absolutely continuous, singular continuous, and a mixture of them. Absolutely discrete and continuous random variables (vectors) have been extensively studied in various probability and statistics books. However, less attention has been paid to the issue of singular continuous distributions and mixture distributions, part of which is singular continuous. In this article, an example of ‎singular‎ random vectors is given. Also, examples of mixture random vectors are presented whose distribution function is a convex linear combination of discrete, absolutely ‎continuous,‎ and continuous distribution functions.

    Keywords: ‎Random vector‎, ‎Absolutely continuous, ‎‎M‎ixture distribution, ‎ Contour set
  • Abouzar Bazyari* Pages 103-114

    In this paper, first, the generalized lambda distribution and the characteristics of this distribution are introduced. The concept of resistance stress is fully explained and the reliability of a system from the perspective of resistance stress is examined. Also, the mathematical form of the resistance stress parameter in the generalized lambda distribution has been calculated. The estimation of the parameters has been investigated by the moments method‎‎ and ‎for different parameters values the graph of generalized lambda distribution is drawn ‎‎and resistance stress parameter calculated. With a real example the application of the results is illustrated.‎‎

    Keywords: Engineering systems, Generalized lambda distribution, Location, scale parameters, Stress strength parameter
  • Ehsan Bahrami Samani*, Samira Bahramian Pages 115-123

    The occurrence of lifetime data is a problem which is commonly encountered in various researches, including surveys, clinical trials and epidemioligical studies. Recently there has been extensive methodological resarech on analyzing lifetime data. Howerver, because usually little information from data is available to corretly estimate, the inferences might be sensitive to untestable assumptions which this calls for a sensitivity analysis to be performed. In this paper, we describe how to evaluate the  effect  that  perturbations to the  Log-Beta Weibull Regression  Responses. Also, we review and extend the application and  interpretation of influence analysis methods using censored data analysis. A full likelihood-based approach that allows yielding maximum likelihood estimates of the model parameters is used. Some simulation studies are conducted to evalute the performance of the proposed indices in ddetecting sensitivity of key model parameters. We illustrate the methods expressed by analyzing the  cancer data.

    Keywords: Sensitivity Analysis, Log-Beta Weibull Regression, censored data, maximum likelihood estimation, Cancer data
  • Ali Reza Taheriyoun*, Gazelle Azadi Pages 125-137

    Profile monitoring is usually faced by control charts and mostly the response variable is observable in those problems‎. ‎We confront here with a similar problem where the values of the reward function are observed instead of the response variable vector and we use the dart model to make it easier to understand‎. ‎Supposing there exists at most one change-point‎, ‎a sequence of independent points resulted by darts throws is observed and the estimation of parameters and the change-point (if there exists any) are presented using the‎ ‎frequentist and Bayesian approaches‎. ‎In both the approaches‎, ‎two possible precision scalar and matrix are studied separately‎. ‎The results are examined through a simulation study and the methods applied on a real data‎.

    Keywords: change-point, EM algorithm, Gibbs sampler, latent variable, MCMC algorithm, mixture distribution
  • Seyedeh Azadeh Fallah Mortezanejad, Gholamreza Mohtashami Borzadaran*, Bahram Sadeghpour Gildeh, Mohammad Amini Pages 139-152

    ‎A copula function is a useful tool in identifying the dependency structure of dependent data and thus fitting a proper distribution to the existing data set. In this paper, using the copula function for stock market data including three variables of financial weakness, accumulated profit, and tangible assets related to 110 Iranian trading companies from 1385 to 1389 is analyzed and especially a three-dimensional distribution of these data is appropriate. We used a variety of tools to examine the dependency type in the data set, containing the scatter, chi, and Kendall plots. We also analyze the directional and tail dependency of the data set and calculated the dependence coefficients of Kendall tau and Spearman rho. Finally, we perform a good fitness of fit test for a few well-known copula functions, so that we can get the right copula function of the data set coming from the stock market.

    Keywords: Copula function, directional, tail dependency, chi, Kendall plot‎