فهرست مطالب

  • سال بیست و چهارم شماره 2 (پاییز و زمستان 1398)
  • تاریخ انتشار: 1399/04/11
  • تعداد عناوین: 12
|
  • حسن اسفندیاری فر، پرویز نصیری*، رقیه ماکویی صفحات 1-8

    در تجزیه و تحلیل متغیرهای برنولی، بررسی وابستگی بین آن ها از اهمیت زیادی برخوردار است. در این مقاله با اعمال وابستگی مرتبه اول بین متغیرهای برنولی، توزیع سری لگاریتمی مارکف معرفی می شود. برای برآورد پارامترهای این توزیع از روش های ماکسیمم درستنمایی، گشتاوری، بیزی و همچنین روش جدیدی موسوم به روش بیزی مورد انتظار (E- بیزی) استفاده می شود. در ادامه با استفاده از یک مطالعه شبیه سازی نشان داده شده که برآوردگر بیزی مورد انتظار در مقایسه با برآوردگرهای دیگر بهتر عمل می کند.

    کلیدواژگان: توزیع سری لگاریتمی مارکوف، برآورد $-E$بیزی، برآورد ماکسیمم درستنمایی، برآورد گشتاوری، میانگین توان دوم خطا
  • سیده صدیقه عظیمی، احسان بهرامی سامانی* صفحات 9-14

    تحلیل پاسخ های آمیخته ی گسسته از موضوعات مهم آماری در شاخه های مختلف علوم به شمار می آید. از جمله متغیرهای گسسته می توان به متغیرهای ترتیبی و متغیرهای دوجمله ای بیش پراکنده اشاره کرد. داده ی دوجمله ای بیش پراکنده مجموع آزمایش های برنولی ناهمبسته با احتمال موفقیت برابر است. در این مقاله مدل توام با اثرهای تصادفی برای تحلیل پاسخ های آمیخته ی دوجمله ای بیش پراکنده و ترتیبی تحت مطالعه ی طولی معرفی می گردد. در این مدل فرض می شود متغیر پاسخ دوجمله ای بیش پراکنده از توزیع بتا - دوجمله ای پیروی می کند و از رویکرد متغیر پنهان برای مدل بندی متغیر پاسخ ترتیبی استفاده می شود. همچنین پارامترهای مدل با روش ماکسیمم درستنمایی برآورد و با استفاده از روش شبیه سازی مونت کارلویی برآورد پارامترها ارزیابی می شود. در نهایت، کاربست مدل معرفی شده در داده واقعی بررسی می شود.

    کلیدواژگان: روش ماکسیمم درستنمایی، متغیر دوجمله ای بیش پراکنده، توزیع بتا - دوجمله ای، رویکرد متغیر پنهان، داده ی BHPS
  • اکرم حیدری گرمیانکی*، مهرداد نیاپرست صفحات 15-23

    در عصر حاضر دسته بندی داده ها به منظور تشخیص و پیش بینی وقایع، یکی از موضوعات بسیار مهم در علوم مختلف است. در علم آمار دیدگاه سنتی این کلاس بندی ها براساس روش های کلاسیک و بر پایه مدل های آماری از جمله رگرسیون لژستیک امکان‎ پذیر خواهد بود. در عصر حاضر که به عبارتی عصر انفجار اطلاعات نامیده می شود، در اکثر موارد با داده هایی مواجه هستیم که نمی توان توزیع دقیقی را برای آن ها یافت؛ از این رو استفاده از روش های داده کاوی و یادگیری ماشین که به مدل های از پیش تعیین شده نیاز ندارند، می تواند مسمر ثمر باشد. در بسیاری از کشورها تشخیص دقیق نوع منابع آب های زیر زمینی، یکی از مسایل قابل توجه در زمینه علوم آب است. در این مقاله به مقایسه نتایج حاصل از رده بندی یک مجموعه داده مربوط به منابع آب های زیرزمینی با استفاده از روش های رگرسیونی، شبکه عصبی و ماشین بردار پشتیبان پرداخته ایم. نتایج از این کلاس بندی ها نشان داد که روش های یادگیری ماشین در تشخیص دقیق نوع چشمه ها موثر بوده است.

    کلیدواژگان: شبکه عصبی، ماشین بردار پشتیبان، رگرسیون لژستیک
  • الهام بصیری* صفحات 25-35

    یکی از معمول ترین روش های سانسور، سانسور فزاینده نوع دو از راست است. در این روش از سانسور، $n$ واحد در آزمایش قرار می گیرند و در زمان از کارافتادگی هر واحد تعدادی از واحدهای باقیمانده به تصادف از آزمایش خارج می شوند. این کار ادامه می یابد تا به ازای یک مقدار از قبل تعیین شده مانند $m$، زمان های از کارافتادگی $m$ واحد ثبت شوند و سپس آزمایش خاتمه می یابد. مسیله تعیین طرح بهینه سانسور در مدل سانسور فزاینده نوع دو، مسیله ای است که تاکنون بر اساس معیارهای متفاوتی مورد مطالعه قرارگرفته است. مسیله دیگر در مدل سانسور فزاینده نوع دو انتخاب اندازه نمونه در شروع آزمایش، یعنی $n$ است. در این مقاله با فرض توزیع پارتو برای داده های موردبررسی و معیار اطلاع فیشر، تعیین اندازه نمونه بهینه یعنی $ n_{opt}$ و همچنین طرح بهینه سانسور موردمطالعه قرار می گیرند. در انتها، به منظور ارزیابی نتایج به دست آمده محاسبات عددی و مثال واقعی با کمک نرم افزار $R$ ارایه شده اند.

    کلیدواژگان: اطلاع فیشر، توزیع پارتو، طرح بهینه سانسور
  • سمیه گله*، روح الله روزگار صفحات 37-42

    روش کمترین واگرایی توان چگالی یک برآورد استوار در مواجهه با موقعیت هایی که داده ها شامل تعدادی داده پرت هستند ارایه می دهد. در این پژوهش به معرفی و استفاده از برآوردگر استوار کمترین واگرایی توان چگالی برای برآورد پارامترهای مدل رگرسیون خطی پرداخته و در ادامه با چند مثال عددی از رگرسیون خطی، استواری این برآوردگر را در مواجهه با مجموعه داده هایی که شامل تعدادی داده پرت هستند نشان می دهیم.

    کلیدواژگان: برآوردیابی، برآوردگر کمترین واگرایی توان چگالی، برآوردگر ماکسیمم درستنمایی، داده پرت، داده های تلفن بلژیک، رگرسیون استوار
  • فاطمه پاپی، پرویز ملک زاده، فاطمه حسینی* صفحات 43-54

    گاهی در عمل داده ها به صورت تابعی از یک متغیر دیگر هستند که به این نوع داده ها، داده های تابعی گفته می شود. اگر متغیر پاسخ اسکالر و به صورت رسته ای یا گسسته باشد و متغیرهای کمکی به صورت تابعی، آنگاه برای تحلیل این نوع داده ها از مدل خطی تابعی تعمیم یافته استفاده می شود.در این مقاله یک مدل بریده شده خطی تابعی تعمیم یافته بررسی و برای به دست آوردن برآورد پارامترهای مدل از یک رهیافت ماکسیمم درستنمایی استفاده می شود. درنهایت در یک مطالعه شبیه سازی و دو مثال کاربردی مدل و روش های ارایه شده پیاده سازی می شوند.

    کلیدواژگان: عملگر کوواریانس، توابع ویژه، رگرسیون تابعی، مدل خطی تابعی تعمیم یافته، بسط کارهونن لوئه و
  • نوشین حکمی پور* صفحات 55-64

    آزمون طول عمر، اغلب به مدت زمان زیادی جهت انجام آزمایش نیازمند است؛ ازاین رو مهندسان و آمارشناسان به دنبال کاهش زمان اجرای این آزمون ها هستند. یک راه برای کوتاه شدن زمان شکست، افزایش سطح تنش، در واحدهای آزمودنی می باشد؛ که در این صورت واحدها زودتر از زمانی که تحت شرایط طبیعی قرار می گیرند، با شکست مواجه می شوند. این روش، آزمون عمر شتابیده نامیده می شود. یکی از انواع متداول این آزمون ها، آزمون عمر شتابیده تنش گام به گام است. در این روش تنش اعمال شده به واحدهای تحت آزمون، به طور گام به گام و در زمان های از پیش تعیین شده افزایش می یابد. مهم ترین گام در مواجه با آزمون تنش گام به گام، بهینه کردن طرح این آزمون می باشد. منظور از بهینه کردن طرح آزمون، انتخاب بهترین زمان برای افزاش سطح تنش است. در این مقاله، ابتدا مراحل انجام آزمون تنش گام به گام، توضیح داده می شود. سپس این آزمون، برای توزیع نمایی به کاربرده می شود. ازآنجاکه داده های طول عمر، اغلب به طور کامل مشاهده نمی شوند؛ این مدل را برای داده های سانسور شده نوع اول به کار می بریم و با به حداقل رساندن واریانس مجانبی برآورد قابلیت اطمینان در زمان $xi$ به بهینه سازی طرح آزمون، می پردازیم. نهایتا، نتایج با استفاده از مطالعات شبیه سازی و داده واقعی، موردبررسی قرار می گیرند. با توجه به آنالیز حساسیت، نتیجه می شود که طرح بهینه این آزمون پایدار می باشد.

    کلیدواژگان: آزمون عمر شتابیده، آنالیز حساسیت، تنش گام به گام، توزیع نمایی، سانسور نوع اول
  • زهره شیشه بر*، سید مرتضی نجیبی، سکینه رمضانی صفحات 65-74

    دنباله ای از توابع (منحنی ها) که در طول زمان جمع آوری می شوند را یک سری زمانی تابعی گویند. فراوانی چنین مشاهداتی تحلیل سری های زمانی تابعی را به یکی از شاخه های محبوب تحقیقاتی در علم آمار تبدیل کرده است. هدف اصلی از تحلیل سری زمانی تابعی، پیش بینی و توصیف کمی مکانیسم های تصادفی است که منجر به تولید توابع شده است. در این راستا نیاز است سری زمانی تابعی به مولفه های روند، دوره های زمانی و خطا تجزیه شود. اما قبل از تجزیه نیاز به شناسایی و تشخیص این گونه مولفه ها داریم. ازاین رو در این مقاله یک روش ناپارامتری برای بررسی و تشخیص وجود روند در یک سری زمانی تابعی با استفاده از توابع رکورد معرفی شده است. سپس با پیاده سازی و استفاده از این روش در یک سری زمانی تابعی نحوه کاربرد آن موردتحقیق قرارگرفته است. در پایان نیز کارایی این روش برای تشخیص روند در یک مجموعه از داده های واقعی نرخ باروری موردبررسی قرارگرفته است.

    کلیدواژگان: داده های تابعی، سری زمانی تابعی، روند، تابع رکورد، تابع ماکسیمم
  • ابوذر بازیاری* صفحات 75-80

    متاسفانه در چند سال اخیر، کاهش سطح انگیزه ی تحصیلی بین دانشجویان در مقاطع مختلف تحصیلی رشد فزاینده ای داشته و گریبان گیر بسیاری از واحدهای آموزشی دانشگاه های کشور شده و این می تواند اثرات مخرب و غیرقابل جبران در آینده ی نه چندان دوری داشته باشد. در این پژوهش، با استفاده از تحلیل آماری از تعدادی پرسشنامه به بررسی عوامل اجتماعی روی بی انگیزگی دانشجویان دانشگاه خلیج فارس بوشهر پرداخته و ارتباط هر کدام از متغیرها مانند وضعیت شغلی، مقدار درآمد تحصیل کرده ها، جنسیت، وضعیت تاهل، میزان درآمد خانواده، مطالب ارایه شده در کتاب های درسی، امکانات آموزشی دانشگاه و شرایط آب و هوایی با بی انگیزگی تحصیلی دانشجویان موردبررسی قرارگرفته شده است. از روش نمونه گیری خوشه ای دومرحله ای نابرابر برای جمع آوری داده های نمونه و اطلاعات موردنیاز، استفاده شده و روش تحلیل عاملی چندمتغیره جهت بررسی همبستگی درونی متغیرها و نیز یافتن عامل های اصلی با پیش بینی مقدار واریانس متغیرها توسط عامل ها، به کار گرفته شده است. همچنین به بررسی تاثیر متغیرها روی انگیزه ی تحصیلی دانشجویان پرداخته شده است.

    کلیدواژگان: آزمون آماری، تحلیل عاملی، نمونه گیری خوشه ای دومرحله ای، همبستگی متغیرها
  • زهرا نیکنام*، محمدرضا کاظمی صفحات 81-94

    توزیع کاماراسوامی یک توزیع دو پارامتری روی بازه (0,1) است که بسیار شبیه به توزیع بتاست. این توزیع اغلب مدلی مناسب برای متغیرهای تصادفی هستند که بین دو کران متناهی یعنی یک کران بالا و یک کران پایین تغییر می کنند، مانند نسبت افرادی از جامعه که در یک فاصله ی زمانی معین فرآورده ی خاصی را مصرف می کنند. در این مقاله، ضمن معرفی خانواده توزیع های G-کاماراسوامی رفتار توابع قابلیت اعتماد مانند توابع نرخ خطر، نرخ خطر معکوس، میانگین باقی مانده عمر و گذشته ی عمر در آن ها را موردمطالعه قرار می دهیم. همچنین ترتیب های تصادفی را در خانواده توزیع های G-کاماراسوامی بررسی می کنیم. درنهایت در قالب یک مثال کاربردی، قابلیت برازش توزیع کاماراسوامی را در داده های واقعی مورد تجزیه و تحلیل قرار می دهیم.

    کلیدواژگان: تابع نرخ خطر، ترتیب های تصادفی، قابلیت اعتماد، لگ مقعر، میانگین باقی مانده عمر، نرخ خطر معکوس
  • لیلی فرجی گاوگانی*، پروین سربخش، محمد اصغری جعفرآبادی، مرتضی شمشیرگران صفحات 95-103

    سطح زیر منحنی راک یک معیار مرسوم برای ارزیابی عملکرد طبقه بندی بیومارکر ها است. در عمل یک بیومارکر قدرت طبقه بندی محدودی دارد لذا برای بهبود عملکرد طبقه بندی، علاقه مند به ترکیب مقادیر مربوط به بیومارکر ها به صورت خطی و غیرخطی هستیم در این مطالعه ضمن معرفی انواع توابع زیان، به معرفی روش Ramp AUC و برخی ویژگی های آن به عنوان یک مدل آماری مبتنی بر سطح زیر منحنی راک پرداخته می شود. این مدل جهت ترکیب بیومارکرها به شکل خطی یا غیرخطی باهدف بهبود عملکرد طبقه بندی و مینیمم کردن تابع زیان تجربی بر اساس تابع زیان Ramp AUC ارایه شده است. به عنوان مثال کاربردی، در این مطالعه از داده های 378 بیمار دیابتی مراجعه کننده به مراکز دیابتی اردبیل و تبریز در سال 1394-1393 استفاده شده است. جهت طبقه بندی بیماران دیابتی از لحاظ وضعیت محدودیت عملکردی بر مبنای بیومارکر های جمعیت شناختی و بالینی از روش RAUC  استفاده گردید. اعتبارسنجی مدل به روش آموزش و آزمایش انجام شد. بر اساس نتایج گروه آزمایش، مقادیر سطح زیر منحنی به دست آمده برای مدل RAUC با ترکیبات خطی از بیومارکرها در قالب هسته خطی برابر 0.81  و با هسته تابع پایه شعاعی برابر 1.00 می باشد. نتایج بیانگر وجود یک الگوی غیرخطی قوی در داده ها می باشد به طوری که ترکیبات غیرخطی از بیومارکرها عملکرد طبقه بندی بالاتری نسبت به ترکیبات خطی را دارا می باشند.

    کلیدواژگان: تابع هسته، تابع زیان، سطح زیر منحنی راک، طبقه بندی، محدودیت عملکردی
  • منا احسانی جوکندان*، بهروز فتحی واجارگاه صفحات 105-113

    در این مقاله تفاوت میان رگرسیون کلاسیک و رگرسیون فازی مورد بحث و بررسی قرار گرفته است. در رگرسیون فازی داده های غیرفازی و فازی را می توان برای مدل بندی استفاده کرد. در حالی که در رگرسیون کلاسیک  فقط از داده های غیر فازی استفاده می شود. هدف بررسی روش رگرسیون امکانی، روش رگرسیون کمترین مربعات مبتنی بر رگرسیون امکانی و روش هیبرید رگرسیون خطی کمترین مربعات بر اساس حساب فازی وزنی برای ورودی غیرفازی و خروجی فازی با استفاده از اعداد فازی مثلثی متقارن می باشد و در ادامه اندازه قابلیت اطمینان، فاصله اطمینان و معیار نیکویی برازش برای انتخاب مدل بهینه ارایه شده است. در آخر با ارایه مثال هایی رفتار روش های مطرح شده را مورد بررسی قرار داده و بهینگی مدل هیبرید رگرسیون کمترین مربعات خطی فازی نشان داده می شود.

    کلیدواژگان: رگرسیون هیبرید، اندازه قابلیت اطمینان، رگرسیون امکانی، کمترین مربعات فازی، حساب فازی وزنی
|
  • Pages 1-8

    In the analysis of Bernoulli's variables, an investigation of the their dependence is of the prime importance. In this paper, the distribution of the Markov logarithmic series is introduced by the execution of the first-order dependence among Bernoulli variables. In order to estimate the parameters of this distribution, maximum likelihood, moment, Bayesian and also a new method which called the expected Bayesian method (E-Bayesian) are employed. In continuation, using a simulation study, it is shown that the expected Bayesian estimator out performed over the other estimators.

    Keywords: Markov Logarithmic Series Distribution, Bayesian Estimation, E-Bayes Estimation, Maximum Likelihood Estimation, Moment Estimation, Mean Square Error
  • Pages 9-14

    The analysis of discrete mixed responses is an important statistical issue in various sciences. Ordinal and overdispersed binomial variables are discrete. Overdispersed binomial data are a sum of correlated Bernoulli experiments with equal success probabilities. In this paper, a joint model with random effects is proposed for analyzing mixed overdispersed binomial and ordinal longitudinal responses. In this model, we assume an overdispersed binomial response variable follows Beta-Binomial distribution and use a latent variable approach for modeling the ordinal response variable. Also, the model parameters are estimated via the Maximum Likelihood method, and the estimates are evaluated with a simulation study via the Monte Carlo method. Finally, an application of the proposed model to real data is introduced.

    Keywords: Maximum Likelihood Method, Overdispersed Binomial Variable, Beta-Binomial distribution, Latent Variable Approach, BHPS Data
  • Akram Heidari Garmianaki*, Mehrdad Niaparast Pages 15-23

    In the present era, classification of data is one of the most important issues in various sciences in order to detect and predict events. In statistics, the traditional view of these classifications will be based on classic methods and statistical models such as logistic regression. In the present era, known as the era of explosion of information, in most cases, we are faced with data that cannot find the exact distribution. Therefore, the use of data mining and machine learning methods that do not require predetermined models can be useful. In many countries, the exact identification of the type of groundwater resources is one of the important issues in the field of water science. In this paper, the results of the classification of a data set for groundwater resources were compared using regression, neural network, and support vector machine. The results of these classifications showed that machine learning methods were effective in determining the exact type of springs.

    Keywords: neural networks, support vector machine, logistic regression
  • Pages 25-35

    One of the most common censoring methods is the progressive type-II censoring. In this method of censoring, a total of $n$ units are placed on the test, and at the time of failure of each unit, some of the remaining units are randomly removed. This will continue to record $m$ failure times, where $m$ is a pre-determined value, and then the experiment ends. The problem of determining the optimal censoring scheme in the progressive type-II censoring has been studied so far by considering different criteria. Another issue in the progressive type-II censoring is choosing the sample size at the start of the experiment, namely $n$. In this paper, assuming the Pareto distribution for the data, we will determine the optimal sample size, $n_ {opt}$, as well as the optimal censoring scheme by means of the Fisher Information. Finally, to evaluate the results, numerical calculations have been presented by using $R$ software.

    Keywords: Fisher information, Pareto distribution, Optimal censoring scheme
  • Pages 37-42

    The minimum density power divergence method provides a robust estimate in the face of a situation where the dataset includes a number of outlier data.In this study, we introduce and use a robust minimum density power divergence estimator to estimate the parameters of the linear regression model and then with some numerical examples of linear regression model, we show the robustness of this estimator in the face of a dataset which includes a number of outliers.

    Keywords: Belgium telephone call data, Estimation, Maximum likelihood estimator, Minimum density power divergence estimator, Outlier, Robust regression
  • Pages 43-54

    Sometimes, in practice, data are a function of another variable, which is called functional data. If the scalar response variable is categorical or discrete, and the covariates are functional, then a generalized functional linear model is used to analyze this type of data. In this paper, a truncated generalized functional linear model is studied and a maximum likelihood approach is used to estimate the model parameters. Finally, in a simulation study and two practical examples, the model and methods presented are implemented.

    Keywords: Covariance operator, Eigenfunctions, Functional regression, Generalized functional linear model, Karhunen–Loève expansion
  • Pages 55-64

    Life testing often is consuming a very long time for testing. Therefore, the engineers and statisticians are looking for some approaches to reduce the running time. There is a recommended method for reducing the time of failure, such that the stress level of the test units will increase, and then they will fail earlier than normal operating conditions. These approaches are called accelerated life tests. One of the most common tests is called the step stress accelerated life test. In this procedure, the stress applied to the units under the test is increased step by step at a predetermined time. The most important aspect to deal with the step stress model is the optimization of test design. In order to optimize the test plan, the best time to increase the level of stress should be chosen. In this paper, at first the step stress testing described. Then, this test is used for exponential lifetime distribution. Since life data are often not complete, this model is applied to type I censored data. By minimizing the asymptotic variance of the maximum likelihood estimator of reliability at time $xi$, the optimal test plan will be obtained. Finally, the simulation studies and one real data are discussed to illustrate the results. A sensitivity analysis shows that the proposed optimum plan is robust.

    Keywords: Accelerated life test, Sensitivity analysis, Step stress, Exponential distribution, Type I censoring
  • Pages 65-74

    A sequence of functions (curves) collected over time is called a functional time series. Functional time series analysis is one of the popular research areas in which statistics from such data are frequently observed. The main purpose of the functional time series is to predict and describe random mechanisms that resulted in generating the data. To do so, it is needed to decompose functional time series into trend, periodic, and error components. However, we need to identify and recognize these components beforehand. Hence, in this study, a non-parametric method is presented for detecting and testing the existence of a process in a functional time series using record functions. Then, we implement and use this method for investigating the application of this method in a real functional time series. The effectiveness of this method for determining the trend in a set of real data on fertility rates in Australia has been investigated.

    Keywords: Functional Data, Functional Time Series, Trend, Record Functions
  • Pages 75-80

    Unfortunately, in the recent few years, decreasing the level of educational motivation among students at various levels of education has been increasing and has plagued many of the university educational units in the country and this can have devastating and irreparable effects in the near future. In this research, using statistical analysis of the number of questionnaires, social factors are investigated on the motivation of Bushehr Persian Gulf University students and relationship between each of variables such as job status, the income of educated, gender, marital status, family income, presented content in the textbooks, university educational facilities, and weather conditions have been studied with students' educational motivation. The unequal two-stage cluster sampling method is used to collect the sample data and the required information and multivariate factor analysis used to examine the internal correlations of variables and to find the main factors by predicting the variance of variables by the factors. Also, the effect of variables on the students' educational motivation has been studied.

    Keywords: Statistical test, Factor analysis, Two-stage cluster sampling, Correlation of variables
  • Pages 81-94

    The Kumaraswamy distribution is a two-parameter distribution on the interval (0,1) that is very similar to beta distribution. This distribution is applicable to many natural phenomena whose outcomes have lower and upper bounds, such as the proportion of people from society who consume certain products in a given interval. In this paper, we introduce the family of Kumaraswamy-G distribution, and we detect its hazard rate function, reversible hazard rate function, mean residual life function, mean past life function, and the behavior of each of them. Also, we investigate the stochastic order concept of the family of Kumaraswamy-G distribution. Finally, in the form of a practical example, we analyze the suitability of the Kumaraswamy distribution for real data.

    Keywords: hazard rate function, stochastic order, reliability, log concave, mean residual life function, reversed hazard rate function
  • Pages 95-103

    The Area under the ROC Curve (AUC) is a common index for evaluating the ability of the biomarkers for classification. In practice, a single biomarker has limited classification ability, so to improve the classification performance, we are interested in combining biomarkers linearly and nonlinearly. In this study, while introducing various types of loss functions, the Ramp AUC method and some of its features are introduced as a statistical model based on the AUC index. The aim of this method is to combine biomarkers in a linear or non-linear manner to improve the classification performance of the biomarkers and minimize the experimental loss function by using the Ramp AUC loss function. As an applicable example, in this study, the data of 378 diabetic patients referred to Ardabil and Tabriz Diabetes Centers in 1393-1394 have been used. RAUC method was fitted to classify diabetic patients in terms of functional limitation, based on the demographic and clinical biomarkers. Validation of the model was assessed using the training and test method. The results in the test dataset showed that the area under the RAUC curve for classification of the patients according to the functional limitation, based on the linear kernel pf biomarkers was 0.81 and with a kernel of the radial base function (RBF) was equal to 1.00. The results indicate a strong nonlinear pattern in the data so that the nonlinear combination of the biomarkers had higher classification performance than the linear combination.

    Keywords: kernel function, loss function, Area under the ROC Curve, classification, functional limitation
  • Mona Ehsani Jokandan*, Behrouz Fathi Vajargah Pages 105-113

    In this paper, the difference between classical regression and fuzzy regression is discussed. In fuzzy regression, nonphase and fuzzy data can be used for modeling. While in classical regression only non-fuzzy data is used.The purpose of the study is to investigate the possibility of regression method, least squares regression based on regression and linear least squares linear regression method based on fuzzy weight calculation for non-fuzzy input and fuzzy output using symmetric triangular fuzzy numbers. Further reliability, confidence intervals and fitness fit criterion is presented for choosing the optimal model.Finally, by providing examples of the behavior of the proposed methods, the optimality of the regression hybrid model is shown by the least linear fuzzy squares.

    Keywords: hybrid regression, reliability measures, possibilistic regression, fuzzy regression, weighted fuzzy arithmetic