فهرست مطالب

پژوهشهای ریاضی - سال چهارم شماره 1 (بهار و تابستان 1397)
  • سال چهارم شماره 1 (بهار و تابستان 1397)
  • تاریخ انتشار: 1397/05/31
  • تعداد عناوین: 8
|
  • تابان باغفلکی * صفحات 1-20
    طراحی پژوهش ها به صورت طولی در تحقیقات بسیاری در علوم به ویژه علوم پزشکی، اقتصادی و اجتماعی رایج است، زیرا این نوع پژوهش ها به محققان اجازه می دهد تا تغییرات هر آزمودنی در طول زمان را واکاوی کنند و معمولا دارای توان آماری بالاتری نسبت به پژوهش های مقطعی هستند. انتخاب اندازۀ نمونۀ مناسب قدمی حیاتی در انجام پژوهشی موفق است. یک پژوهش با اندازۀ نمونۀ ناکافی ممکن است توان آماری نسبتا کمی برای تشخیص اثرهای معنی دار داشته باشد و ممکن است منجر به پاسخ های نادرستی برای سؤال های مهم تحقیق شود. از طرف دیگر، یک پژوهش با اندازۀ نمونه بیش از اندازه باعث اتلاف منابع و هزینه ها می شود. انتخاب مقدار دقیق نمونه شانس تشخیص اثر عامل ها را افزایش می دهد و این اطمینان به دست می آید که پژوهش مقرون به صرفه است. هم چنین، از آن جا که بسیاری از پژوهش های پزشکی بر موجودات زنده انجام می شود از این رو، انتخاب اندازۀ نمونه مناسب جنبۀ اخلاقی طرح های پژوهشی را نیز مدنظر قرار می دهد. در پژوهش های طولی به دلیل پیچیدگی طرح آزمایش ها به این صورت که شامل انتخاب تعداد آزمودنی و تعداد اندازه های مکرر است، انتخاب اندازۀ نمونه کم تر بررسی شده است. در این مقاله با استفاده از روشی بر مبنای شبیه سازی به تعیین اندازۀ نمونه از دیدگاه بیزی می پردازیم. برای این منظور چندین معیار تعیین اندازۀ نمونه بیزی برای مدل طولی حاشیه ای به کار برده می شود. در اکثر روش های تعیین اندازۀ نمونه آزمونی فرض در نظر گرفته می شود، و بر مبنای آن اندازۀ نمونه تعیین می شود. در این مقاله علاوه براین وضعیت، به تعیین اندازۀ نمونه برای حالت آزمون فرض چندگانه نیز پرداخته می شود. با استفاده از چندین مثال روش پیشنهادی به کار گرفته می شود.
    کلیدواژگان: تحلیل بیزی، داده های طولی، مدل حاشیه ای، توزیع پسینی، معیار توان بیزی
  • سید عباس محمدی *، سید ابوالحسن تقوی صفحات 21-34
    در این پژوهش بدنبال طراحی و مدل سازی یک غشاء وصله دار ساخته شده از دو ماده گوناگون هستیم چنان که بسامد غشاء بهینه شود. بدین منظور، دو الگوریتم عددی کمینه و بیشینه سازی معرفی شده است. الگوریتم های عددی، چگونگی توزیع این مواد را در ساختار غشاء برای یافتن بسامد بهینه معین می کنند. همگرایی هر دو الگوریتم را ثابت خواهیم کرد. نتایج عددی ارائه شده، کارایی الگوریتم ها را در طراحی غشاء های با بسامد بهینه برای هندسه های گوناگون، نمایش می دهند.
    کلیدواژگان: غشاء وصله دار، تجدید آرایش تابع، بهینه سازی
  • جمشید سعیدیان *، سجاد جلیلیان صفحات 35-44
    در این مقاله نوع خاصی از مسئلۀ درون یابی حافظ شکل را بررسی می کنیم که در آن داده ها به کمک دو خم درجۀ دو، به عنوان کران بالا و پایین، محدود شده اند. هدف ارائۀ یک درون یاب است که در ضمن هموار بودن در محدودۀ کران بالا و پایین تحمیل شده به وسیلۀ مسئله بیافتد، به عبارت دقیق تر، نمودار هندسی درون یاب به طور کامل بین دو سهمی از پیش معلوم قرار بگیرد. برای حل این مسئله از اسپلاین مکعبی ارمیت استفاده می کنیم، این خانواده از اسپلاین ها شرط همواری درجۀ اول را دارند و مجهز به پارامترهای کمکی هستند که می توان از آن ها برای اعمال محدودیت های دیگر کمک گرفت. با اعمال محدودیت ها و حل یک مسئلۀ برنامه ریزی خطی به نمودار جواب می رسیم. برای رسیدن به جواب های می توانیم از تکنیک مینیمم سازی انرژی استفاده کنیم
    کلیدواژگان: حفظ شکل، درون یابی مقید، اسپلاین مکعبی ارمیت
  • محسن علی پور *، خانم سیده ساجده حسینی پاشاکلایی صفحات 45-62
    در این مقاله، با استفاده از چندجمله ای های لژاندر انتقال یافته، توابع سه متغیره را تقریب می زنیم. سپس ماتریس های عملیاتی مشتق کسری کاپوتو در حالت یک بعدی و دو بعدی و همچنین ماتریس های عملیاتی انتگرال کسری ریمان-لیوویل را با استفاده از چندجمله ای های لژاندر انتقال یافته معرفی می نمائیم. با بکارگیری این مفاهیم بر روی معادله تلگراف دو بعدی با مشتقات کسری فضا-زمان، مسئله موردنظر به حل دستگاهی از معادلات جبری تبدیل خواهد شد که براحتی قابل حل می باشد. برای نشان دادن کارایی و دقت روش مطرح شده، دو مثال آورده شده است.
    کلیدواژگان: ماتریس های عملیاتی، مشتق کسری کاپوتو، انتگرال کسری ریمان-لیوویل، چندجمله ای های لژاندر انتقال یافته، معادله تلگراف دوبعدی با مشتقات کسری
  • آزاده کیاپور * صفحات 63-74
    در این مقاله، چند آزماورد انقباضی و یک برآوردگر انقباضی بیزی برای پارامتر مقیاس توزیع طول عمر رایلی براساس نمونه های سانسورشده تحت تابع زیان توان دوم خطای پایای مقیاس ارائه می شود. بهترین برآوردگر خطی نااریب و مخاطره آن تحت تابع زیان مورد بررسی محاسبه می شود. آزماوردهای انقباضی براساس رد یا پذیرش یک فرضیۀ صفر مبنی برتساوی پارامتر واقعی با یک مقدار حدسی معرفی و مخاطره آن ها به دست می آیند. برای مقایسۀ عملکرد آزماوردهای انقباضی و بهترین برآوردگر خطی نااریب، کارایی نسبی بین آن ها محاسبه می شود. با استفاده از یک روش بیزی، برآوردگر انقباضی بیزی را به دست آورده و رفتار آن را نسبت به بهترین برآوردگر خطی نااریب با محاسبه کارایی نسبی مورد بررسی قرار می دهیم. یک مثال عددی برای تشریح برآوردگرهای پیشنهادی ارایه شده است.
    کلیدواژگان: برآوردگر انقباضی، تابع زیان توان دوم خطای پایای مقیاس، توزیع رایلی
  • مجید گازر ، نسرین صدری * صفحات 75-90
    نظریۀ صورت بهنجار یکی ازمهم ترین ابزارها برای تجزیه وتحلیل موضعی دستگا ه های دینامیکی در نزدیکی نقاط تعادل و جواب های تناوبی است. ایدۀ اصلی در این نظریه استفاده از قسمت خطی دستگاه است که با اعمال تغییر متغیرهای حالت به ساده کردن دستگاه اولیه کمک می کند. دستگاه معادلات دیفرانسیل همگن با فضای حالت دوبعدی را در نظر بگیرید که قسمت خطی آن یک جفت مقدار ویژه موهومی دارد (تکینی هوپف). تا کنون تنها ضرایب لیاپونوف تا مرتبه 2، برای این دستگاه های تکین محاسبه شده است. در این مقاله با به کارگیری ابزار جبر لی، ضرایب صورت بهنجار (ضرایب لیاپونوف) را برای این دستگاه، تا مرتبه 3 بر حسب مشتقات قسمت غیرخطی محاسبه می کنیم. هم چنین به کمک ابزار های نظریه انفراد، شکافت سراسری را برای این گونه دستگاه ها در حالت کلی محاسبه می کنیم. و متناظرا ثابت می کنیم که بررسی نقاط تعادل و مدارهای تناوبی حدی یک دستگاه تکین هوپف تعمیم یافته (کانونی ضعیف از مرتبۀ k) با بسط تیلور صورت بهنجار تا درجه به صورت کامل مشخص می شود و انشعابات متناظر برای دستگاه تکین هوپف و هوپف تعمیم یافته با مرتبۀ کانونی 2 را تحلیل می کنیم. در پایان معادلات دستگاه لینار و یک مدار الکتریکی غیرخطی را به کمک روابط ریاضی، مدل سازی و صورت بهنجار را برای آن ها محاسبه می کنیم.
    کلیدواژگان: صورت بهنجار، تکینی هوپف، ضرایب کانونی، دستگاه لینار، مدار الکتریکی غیرخطی
  • فرشید میرزایی *، نسرین صمدیار صفحات 91-104
    در این مقاله به حل عددی معادلات انتگرال ولترا تصادفی منفرد ضعیف با استفاده از ماتریس های عملیاتی چندجمله ای های اویلر می پردازیم. برای این منظور ابتدا ماتریس عملیاتی و ماتریس عملیاتی تصادفی چندجمله ای های اویلر را به دست می آوریم. تمامی توابع موجود در معادلۀ انتگرال ولترا تصادفی را با استفاده از سری چندجمله ای های اویلر تقریب زده و سپس از ماتریس های عملیاتی چندجمله ای های اویلر استفاده می کنیم. با این کار حل معادلۀ انتگرال ولترا تصادفی منفرد ضعیف به حل یک دستگاه معادلات جبری تبدیل می شود، که با روشی مناسب می توان آن را حل کرد. سپس کران بالای خطای روش مطرح شده برای حل معادلات انتگرال ولترا تصادفی منفرد ضعیف را اثبات می کنیم. هم چنین برای بررسی دقت و کارایی روش چند مثال عددی ارائه می شود. نتایج ارائه شده با استفاده از اجرا کردن برنامه ای نوشته شده در نرم افزار متلب به دست آمده است.
    کلیدواژگان: معادلات انتگرال ولترا تصادفی، معادلات انتگرال ولترا منفرد ضعیف، ماتریس های عملیاتی، چندجمله ای های اویلر
  • لیدر نوایی *، رسول ایماز صفحات 105-114
    بر اساس نظریۀ نمونه گیری کلاسیک، خطاهایی که به طور عمده در برآوردها بررسی شده اند، خطاهای نمونه گیری است. اگر چه، اغلب خطاهای غیر نمونه گیری در خواص برآوردگرها مؤثرتر از خطاهای نمونه گیری هستند. این امر را پژوهش گران در طول دو دهۀ اخیر تایید کرده است، خصوصا در رابطه با خطاهای عدم پاسخ که یکی از اساسی ترین خطاهای غیرنمونه گیری است. بیش تر پژوهش های انجام گرفته، خطاهای غیرنمونه گیری را به صورت جداگانه بررسی کرده اند، هر چند معمولا در حالت واقعی دو یا چند خطای غیرنمونه گیری به صورت هم زمان رخ می دهند. در این مقاله دو نوع از خطاهای غیرنمونه گیری در مرحلۀ برآورد ملاحظه می شود: خطای اندازه گیری و خطای عدم پاسخ. یک برآوردگر جدید برای برآورد میانگین جامعه با وجود خطاهای اندازه گیری و عدم پاسخ پیشنهاد شده است. از لحاظ نظری و تجربی نشان داده شده است که برآوردگر پیشنهاد شده از برآوردگر نااریب هنسن و هورویتس و دیگر برآوردگرهای موجود کارایی بیش تری دارد.
    کلیدواژگان: میانگین جامعه، برآوردگر نمایی، میانگین مربعات خطا، خطای اندازه گیری، عدم پاسخ، مراجع? مجدد
|
  • Taban Baghfalaki Dr * Pages 1-20
    Introduction
    Longitudinal study designs are common in a lot of scientific researches, especially in medical, social and economic sciences. The reason is that longitudinal studies allow researchers to measure changes of each individual over time and often have higher statistical power than cross-sectional studies. Choosing an appropriate sample size is a crucial step in a successful study. A study with insufficient sample size may have a small statistical power to detect significant effects and may lead to incorrect answers to many important research questions. On the other hand, a study with more than what a sample size should be wastes the resources and budget. In longitudinal studies, because of the complexity of the design of experiment, including the selection of the number of individuals and the number of repeated measurements, the sample size determination is less studied. This paper uses a simulation-based method to determine the sample size from a Bayesian perspective. For this purpose several Bayesian criteria of sample size determination for a longitudinal study using marginal model are used. Most of the methods of determining the sample size are based on creation of one hypothesis. In this paper, in addition to using this method, we also present a method to determine the sample size for multiple hypothesis testing. Using several examples the proposed Bayesian methods are discussed. Material and method: Based on the Bayesian sample size determination approach proposed by Wang and Gelfand (2002), which is a simulation-based approach, two sets of priors are considered. The first set is called the “fitting” or “analysis” priors which are used for analyzing data. The other set of priors is called “design” or “sampling” sets which drawing upon expertise, we may speculate upon a variety of informative scenarios regarding the unknown parameters and capture each with a suitable sampling prior. In the first step of the simulation-based approach, one generates the parameters from the design priors then a sample from the generated parameters is obtained. Note that the frequentist/classical viewpoint of the sample size determination approach require a point estimate of the variance and the smallest meaningful difference (Diggle et al., 2002). This information is elicited based on pilot data or the opinion of experts. The use of design priors in the proposed approach of Wang and Gelfand (2002) replaces this part of the classical sample size determination approach. After generating data using the design priors in this stage, they are analyzed by the fitting priors. In this paper, non-informative priors are used as fitting priors, as we assume there is no prior information or any expert opinion to be used to construct a prior distribution. If there is any prior information to be used to elicit an appropriate prior distribution, one may use it in the step of fitting prior and for sure, if the specification of the prior is correct, will achieve a better result. Also, in this paper, four criteria are used for determining sample size in longitudinal studies: Bayesian power criterion (BPC), average length criterion (ALC), average posterior variance criterion (APVC) and average converge criterion (ACC).
    The simulation-based approach of Wang and Gelfand (2002) can be summarized as follows: Specify the value of the effect of an important regression coefficient which is the interest parameter and specify the design and fitting priors.
    For each sample size, the following steps are repeated M times: Generate values of the unknown parameters from their design priors.
    Simulate the values of covariates from continuous or discrete distributions and the response variable from its distribution.
    Analyze the generated data set of step (ii) using the fitting priors.
    Calculate BPC.
    Fit a curve or surface through Bayesian power values and find an adequate sample size for a desired power using interpolation. In this paper, the curve is fitted using a polynomial regression. In step 2(iv), one can calculate ACC, APVC, or ALC and determine the sample size based on these criteria.
    Keywords: Bayesian analysis, longitudinal data, marginal model, posterior distribution, Bayesian power criterion
  • Seyyed Abbas Mohammadi *, Seyyed Abolhasan Taghavi Pages 21-34
  • jamshid saeidian * Pages 35-44
    Introduction
    In industrial designing and manufacturing, it is often required to generate a smooth function approximating a given set of data which preserves certain shape properties of the data such as positivity, monotonicity, or convexity, that is, a smooth shape preserving approximation.
    It is assumed here that the data is sufficiently accurate to warrant interpolation, rather than least squares or other approximation methods. The shape preserving interpolation problem seeks a smooth curve/surface passing through a given set of data, in which we priorly know that there is a shape feature in it and one wishes the interpolant to inherit these features. One of the hidden features in a data set may be its boundedness. Therefore, we have a data set, which is bounded, and we already know that. This happens, for example, when the data comes from a sampling of a bounded function or they reflect the probability or efficiency of a process.
    Scientists have proposed various shape-preserving interpolation methods and every approach has its own advantages and drawbacks. However, anyone confesses that splines play a crucial role in any shape-preserving technique and every approach to shape-preserving interpolation, more or less, uses splines as a cornerstone.
    This study concerns an interpolation problem, which must preserve boundedness and needs a smooth representation of the data so the cubic Hermite splines are employed.
    Keywords: Shape-preserving, Constrained Interpolation, Cubic Hermite Splines
  • m. alipour * Pages 45-62
    Fractional differential equations (FDEs) have attracted in the recent years a considerable interest due to their frequent appearance in various fields and their more accurate models of systems under consideration provided by fractional derivatives. For example, fractional derivatives have been used successfully to model frequency dependent damping behavior of many viscoelastic materials. They are also used in modeling of many chemical processed, mathematical biology and many other problems in engineering. The history and a comprehensive treatment of FDEs are provided by Podlubny and a review of some applications of FDEs are given by Mainardi.
    Keywords: Operational matrices, Caputo fractional derivative, Riemann-Liouville fractional integral, Shifted Legendre polynomials, Two-dimensional space-time fractional telegraph equation
  • Azadeh Kiapour * Pages 63-74
    Introduction
    In classical methods of statistics, the parameter of interest is estimated based on a random sample using natural estimators such as maximum likelihood or unbiased estimators (sample information). In practice, the researcher has a prior information about the parameter in the form of a point guess value. Information in the guess value is called as nonsample information. Thompson (1968) proposed a shrinkage estimator by combining sample and nonsample information which is a linear combination of a natural estimator and the guess value.
    The best linear unbiased estimator and it's risk is computed under the considered loss function. Shrinkage testimators are proposed based on the acceptance or rejection of a null hypothesis of the form equality or guess value and the true value of the parameter and their risks are computed. The relative efficiency of shrinkage testimators and the best linear unbiased estimator is calculated for the comparison of them. In Bayesian approaches, a Bayes estimator is derived by employing a flexible prior distribution for the parameter of interest. A Bayesian shrinkage estimator is provided using a Bayesian shrinkage approach and its performance is compared with the best linear unbiased estimator via the relative efficiency of them. Finally, a numerical example is used for illustrating the results. Results and discusion: The results show that the shrinkage testimators have higher efficiency than the best linear estimator when the guess value is close to the true value of the parameter. Our findings show that the Bayes shrinkage estimator outperforms the best linear estimator if the prior point information about the value of the parameter is not too far from its true value. Moreover, the Bayes shrinkage estimator performs well with respect to the best linear estimator for guess value in the vicinity of true value. In this case, the Bayes shrinkage estimators with larger values of hyperparameters outperforms other estimators in neighborhood guess value, when other parameters held fixed.
    Conclusion
    In this paper, some shrinkage testimators and a Bayes shrinkage estimator are proposed for the scale parameter of Rayleigh lifetime distribution based on censored samples under a scale invariant squared error loss function. The following conclusions were drawn from this research: - The shrinkage testimators are better than the best linear estimator for guess value in neighborhood of true value of parameter. Moreover, the first proposed shrinkage testimator have higher efficiency than other testimators for small sample size when the guess value is close to the true value of the parameter.
    - The proposed Bayes shrinkage estimator performs well with respect to the best linear estimator for guess value in the vicinity of true value. Also, the Bayes shrinkage estimators with larger values of hyperparameters outperforms other estimators in neighborhood guess value, when other parameters held fixed.
    Keywords: Shrinkage estimator, Scale invariant squared error loss function, Rayleigh distribution.
  • Majid Gazor , Nasrin Sadri * Pages 75-90
    This paper aims to introduce the original ideas of normal form theory and bifurcation analysis and control of small amplitude limit cycles in a non-technical terms so that it would be comprehensible to wide ranges of Persian speaking engineers and physicists. The history of normal form goes back to more than one hundreds ago, that is to the original ideas coming from Henry Poincare. This tool plays an important role in the bifurcation analysis of dynamical systems. Many phenomena in chemistry, physics, and engineering are modeled by parametric nonlinear differential systems .These systems demonstrate a complicated dynamics, when the parameters reach singular values. Normal form theory is an efficient tool for the local bifurcation analysis of singular nonlinear systems. The main idea relies in using a nonlinear change of coordinates to convert a given vector field into a simple form, which is named normal form.
    In most nonlinear systems, behavior and dynamics is involved with local appearance or disappearance of small amplitude limit cycles. These are called bifurcations of limit cycles and they mostly occur through Hopf or degenerate Hopf bifurcations. Center manifolds and normal form theory are considered as among the most powerful tools for the bifurcations and stability analysis of limit cycles. Indeed, the analysis requires the computation of Lyapunov coefficients. Here we present the first (well-known) and the second Lyapunov coefficients for Hopf and degenerate bifurcations. Lyapunov coefficients: In this paper, we discuss normal form of systems whose linear part has a pair of imaginary eigenvalues (usually referred by Hopf singularity) and compute the first and second Lyapunov coefficients.
    In order to use the bifurcation analysis of a Hopf singularity for bifurcation control purposes, one needs to be able to derive the parametric normal forms of the original system so that the bifurcation analysis for the parametric normal form system would give rise to a bifurcation analysis in terms of the parameters of the original parametric system. We have designed a Maple program for this purpose. Here we merely present the Lyapunov coefficients. The program computes Lyapunov coefficients for systems with parameters and symbolic coefficients.

    Application: Computation of Lyapunov coefficients is not important only in theatrical aspects but also in real world applications. So in last section of the Persian language paper, we apply the method on a well-known system, called Linard system, and a non-linear electrical system in order to illustrate how these tools can be applied in applications.
    We detect Hopf singularity for these two application models and then compute their normal form up to degree 3.
    Keywords: Normal Form, Hopf singularity, focus value, Linard system, Non-linear electrical system
  • Farshid Mirzaee *, Nasrin Samadyar Pages 91-104
    Introduction
    Many problems which appear in different sciences such as physics, engineering, biology, applied mathematics and different branches can be modeled by using deterministic integral equations. Weakly singular integral equation is one of the principle type of integral equations which was introduced by Abel for the first time. These problems are often dependent on a noise source which are neglected due to poor computational tools. So, it is satisfactory to use stochastic models to describe the behaviour of them. Thus, researchers added uncertainty term in the deterministic models and this leads to the stochastic models such as stochastic partial differential equations or stochastic integral equations. Since 1960, by increasing computational power, some random factors are inserted to deterministic integral equations and are created various kinds of stochastic integral equations such as Ito-Volterra integral equations, Ito-Fredholm integral equations, or weakly singular Ito-Volterra integral equations. In more cases, the analytical solution of these equations do not exist or finding their analytic solution is very difficult. Thus, presenting an accurate numerical method is an essential requirement in numerical analysis. Numerical solution of stochastic integral equations because the randomness has its own difficulties. In recent years, some different basis functions have been used to estimate the solution of stochastic integral equations. In this paper, we develop operational matrix method based on Euler polynomials to solve weakly singular Ito-Volterra integral equations. Euler polynomials have received considerable attention in dealing with various problems and equations. Material and methods: In this scheme, we first calculate operational matrix of integration and stochastic operational matrix of integration based on Euler polynomials and then by using these matrices, weakly singular Ito-Volterra integral equation is transformed to a system of algebraic equations which can be solved via a suitable numerical method.
    Results and discussion
    We solve some test examples by using present technique to demonstrate the efficiency, high accuracy and the simplicity of the present method, then compare the proposed method with block-pulse method. The reported results demonstrate that there is a good agreement between approximate solution and exact solution. Also, the numerical results reported in the tables indicate that the accuracy improve by increasing the N. Therefore, to get more accurate results, using the larger N is recommended. Note that, obtained results confirm that proposed method enables us to find some more reasonable approximate solutions than block-pulse method.
    Conclusion
    The following conclusions were drawn from this research. Coefficients of the approximate function via Euler polynomials are found very easily and therefore many calculations are reduced.
    Euler polynomials are simple basis functions, so proposed method is easy to implement and it is a powerful mathematical tool to obtain the numerical solution of various kind of problems with little additional works.
    The main characteristic of this method is that it reduces tht considered problem to a system of algebraic equations which can be easily solved by using direct method or iterative method.
    Keywords: Stochastic integral equations, Volterra integral equations, Singular integral equations, Operational matrix method, Euler polynomials
  • Leader Navaei *, Rasoul Imaz Pages 105-114
    Introduction
    According to the classic sampling theory, errors that are mainly considered in the estimations are sampling errors. However, most non-sampling errors are more effective than sampling errors in properties of estimators. This has been confirmed by researchers over the past two decades, especially in relation to non-response errors that are one of the most fundamental non-immolation errors. More done researches, had studied non-sampling errors individually, however, in practice, two or more non-sampling errors occur together. In this paper, are considered two types of non-sampling errors in the stage of estimation of population mean: measurement error and non-response error. Has been proposed a new estimator for estimating the mean population in the presence of measurement and non-response errors. It has been shown theoretically and experimentally that the proposed estimator is more efficient than the Hansen and Hurwitz's unbiased estimator and other existing estimators. Material and methods: Since we can have populations for which the correlation between the studied variable and the auxiliary variable can be positive or negative simultaneously, for the positive correlation, the ratio estimator, and for the negative correlation, we need an product estimator. Therefore, we need an estimator that can express both conditions. For such populations, it is suggested that the estimator combines the ratio exponentiol estimator and the product exponentiol estimator using the probability balance method.
    Results and discussion
    The effect of measurement and non-response errors on the population mean is simultaneously examined and has been proposed a class of new estimators for the estimation of the mean of the variable population studied, when the measurement and non-response errors occur in both variable studied, and the proposal . The proposed estimator is compared with some of the existing estimators both theoretically and empirically, and it has been shown that in either case the proposed estimator is more efficient than the other estimators.
    Conclusion
    The following conclusions were drawn from this research. In each of the six communities, the proposed estimator is better than the other estimators.
    proposed method is easy to implement and it is a powerful mathematical tool to obtain the new population mean estimators with little additional works.
    Keywords: Population mean, Exponentiol estimator, Mean squared error, Measurement error, Non-response, second referral