به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت
جستجوی مقالات مرتبط با کلیدواژه

unconstrained optimization?

در نشریات گروه ریاضی
تکرار جستجوی کلیدواژه unconstrained optimization? در نشریات گروه علوم پایه
تکرار جستجوی کلیدواژه unconstrained optimization? در مقالات مجلات علمی
  • Keyvan Amini *, Mehri Rashidi
    This paper proposes two effective nonmonotone trust-region frameworks for solving nonlinear unconstrained optimization problems while provide a new effective policy to update the trust-region radius. Conventional nonmonotone trust-region algorithms apply a specific nonmonotone ratio to accept  new trial step and update the trust-region radius. This paper recommends using the nonmonotone ratio only as an acceptance criterion for a new trial step. In contrast, the monotone ratio or a hybrid of monotone and nonmonotone ratios is proposed as a criterion for updating the trust-region radius. We investigate the global convergence to first- and second-order stationary points for the proposed approaches under certain classical assumptions.  Initial numerical results indicate that the proposed methods significantly enhance the performance of nonmonotone trust-region methods.
    Keywords: Unconstrained optimization, trust-region framework, trust-region radius, nonmonotone technique
  • Zohre Aminifard *

    In an effort to make modification on the classical Hestenes--Stiefel method, Shengwei et al. proposed an efficient conjugate gradient method which possesses the sufficient descent condition when the line search fulfills the strong Wolfe conditions (by restricting the line search parameters). Here, we develop a three--term extension of the method which guarantees the sufficient descent condition independent to the line search. Also, we establish global convergence of the method using convexity assumption. At last, practical merits of the proposed method are investigated by numerical experiments on a set of CUTEr test functions. The results show numerical efficiency of the method.

    Keywords: Unconstrained optimization, Conjugate gradient method, sufficient descent condition, Global convergence
  • نرگس بیدآبادی*
    در این مقاله به حل مسیله بهینه سازی نامقید با استفاده از یک روش تندترین کاهش بدون استفاده از الگوریتم های جستجوی خطی میپردازیم. ابتدا یک فرمول شبه نیوتن مقیاس بندی شده دو پارامتری برای محاسبه تقریبی از ماتریس هسی ارایه می دهیم. تقریب به دست آمده از این فرمول، یک ماتریس معین مثبت است که در رابطه سکانت استاندارد صدق می نماید. همچنین نشان می دهیم که بزرگترین مقدار ویژه این ماتریس از تعداد متغیرهای مسیله بیشتر نخواهد بود. سپس با استفاده از این فرمول شبه نیوتن مقیاس بندی شده دو پارامتری، فرمول صریحی برای محاسبه طول گام در روش تندترین کاهش ارایه می شود و بنابراین این روش نیازی به استفاده از روش های تقریبی برای محاسبه طول گام نخواهد داشت. نتایج عددی به دست آمده از اجرای الگوریتم در محیط نرم افزاری متلب بر روی برخی مسایل بهینه سازی ارایه شده است. این نتایج کارایی روش ارایه شده نسبت به سایر روش های موجود را نشان می دهد.
    کلید واژگان: روش تندترین کاهش، جستجوی خطی، مسئله بهینه سازی نامقید، فرمول شبه نیوتن مقیاس بندی شده دو پارامتری
    Narges Bidabadi *
    In this paper, we solve unconstrained optimization problem using a free line search steepest descent method. First, we propose a double parameter scaled quasi Newton formula for calculating an approximation of the Hessian matrix. The approximation obtained from this formula is a positive definite matrix that is satisfied in the standard secant relation. We also show that the largest eigen value of this matrix is not greater than the number of variables of the problem. Then, using this double parameter scaled quasi Newton formula, an explicit formula for calculating the step length in the steepest descent method is presented and therefore, this method does not require the use of approximate methods for calculating step length. The numerical results obtained from the implementation of the algorithm in MATLAB software environment are presented for some optimization problems. These results show the efficiency of the proposed method in comparison with other existing methods.
    Keywords: Steepest descent method, Line search, Unconstrained optimization problem, Double parameter scaled quasi-Newton formula
  • S. Babaie-Kafaki *, R. Ghanbari
    Using search directions of a recent class of three--term conjugate gradient methods, modified versions of the Hestenes-Stiefel and Polak-Ribiere-Polyak methods are proposed which satisfy the sufficient descent condition. The methods are shown to be globally convergent when the line search fulfills the (strong) Wolfe conditions. Numerical experiments are done on a set of CUTEr unconstrained optimization test problems. They demonstrate efficiency of the proposed methods in the sense of the Dolan-More performance profile.
    Keywords: Unconstrained optimization?, ?conjugate gradient method?, ?sufficient descent property?, ?line search?, ?global convergence?
  • Mohammed waziri Yusuf *
    Nonlinear conjugate gradient method is well known in solving large-scale unconstrained optimization problems due to it’s low storage requirement and simple to implement. Research activities on it’s application to handle higher dimensional systems of nonlinear equations are just beginning. This paper presents a Threeterm Conjugate Gradient algorithm for solving Large-Scale systems of nonlinear equations by incoporating the hyperplane projection and Powel restart approach. We prove the global convergence of the proposed method with a derivative free line search under suitable assumtions. the numerical results are presented which show that the proposed method is promising.
    Keywords: Unconstrained optimization, systems of nonlinear equations, Conjugate gradient, Derivative free line saerch
  • M. Ahookhosh, K. Amini *, M. Kimiaei, M. R. peyghami
    This study concerns with a trust-region-based method for solving unconstrained optimization problems. The approach takes the advantages of the compact limited memory BFGS updating formula together with an appropriate adaptive radius strategy. In our approach, the adaptive technique leads us to decrease the number of subproblems solving, while utilizing the structure of limited memory quasi-Newton formulas helps to handle large-scale problems. Theoretical analysis indicates that the new approach preserves the global convergence to a first-order stationary point under classical assumptions. Moreover, the superlinear and the quadratic convergence rates are also established under suitable conditions. Preliminary numerical experiments show the effectiveness of the proposed approach for solving large-scale unconstrained optimization problems.
    Keywords: Unconstrained optimization?, ?trust, region? ?framework?, ?compact quasi, Newton representation?, ?limited memory? ?technique?, ?adaptive strategy
  • Saman Babaie-Kafaki
    Based on an eigenvalue analysis, a new proof for the sufficient descent property of the modified Polak-Ribière-Polyak conjugate gradient method proposed by Yu et al. is presented.
    Keywords: Unconstrained optimization, Conjugate gradient algorithm, Sufficient descent condition, Eigenvalue
نکته
  • نتایج بر اساس تاریخ انتشار مرتب شده‌اند.
  • کلیدواژه مورد نظر شما تنها در فیلد کلیدواژگان مقالات جستجو شده‌است. به منظور حذف نتایج غیر مرتبط، جستجو تنها در مقالات مجلاتی انجام شده که با مجله ماخذ هم موضوع هستند.
  • در صورتی که می‌خواهید جستجو را در همه موضوعات و با شرایط دیگر تکرار کنید به صفحه جستجوی پیشرفته مجلات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال