• فهرست مقالات unconstrained optimization

      • دسترسی آزاد مقاله

        1 - تصحیح فرمول جستجوی خطی در روش BFGS برای رسیدن به همگرایی سراسری
        سید علیرضا حسینی دهمیری منصوره حمزه نژاد
        مسائل برنامه‌ریزی غیرخطی در گروه مسائل پرکاربرد بهینه‌سازی در دنیای واقعی قرار دارند. تابع هدف این گونه از مسائل، علاوه بر غیرخطی بودن، در بیشتر موارد غیرمحدب است. این در حالی است که برای تضمین همگرایی سراسری در الگوریتم‌هایی که بر اساس روش نیوتن برای حل این مسائل پیشنه چکیده کامل
        مسائل برنامه‌ریزی غیرخطی در گروه مسائل پرکاربرد بهینه‌سازی در دنیای واقعی قرار دارند. تابع هدف این گونه از مسائل، علاوه بر غیرخطی بودن، در بیشتر موارد غیرمحدب است. این در حالی است که برای تضمین همگرایی سراسری در الگوریتم‌هایی که بر اساس روش نیوتن برای حل این مسائل پیشنهاد شده‌اند، عموماً شرط تحدب الزامی است. در این بین روش‌های شبه نیوتن بدلیل استفاده از تقریب ماتریس هسی یا وارون آن دارای محبوبیت بیشتری هستند. هر چند که در این الگوریتم‌ها برای تقریب این ماتریس فقط از اطلاعات گرادیان استفاده می‌شود. یکی از کاربردی‌ترین الگوریتم‌های شبه‌نیوتون در حل مسایل برنامه‌ریزی غیرخطی روش BFGS می‌باشد. این مقاله یک ایده‌ی جدید برای جستجوی خطی در روش BFGS ارائه داده و ثابت می‌کند که استفاده از این تکنیک، همگرایی سراسری را برای مسائل کلی بدون نیاز به هیچ شرط اضافه‌ای به دنبال خواهد داشت. در نهایت، کارایی الگوریتم پیشنهاد شده به صورت عددی مورد ارزیابی قرار گرفته است. پرونده مقاله
      • دسترسی آزاد مقاله

        2 - یک روش تندترین کاهش بدون جستجوی خطی برای حل مسائل بهینه‌سازی نامقید
        نرگس بیدآبادی
        در این مقاله به حل مسئله بهینه ‌سازی نامقید با استفاده از یک روش تندترین کاهش بدون استفاده از الگوریتم‌های جستجوی خطی میپردازیم. ابتدا یک فرمول شبه‌ نیوتن مقیاس بندی شده دو پارامتری برای محاسبه تقریبی از ماتریس هسی ارائه می‌دهیم. تقریب به دست آمده از این فرمول، یک ماتری چکیده کامل
        در این مقاله به حل مسئله بهینه ‌سازی نامقید با استفاده از یک روش تندترین کاهش بدون استفاده از الگوریتم‌های جستجوی خطی میپردازیم. ابتدا یک فرمول شبه‌ نیوتن مقیاس بندی شده دو پارامتری برای محاسبه تقریبی از ماتریس هسی ارائه می‌دهیم. تقریب به دست آمده از این فرمول، یک ماتریس معین مثبت است که در رابطه سکانت استاندارد صدق می‌نماید. همچنین نشان می‌دهیم که بزرگترین مقدار ویژه این ماتریس از تعداد متغیرهای مسئله بیشتر نخواهد بود. سپس با استفاده از این فرمول شبه نیوتن مقیاس بندی ‌شده دو پارامتری، فرمول صریحی برای محاسبه طول گام در روش تندترین کاهش ارائه می‌شود و بنابراین این روش نیازی به استفاده از روش‌های تقریبی برای محاسبه طول گام نخواهد داشت. نتایج عددی به دست آمده از اجرای الگوریتم در محیط نرم افزاری متلب بر روی برخی مسائل بهینه سازی ارائه شده است. این نتایج کارایی روش ارائه شده نسبت به سایر روش‌های موجود را نشان می‌دهد. پرونده مقاله
      • دسترسی آزاد مقاله

        3 - یک اصلاح کاهشی مقیاس‌بندی شده از روش گرادیان مزدوج هستنس-اشتیفل با نگاه کاربردی در حسگری فشرده
        علی ابراهیم نژاد زهره امینی فرد سامان بابایی کفاکی
        به منظور بهبود روش گرادیان مزدوج کلاسیک هستنس-اشتیفل، شنگوی و همکاران یک روش گرادیان مزدوج موثر را پیشنهاد کردند که با استفاده از جستجوی خطی ولف قوی (با محدود کردن پارامترهای جستجوی خطی) در خاصیت کافی کاهشی ‎صدق می‌ کند. با الهام از توسیع مقیاس بندی شده ی روش هستنس- چکیده کامل
        به منظور بهبود روش گرادیان مزدوج کلاسیک هستنس-اشتیفل، شنگوی و همکاران یک روش گرادیان مزدوج موثر را پیشنهاد کردند که با استفاده از جستجوی خطی ولف قوی (با محدود کردن پارامترهای جستجوی خطی) در خاصیت کافی کاهشی ‎صدق می‌ کند. با الهام از توسیع مقیاس بندی شده ی روش هستنس-اشتیفل که اخیرا توسط دانگ و همکاران مطرح شده است، یک اصلاح مقیاس بندی شده از روش گرادیان مزدوج شنگوی و همکاران پیشنهاد می شود که قادر است شرط کافی کاهشی را مستقل از تکنیک جستجوی خطی و بدون فرض تحدب تابع هدف برقرار سازد. همچنین، همگرایی سراسری روش‌ مطرح شده بر اساس فرضیات استاندارد مورد بحث قرار می‌گیرد. به علاوه، یک تقریب هموار برای مساله بهینه‌سازی حسگری فشرده ارائه می شود. عملکرد عددی بر مجموعه‌ای از مسائل کلاسیک از کتابخانه CUTEr و نیز در حل مساله حسگری فشرده مورد ارزیابی قرار می گیرد. نتایج مقایسات برتری رویکرد پیشنهادی را به تصویر می کشند. پرونده مقاله
      • دسترسی آزاد مقاله

        4 - A Three-Term Extension of a Descent Conjugate Gradient Method
        Zohre Aminifard
        In an effort to make modification on the classical Hestenes--Stiefel method, Shengwei et al. proposed an efficient conjugate gradient method which possesses the sufficient descent condition when the line search fulfills the strong Wolfe conditions (by restricting the li چکیده کامل
        In an effort to make modification on the classical Hestenes--Stiefel method, Shengwei et al. proposed an efficient conjugate gradient method which possesses the sufficient descent condition when the line search fulfills the strong Wolfe conditions (by restricting the line search parameters). Here, we develop a three--term extension of the method which guarantees the sufficient descent condition independent to the line search. Also, we establish global convergence of the method using convexity assumption. At last, practical merits of the proposed method are investigated by numerical experiments on a set of CUTEr test functions. The results show numerical efficiency of the method. پرونده مقاله
      • دسترسی آزاد مقاله

        5 - A New Hybrid Conjugate Gradient Method Based on Secant Equation for Solving Large Scale Unconstrained Optimization Problems
        نصیرو صلیحو Mathew Odekunle Mohammed Waziri Abubakar Halilu
        There exist large varieties of conjugate gradient algorithms. In order to take advantage of the attractive features of Liu and Storey (LS) and Conjugate Descent (CD) conjugate gradient methods, we suggest hybridization of these methods in which the parameter is computed چکیده کامل
        There exist large varieties of conjugate gradient algorithms. In order to take advantage of the attractive features of Liu and Storey (LS) and Conjugate Descent (CD) conjugate gradient methods, we suggest hybridization of these methods in which the parameter is computed as a convex combination of and respectively which the conjugate gradient (update) parameter was obtained from Secant equation. The algorithm generates descent direction and when the iterate jam, the direction satisfy sufficient descent condition. We report numerical results demonstrating the efficiency of our method. The hybrid computational scheme outperform or comparable with known conjugate gradient algorithms. We also show that our method converge globally using strong Wolfe condition. پرونده مقاله
      • دسترسی آزاد مقاله

        6 - A Three-terms Conjugate Gradient Algorithm for Solving Large-Scale Systems of Nonlinear Equations
        Mohammed waziri Yusuf
        Nonlinear conjugate gradient method is well known in solving large-scale unconstrained optimization problems due to it’s low storage requirement and simple to implement. Research activities on it’s application to handle higher dimensional systems of nonlinea چکیده کامل
        Nonlinear conjugate gradient method is well known in solving large-scale unconstrained optimization problems due to it’s low storage requirement and simple to implement. Research activities on it’s application to handle higher dimensional systems of nonlinear equations are just beginning. This paper presents a Threeterm Conjugate Gradient algorithm for solving Large-Scale systems of nonlinear equations by incoporating the hyperplane projection and Powel restart approach. We prove the global convergence of the proposed method with a derivative free line search under suitable assumtions. the numerical results are presented which show that the proposed method is promising. پرونده مقاله
      • دسترسی آزاد مقاله

        7 - An Optimum Line Search for Unconstrained Non-Polynomial Test Functions ‎U‎sing Nonlinear Conjugate Gradient Methods
        Adam Ishaq Tolulope Latunde Folashade Jimoh
        The nonlinear conjugate gradient method solves issues of the frame: minimize f(x), x∈Remploying an iterative plot, x(k+1)=x(k)+αk d(k), where f is a non-polynomial function. We utilized two variants of the optimum line search namely, direct and indirect metho چکیده کامل
        The nonlinear conjugate gradient method solves issues of the frame: minimize f(x), x∈Remploying an iterative plot, x(k+1)=x(k)+αk d(k), where f is a non-polynomial function. We utilized two variants of the optimum line search namely, direct and indirect methods, to compute the step-length in this paper. Both line searches yielded a great outcome when employed to a few unconstrained non-polynomial test functions. پرونده مقاله