مسائل برنامهریزی غیرخطی در گروه مسائل پرکاربرد بهینهسازی در دنیای واقعی قرار دارند. تابع هدف این گونه از مسائل، علاوه بر غیرخطی بودن، در بیشتر موارد غیرمحدب است. این در حالی است که برای تضمین همگرایی سراسری در الگوریتمهایی که بر اساس روش نیوتن برای حل این مسائل پیشنه چکیده کامل
مسائل برنامهریزی غیرخطی در گروه مسائل پرکاربرد بهینهسازی در دنیای واقعی قرار دارند. تابع هدف این گونه از مسائل، علاوه بر غیرخطی بودن، در بیشتر موارد غیرمحدب است. این در حالی است که برای تضمین همگرایی سراسری در الگوریتمهایی که بر اساس روش نیوتن برای حل این مسائل پیشنهاد شدهاند، عموماً شرط تحدب الزامی است. در این بین روشهای شبه نیوتن بدلیل استفاده از تقریب ماتریس هسی یا وارون آن دارای محبوبیت بیشتری هستند. هر چند که در این الگوریتمها برای تقریب این ماتریس فقط از اطلاعات گرادیان استفاده میشود. یکی از کاربردیترین الگوریتمهای شبهنیوتون در حل مسایل برنامهریزی غیرخطی روش BFGS میباشد. این مقاله یک ایدهی جدید برای جستجوی خطی در روش BFGS ارائه داده و ثابت میکند که استفاده از این تکنیک، همگرایی سراسری را برای مسائل کلی بدون نیاز به هیچ شرط اضافهای به دنبال خواهد داشت. در نهایت، کارایی الگوریتم پیشنهاد شده به صورت عددی مورد ارزیابی قرار گرفته است.
پرونده مقاله
در این مقاله به حل مسئله بهینه سازی نامقید با استفاده از یک روش تندترین کاهش بدون استفاده از الگوریتمهای جستجوی خطی میپردازیم. ابتدا یک فرمول شبه نیوتن مقیاس بندی شده دو پارامتری برای محاسبه تقریبی از ماتریس هسی ارائه میدهیم. تقریب به دست آمده از این فرمول، یک ماتری چکیده کامل
در این مقاله به حل مسئله بهینه سازی نامقید با استفاده از یک روش تندترین کاهش بدون استفاده از الگوریتمهای جستجوی خطی میپردازیم. ابتدا یک فرمول شبه نیوتن مقیاس بندی شده دو پارامتری برای محاسبه تقریبی از ماتریس هسی ارائه میدهیم. تقریب به دست آمده از این فرمول، یک ماتریس معین مثبت است که در رابطه سکانت استاندارد صدق مینماید. همچنین نشان میدهیم که بزرگترین مقدار ویژه این ماتریس از تعداد متغیرهای مسئله بیشتر نخواهد بود. سپس با استفاده از این فرمول شبه نیوتن مقیاس بندی شده دو پارامتری، فرمول صریحی برای محاسبه طول گام در روش تندترین کاهش ارائه میشود و بنابراین این روش نیازی به استفاده از روشهای تقریبی برای محاسبه طول گام نخواهد داشت. نتایج عددی به دست آمده از اجرای الگوریتم در محیط نرم افزاری متلب بر روی برخی مسائل بهینه سازی ارائه شده است. این نتایج کارایی روش ارائه شده نسبت به سایر روشهای موجود را نشان میدهد.
پرونده مقاله
به منظور بهبود روش گرادیان مزدوج کلاسیک هستنس-اشتیفل، شنگوی و همکاران یک روش گرادیان مزدوج موثر را پیشنهاد کردند که با استفاده از جستجوی خطی ولف قوی (با محدود کردن پارامترهای جستجوی خطی) در خاصیت کافی کاهشی ‎صدق می کند. با الهام از توسیع مقیاس بندی شده ی روش هستنس- چکیده کامل
به منظور بهبود روش گرادیان مزدوج کلاسیک هستنس-اشتیفل، شنگوی و همکاران یک روش گرادیان مزدوج موثر را پیشنهاد کردند که با استفاده از جستجوی خطی ولف قوی (با محدود کردن پارامترهای جستجوی خطی) در خاصیت کافی کاهشی ‎صدق می کند. با الهام از توسیع مقیاس بندی شده ی روش هستنس-اشتیفل که اخیرا توسط دانگ و همکاران مطرح شده است، یک اصلاح مقیاس بندی شده از روش گرادیان مزدوج شنگوی و همکاران پیشنهاد می شود که قادر است شرط کافی کاهشی را مستقل از تکنیک جستجوی خطی و بدون فرض تحدب تابع هدف برقرار سازد. همچنین، همگرایی سراسری روش مطرح شده بر اساس فرضیات استاندارد مورد بحث قرار میگیرد. به علاوه، یک تقریب هموار برای مساله بهینهسازی حسگری فشرده ارائه می شود. عملکرد عددی بر مجموعهای از مسائل کلاسیک از کتابخانه CUTEr و نیز در حل مساله حسگری فشرده مورد ارزیابی قرار می گیرد. نتایج مقایسات برتری رویکرد پیشنهادی را به تصویر می کشند.
پرونده مقاله
In an effort to make modification on the classical Hestenes--Stiefel method, Shengwei et al. proposed an efficient conjugate gradient method which possesses the sufficient descent condition when the line search fulfills the strong Wolfe conditions (by restricting the li چکیده کامل
In an effort to make modification on the classical Hestenes--Stiefel method, Shengwei et al. proposed an efficient conjugate gradient method which possesses the sufficient descent condition when the line search fulfills the strong Wolfe conditions (by restricting the line search parameters). Here, we develop a three--term extension of the method which guarantees the sufficient descent condition independent to the line search. Also, we establish global convergence of the method using convexity assumption. At last, practical merits of the proposed method are investigated by numerical experiments on a set of CUTEr test functions. The results show numerical efficiency of the method.
پرونده مقاله
There exist large varieties of conjugate gradient algorithms. In order to take advantage of the attractive features of Liu and Storey (LS) and Conjugate Descent (CD) conjugate gradient methods, we suggest hybridization of these methods in which the parameter is computed چکیده کامل
There exist large varieties of conjugate gradient algorithms. In order to take advantage of the attractive features of Liu and Storey (LS) and Conjugate Descent (CD) conjugate gradient methods, we suggest hybridization of these methods in which the parameter is computed as a convex combination of and respectively which the conjugate gradient (update) parameter was obtained from Secant equation. The algorithm generates descent direction and when the iterate jam, the direction satisfy sufficient descent condition. We report numerical results demonstrating the efficiency of our method. The hybrid computational scheme outperform or comparable with known conjugate gradient algorithms. We also show that our method converge globally using strong Wolfe condition.
پرونده مقاله
Nonlinear conjugate gradient method is well known in solving large-scale unconstrained optimization problems due to it’s low storage requirement and simple to implement. Research activities on it’s application to handle higher dimensional systems of nonlinea چکیده کامل
Nonlinear conjugate gradient method is well known in solving large-scale unconstrained optimization problems due to it’s low storage requirement and simple to implement. Research activities on it’s application to handle higher dimensional systems of nonlinear equations are just beginning. This paper presents a Threeterm Conjugate Gradient algorithm for solving Large-Scale systems of nonlinear equations by incoporating the hyperplane projection and Powel restart approach. We prove the global convergence of the proposed method with a derivative free line search under suitable assumtions. the numerical results are presented which show that the proposed method is promising.
پرونده مقاله
The nonlinear conjugate gradient method solves issues of the frame: minimize f(x), x∈Remploying an iterative plot, x(k+1)=x(k)+αk d(k), where f is a non-polynomial function. We utilized two variants of the optimum line search namely, direct and indirect metho چکیده کامل
The nonlinear conjugate gradient method solves issues of the frame: minimize f(x), x∈Remploying an iterative plot, x(k+1)=x(k)+αk d(k), where f is a non-polynomial function. We utilized two variants of the optimum line search namely, direct and indirect methods, to compute the step-length in this paper. Both line searches yielded a great outcome when employed to a few unconstrained non-polynomial test functions.
پرونده مقاله
سکوی نشر دانش
سند یا سکوی نشر دانش ،سامانه ای جهت مدیریت حوزه علمی و پژوهشی نشریات دانشگاه آزاد می باشد