• فهرست مقالات constrained optimization

      • دسترسی آزاد مقاله

        1 - تصحیح فرمول جستجوی خطی در روش BFGS برای رسیدن به همگرایی سراسری
        سید علیرضا حسینی دهمیری منصوره حمزه نژاد
        مسائل برنامه‌ریزی غیرخطی در گروه مسائل پرکاربرد بهینه‌سازی در دنیای واقعی قرار دارند. تابع هدف این گونه از مسائل، علاوه بر غیرخطی بودن، در بیشتر موارد غیرمحدب است. این در حالی است که برای تضمین همگرایی سراسری در الگوریتم‌هایی که بر اساس روش نیوتن برای حل این مسائل پیشنه چکیده کامل
        مسائل برنامه‌ریزی غیرخطی در گروه مسائل پرکاربرد بهینه‌سازی در دنیای واقعی قرار دارند. تابع هدف این گونه از مسائل، علاوه بر غیرخطی بودن، در بیشتر موارد غیرمحدب است. این در حالی است که برای تضمین همگرایی سراسری در الگوریتم‌هایی که بر اساس روش نیوتن برای حل این مسائل پیشنهاد شده‌اند، عموماً شرط تحدب الزامی است. در این بین روش‌های شبه نیوتن بدلیل استفاده از تقریب ماتریس هسی یا وارون آن دارای محبوبیت بیشتری هستند. هر چند که در این الگوریتم‌ها برای تقریب این ماتریس فقط از اطلاعات گرادیان استفاده می‌شود. یکی از کاربردی‌ترین الگوریتم‌های شبه‌نیوتون در حل مسایل برنامه‌ریزی غیرخطی روش BFGS می‌باشد. این مقاله یک ایده‌ی جدید برای جستجوی خطی در روش BFGS ارائه داده و ثابت می‌کند که استفاده از این تکنیک، همگرایی سراسری را برای مسائل کلی بدون نیاز به هیچ شرط اضافه‌ای به دنبال خواهد داشت. در نهایت، کارایی الگوریتم پیشنهاد شده به صورت عددی مورد ارزیابی قرار گرفته است. پرونده مقاله
      • دسترسی آزاد مقاله

        2 - یک روش تندترین کاهش بدون جستجوی خطی برای حل مسائل بهینه‌سازی نامقید
        نرگس بیدآبادی
        در این مقاله به حل مسئله بهینه ‌سازی نامقید با استفاده از یک روش تندترین کاهش بدون استفاده از الگوریتم‌های جستجوی خطی میپردازیم. ابتدا یک فرمول شبه‌ نیوتن مقیاس بندی شده دو پارامتری برای محاسبه تقریبی از ماتریس هسی ارائه می‌دهیم. تقریب به دست آمده از این فرمول، یک ماتری چکیده کامل
        در این مقاله به حل مسئله بهینه ‌سازی نامقید با استفاده از یک روش تندترین کاهش بدون استفاده از الگوریتم‌های جستجوی خطی میپردازیم. ابتدا یک فرمول شبه‌ نیوتن مقیاس بندی شده دو پارامتری برای محاسبه تقریبی از ماتریس هسی ارائه می‌دهیم. تقریب به دست آمده از این فرمول، یک ماتریس معین مثبت است که در رابطه سکانت استاندارد صدق می‌نماید. همچنین نشان می‌دهیم که بزرگترین مقدار ویژه این ماتریس از تعداد متغیرهای مسئله بیشتر نخواهد بود. سپس با استفاده از این فرمول شبه نیوتن مقیاس بندی ‌شده دو پارامتری، فرمول صریحی برای محاسبه طول گام در روش تندترین کاهش ارائه می‌شود و بنابراین این روش نیازی به استفاده از روش‌های تقریبی برای محاسبه طول گام نخواهد داشت. نتایج عددی به دست آمده از اجرای الگوریتم در محیط نرم افزاری متلب بر روی برخی مسائل بهینه سازی ارائه شده است. این نتایج کارایی روش ارائه شده نسبت به سایر روش‌های موجود را نشان می‌دهد. پرونده مقاله
      • دسترسی آزاد مقاله

        3 - یک اصلاح کاهشی مقیاس‌بندی شده از روش گرادیان مزدوج هستنس-اشتیفل با نگاه کاربردی در حسگری فشرده
        علی ابراهیم نژاد زهره امینی فرد سامان بابایی کفاکی
        به منظور بهبود روش گرادیان مزدوج کلاسیک هستنس-اشتیفل، شنگوی و همکاران یک روش گرادیان مزدوج موثر را پیشنهاد کردند که با استفاده از جستجوی خطی ولف قوی (با محدود کردن پارامترهای جستجوی خطی) در خاصیت کافی کاهشی ‎صدق می‌ کند. با الهام از توسیع مقیاس بندی شده ی روش هستنس- چکیده کامل
        به منظور بهبود روش گرادیان مزدوج کلاسیک هستنس-اشتیفل، شنگوی و همکاران یک روش گرادیان مزدوج موثر را پیشنهاد کردند که با استفاده از جستجوی خطی ولف قوی (با محدود کردن پارامترهای جستجوی خطی) در خاصیت کافی کاهشی ‎صدق می‌ کند. با الهام از توسیع مقیاس بندی شده ی روش هستنس-اشتیفل که اخیرا توسط دانگ و همکاران مطرح شده است، یک اصلاح مقیاس بندی شده از روش گرادیان مزدوج شنگوی و همکاران پیشنهاد می شود که قادر است شرط کافی کاهشی را مستقل از تکنیک جستجوی خطی و بدون فرض تحدب تابع هدف برقرار سازد. همچنین، همگرایی سراسری روش‌ مطرح شده بر اساس فرضیات استاندارد مورد بحث قرار می‌گیرد. به علاوه، یک تقریب هموار برای مساله بهینه‌سازی حسگری فشرده ارائه می شود. عملکرد عددی بر مجموعه‌ای از مسائل کلاسیک از کتابخانه CUTEr و نیز در حل مساله حسگری فشرده مورد ارزیابی قرار می گیرد. نتایج مقایسات برتری رویکرد پیشنهادی را به تصویر می کشند. پرونده مقاله
      • دسترسی آزاد مقاله

        4 - توسعه مدل بهینه‌سازی پورتفوی با استفاده از ضریب ریسک گریزی تغییر یافته
        روح اله مهرعلیزاده شیادهی حسین دیده خانی علی خوزین آرش نادریان
        در این مقاله با استفاده از ادبیات پژوهش و روش‌های ریاضی به اعمال تغییراتی برای مناسب‌تر نمودن استفاده از ضریب ریسک‌گریزی در مدل‌های بهینه‌سازی اقدام شد. ضریب ریسک‌گریزی معرفی شده در این پژوهش با اعمال در بخش بیشینه‌سازیِ بازده مدل بدون ایجاد اثر نامطلوب، قادر خواهد بود چکیده کامل
        در این مقاله با استفاده از ادبیات پژوهش و روش‌های ریاضی به اعمال تغییراتی برای مناسب‌تر نمودن استفاده از ضریب ریسک‌گریزی در مدل‌های بهینه‌سازی اقدام شد. ضریب ریسک‌گریزی معرفی شده در این پژوهش با اعمال در بخش بیشینه‌سازیِ بازده مدل بدون ایجاد اثر نامطلوب، قادر خواهد بود دقت الگوریتم‌های فرا ابتکاری را در یافتن پاسخ‌های بهینه بهبود بخشد. در ادامه مدل ارائه شده برای 30 سهم از بازار بورس اوراق بهادار تهران به همراه یک دارایی با ریسک صفر با لحاظ نمودن برخی محدودیت‌های موجود در بازار ایران بکار گرفته شد. به منظور حل مدل از روش بهینه‌سازی فرا ابتکاری ژنتیک استفاده گردید و برای سنجش کارایی مدل، نتایج اجرای فرایند بهینه سازی با 2500 پورتفوی تصادفی که در محدودیت‌های مساله قرار داشت مقایسه گردید و نتایج حاصله نشان داد پاسخ‌های ارائه شده توسط مدل در هر دو عامل ریسک و بازده بصورت همزمان نسبت به سایر پورتفوهای تصادفی برتری محسوسی ایجاد نموده است. پرونده مقاله
      • دسترسی آزاد مقاله

        5 - A Three-Term Extension of a Descent Conjugate Gradient Method
        Zohre Aminifard
        In an effort to make modification on the classical Hestenes--Stiefel method, Shengwei et al. proposed an efficient conjugate gradient method which possesses the sufficient descent condition when the line search fulfills the strong Wolfe conditions (by restricting the li چکیده کامل
        In an effort to make modification on the classical Hestenes--Stiefel method, Shengwei et al. proposed an efficient conjugate gradient method which possesses the sufficient descent condition when the line search fulfills the strong Wolfe conditions (by restricting the line search parameters). Here, we develop a three--term extension of the method which guarantees the sufficient descent condition independent to the line search. Also, we establish global convergence of the method using convexity assumption. At last, practical merits of the proposed method are investigated by numerical experiments on a set of CUTEr test functions. The results show numerical efficiency of the method. پرونده مقاله
      • دسترسی آزاد مقاله

        6 - A New Hybrid Conjugate Gradient Method Based on Secant Equation for Solving Large Scale Unconstrained Optimization Problems
        نصیرو صلیحو Mathew Odekunle Mohammed Waziri Abubakar Halilu
        There exist large varieties of conjugate gradient algorithms. In order to take advantage of the attractive features of Liu and Storey (LS) and Conjugate Descent (CD) conjugate gradient methods, we suggest hybridization of these methods in which the parameter is computed چکیده کامل
        There exist large varieties of conjugate gradient algorithms. In order to take advantage of the attractive features of Liu and Storey (LS) and Conjugate Descent (CD) conjugate gradient methods, we suggest hybridization of these methods in which the parameter is computed as a convex combination of and respectively which the conjugate gradient (update) parameter was obtained from Secant equation. The algorithm generates descent direction and when the iterate jam, the direction satisfy sufficient descent condition. We report numerical results demonstrating the efficiency of our method. The hybrid computational scheme outperform or comparable with known conjugate gradient algorithms. We also show that our method converge globally using strong Wolfe condition. پرونده مقاله
      • دسترسی آزاد مقاله

        7 - Time-Distance Optimal Trajectory Planning For Mobile Robots On Straight And Circular Paths
        Hossein Barghi Jond Adel Akbarimajd Nurhan Gursel Ozmen
        Trajectories generally used to describe the space and time required to perform a desired motion task for a mobile robot or manipulator system. In this paper, we considered a cubic polynomial trajectory for the problem of moving a mobile robot from its initial position t چکیده کامل
        Trajectories generally used to describe the space and time required to perform a desired motion task for a mobile robot or manipulator system. In this paper, we considered a cubic polynomial trajectory for the problem of moving a mobile robot from its initial position to a goal position in over a continuous set of time. Along the path, the robot requires to observe a certain acceleration profile. Then, we formulated an optimization approach to generate optimal trajectory profiles for the mobile robot in the cases of maximum-distance and minimum-time problems. The optimization problem presented to find the trajectory strategy that would give the robot time-distance optimality to move from a start point to an end point where the robot should stay inside its acceleration limits all the time. The problem solved analytically because as it is well known, numerical solutions and iterative methods are time-consuming, therefore, our closed-form solutions demand low computation time. Finally, the results are verified by simulations. پرونده مقاله
      • دسترسی آزاد مقاله

        8 - On the duality of quadratic minimization problems using pseudo inverses
        D. Pappas G. Domazakis
        ‎In this paper we consider the minimization of a positive semidefinite quadratic form‎, ‎having a singular corresponding matrix $H$‎. ‎We state the dual formulation of the original problem and treat both problems only using the vectors $x \in \mathca چکیده کامل
        ‎In this paper we consider the minimization of a positive semidefinite quadratic form‎, ‎having a singular corresponding matrix $H$‎. ‎We state the dual formulation of the original problem and treat both problems only using the vectors $x \in \mathcal{N}(H)^\perp$ instead of the classical approach of convex optimization techniques such as the null space method‎. ‎Given this approach and based on the strong duality principle‎, ‎we provide a closed formula for the calculation of the Lagrange multipliers $\\lambda$ in the cases when (i) the constraint equation is consistent and (ii) the constraint equation is inconsistent‎, ‎using the general normal equation‎. ‎In both cases the Moore-Penrose inverse will be used to determine a unique solution of the problems‎. ‎In addition‎, ‎in the case of a consistent constraint equation‎, ‎we also give sufficient conditions for our solution to exist using the well known KKT conditions. پرونده مقاله
      • دسترسی آزاد مقاله

        9 - A Three-terms Conjugate Gradient Algorithm for Solving Large-Scale Systems of Nonlinear Equations
        Mohammed waziri Yusuf
        Nonlinear conjugate gradient method is well known in solving large-scale unconstrained optimization problems due to it’s low storage requirement and simple to implement. Research activities on it’s application to handle higher dimensional systems of nonlinea چکیده کامل
        Nonlinear conjugate gradient method is well known in solving large-scale unconstrained optimization problems due to it’s low storage requirement and simple to implement. Research activities on it’s application to handle higher dimensional systems of nonlinear equations are just beginning. This paper presents a Threeterm Conjugate Gradient algorithm for solving Large-Scale systems of nonlinear equations by incoporating the hyperplane projection and Powel restart approach. We prove the global convergence of the proposed method with a derivative free line search under suitable assumtions. the numerical results are presented which show that the proposed method is promising. پرونده مقاله
      • دسترسی آزاد مقاله

        10 - An Optimum Line Search for Unconstrained Non-Polynomial Test Functions ‎U‎sing Nonlinear Conjugate Gradient Methods
        Adam Ishaq Tolulope Latunde Folashade Jimoh
        The nonlinear conjugate gradient method solves issues of the frame: minimize f(x), x∈Remploying an iterative plot, x(k+1)=x(k)+αk d(k), where f is a non-polynomial function. We utilized two variants of the optimum line search namely, direct and indirect metho چکیده کامل
        The nonlinear conjugate gradient method solves issues of the frame: minimize f(x), x∈Remploying an iterative plot, x(k+1)=x(k)+αk d(k), where f is a non-polynomial function. We utilized two variants of the optimum line search namely, direct and indirect methods, to compute the step-length in this paper. Both line searches yielded a great outcome when employed to a few unconstrained non-polynomial test functions. پرونده مقاله
      • دسترسی آزاد مقاله

        11 - Multiobjective Imperialist Competitive Evolutionary Algorithm for Solving Nonlinear Constrained Programming Problems
        chunan liu
        Nonlinear constrained programing problem (NCPP) has been arisen in diverse range of sciences such as portfolio, economic management etc.. In this paper, a multiobjective imperialist competitive evolutionary algorithm for solving NCPP is proposed. Firstly, we transform t چکیده کامل
        Nonlinear constrained programing problem (NCPP) has been arisen in diverse range of sciences such as portfolio, economic management etc.. In this paper, a multiobjective imperialist competitive evolutionary algorithm for solving NCPP is proposed. Firstly, we transform the NCPP into a biobjective optimization problem. Secondly, in order to improve the diversity of evolution country swarm, and help the evolution country swarm to approach or land in the feasible region of the problem, three kinds of different methods of colonies moving toward their relevant imperialist are given. Thirdly, the new operator for exchanging position of the imperialist and colony is given similar as a recombination operator in genetic algorithm to enrich the exploration and exploitation abilities of the proposed algorithm. At last, the new approach is tested on two well-known NP-hard nonlinear constrained optimization functions, and the empirical evidence suggests that the proposed method is robust, efficient, and generic. پرونده مقاله