Národní úložiště šedé literatury Nalezeno 137 záznamů.  předchozí11 - 20dalšíkonec  přejít na záznam: Hledání trvalo 0.00 vteřin. 
UFO 2017. Interactive System for Universal Functional Optimization
Lukšan, Ladislav ; Tůma, Miroslav ; Matonoha, Ctirad ; Vlček, Jan ; Ramešová, Nina ; Šiška, M. ; Hartman, J.
This report contains a description of the interactive system for universal functional optimization UFO, version 2017. This version contains interfaces to the MATLAB and SCILAB graphics environments.
A Generalized Limited-Memory BNS Method Based on the Block BFGS Update
Vlček, Jan ; Lukšan, Ladislav
A block version of the BFGS variable metric update formula is investigated. It satisfies the quasi-Newton conditions with all used difference vectors and gives the best improvement of convergence in some sense for quadratic objective functions, but it does not guarantee that the direction vectors are descent for general functions. To overcome this difficulty and utilize the advantageous properties of the block BFGS update, a block version of the limited-memory BNS method for large scale unconstrained optimization is proposed. The algorithm is globally convergent for convex sufficiently smooth functions and our numerical experiments indicate its efficiency.
Numerická optimalizace
Márová, Kateřina ; Janovský, Vladimír (vedoucí práce) ; Lukšan, Ladislav (oponent)
Práce se věnuje metodám numerické optimalizace bez omezení, konkrétně výkladu metod, jež nevyžadují existenci derivací účelové funkce o více proměnných. Sedm nejznámějších algoritmů, rozdělených do tří skupin, je popsáno a implementováno v jazyce MATLAB. Optimalizace ve směrech souřadnicových os a Hooke-Jeevesova metoda jsou zástupci jednoduchých "pattern search" metod. Rodina simplexových metod obsahuje Spendley-Hext-Himsworthův algoritmus a Nelder-Meadův algoritmus. Metody s proměnnými směry vyhledávání jsou tři: Rosenbrockova, Davies-Swann- Campeyho a Powellova. Všechny metody jsou následně testovány na třech předem vybraných funkcích dvou proměnných. Postup výpočtů je kvantitativně i kvalitativně analyzován a názorně graficky ilustrován. Powered by TCPDF (www.tcpdf.org)
A Modified Limited-Memory BNS Method for Unconstrained Minimization Derived from the Conjugate Directions Idea
Vlček, Jan ; Lukšan, Ladislav
A modification of the limited-memory variable metric BNS method for large scale unconstrained optimization of the differentiable function $f:{\cal R}^N\to\cal R$ is considered, which consists in corrections (based on the idea of conjugate directions) of difference vectors for better satisfaction of the previous quasi-Newton conditions. In comparison with [11], more previous iterations can be utilized here. For quadratic objective functions, the improvement of convergence is the best one in some sense, all stored corrected difference vectors are conjugate and the quasi-Newton conditions with these vectors are satisfied. The algorithm is globally convergent for convex sufficiently smooth functions and our numerical experiments indicate its efficiency.
Nonlinear Conjugate Gradient Methods
Lukšan, Ladislav ; Vlček, Jan
Modifications of nonlinear conjugate gradient method are described and tested.

Národní úložiště šedé literatury : Nalezeno 137 záznamů.   předchozí11 - 20dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.