Detailansicht

Fast continuous and discrete time approaches for smooth and nonsmooth optimization featuring time scaling and Tikhonov regularization
Mikhail Karapetyants
Art der Arbeit
Dissertation
Universität
Universität Wien
Fakultät
Fakultät für Mathematik
Studiumsbezeichnung bzw. Universitätlehrgang (ULG)
Doktoratsstudium Naturwissenschaften: Mathematik
Betreuer*in
Radu Ioan Bot
Volltext herunterladen
Volltext in Browser öffnen
Alle Rechte vorbehalten / All rights reserved
DOI
10.25365/thesis.77718
URN
urn:nbn:at:at-ubw:1-19390.35398.852283-2
Link zu u:search
(Print-Exemplar eventuell in Bibliothek verfügbar)

Abstracts

Abstract
(Deutsch)
Die folgende Arbeit widmet sich der Lösung des klassischen Optimierungsproblems der Minimierung einer konvexen Funktion mit verschiedenen Methoden in kontinuierlicher und diskreter Zeit. Es werden sowohl glatte als auch nicht glatte Fälle der Zielfunktionen diskutiert. Der Schwerpunkt dieser Abhandlung liegt auf der Erzielung schneller Konvergenzraten für die Funktionswerte in Kombination mit der Konvergenz der Trajektorien der dynamischen Systeme oder Iterationen der Algorithmen. Besonderes Augenmerk wird auf die Tikhonov-Regularisierungstechnik gelegt, die bekanntermaßen dabei hilft, die schwache Konvergenz der Trajektorien (Iterationen) zur kontrollierten (zum Element der minimalen Norm aus der Menge aller Minimierer der Zielfunktion) starken Konvergenz zu verbessern. In einigen Fällen wird eine Zeitskalierung angewendet, um die Konvergenz der Funktionswerte zu beschleunigen. Es werden verschiedene numerische Experimente vorgestellt, um unser Verständnis der theoretischen Ergebnisse zu verbessern.
Abstract
(Englisch)
The following thesis is devoted to solving the classical optimization problem of minimizing a convex function via different methods in continuous and discrete time. Both smooth and nonsmooth cases of the objective functions will be discussed. The main focus throughout this manuscript is to obtain fast convergence rates for the function values combined with the convergence of the trajectories of the dynamical systems or iterates of the algorithms. Major attention is paid to the Tikhonov regularization technique, which is known to help improve the weak convergence of the trajectories (iterates) to the controlled (to the element of the minimal norm from the set of all minimizers of the objective function) strong one. In some cases, time scaling will be applied to accelerate the function values' convergence. Various numerical experiments are presented to improve our understanding of theoretical results.

Schlagwörter

Schlagwörter
(Deutsch)
Glatte konvexe Optimierung Nicht glatte konvexe Optimierung Gedämpfte Trägheitsdynamik Hessische Dämpfung Zeitskalierung Moreau Umschlag Proximaler Bediener Tikhonov Regularisierung Starke Konvergenz Trägheitsalgorithmen
Schlagwörter
(Englisch)
Smooth and nonsmooth convex optimization Damped inertial dynamics Hessian-driven damping Time scaling Moreau envelope Proximal operator Tikhonov regularization Strong convergence Inertial algorithms
Autor*innen
Mikhail Karapetyants
Haupttitel (Englisch)
Fast continuous and discrete time approaches for smooth and nonsmooth optimization featuring time scaling and Tikhonov regularization
Publikationsjahr
2024
Umfangsangabe
127 Seiten : Illustrationen
Sprache
Englisch
Beurteiler*innen
Jalal Fadili ,
Zaiwen Wen
Klassifikationen
31 Mathematik > 31.00 Mathematik. Allgemeines ,
31 Mathematik > 31.41 Reelle Analysis ,
31 Mathematik > 31.80 Angewandte Mathematik
AC Nummer
AC17443659
Utheses ID
72778
Studienkennzahl
UA | 796 | 605 | 405 |
Universität Wien, Universitätsbibliothek, 1010 Wien, Universitätsring 1