Detailansicht

Scaling behavior of physics informed neural networks for solving partial differential equations
Philipp Maximilian Möhl
Art der Arbeit
Masterarbeit
Universität
Universität Wien
Fakultät
Fakultät für Mathematik
Studiumsbezeichnung bzw. Universitätlehrgang (ULG)
Masterstudium Mathematik
Betreuer*in
Philipp Grohs
Volltext herunterladen
Volltext in Browser öffnen
Alle Rechte vorbehalten / All rights reserved
DOI
10.25365/thesis.74053
URN
urn:nbn:at:at-ubw:1-13878.58145.128443-7
Link zu u:search
(Print-Exemplar eventuell in Bibliothek verfügbar)

Abstracts

Abstract
(Deutsch)
Diese Arbeit bietet eine gründliche Einführung in die mathematische Theorie des Lernens durch endliche Proben von Trainingsdaten. Des Weiteren präsentiert sie neuronale Netze zusammen mit Gradientenbasierten Optimierungsmethoden als mathematischen Rahmen zur Lösung von Lernproblemen. Die Theorie des mathematischen Lernens durch neuronale Netze wird durch die Hinzufügung von Regularisierungstechniken erweitert, um physikinformierte neuronale Netze einzuführen, einen Algorithmus für die numerische Lösung allgemeiner partieller Differentialgleichungen. Die Gültigkeit des Algorithmus als Approximator wird durch einen abstrakten Beweis bestätigt und gibt Einblick in die theoretischen Grundlagen des Ansatzes. Es werden numerische Studien empirisch durchgeführt, um das Skalierungsverhalten des Algorithmus im Bezug auf die Mengen von Trainingsdatenproben auf drei verschiedene Klassen von Modellproblemen mit unterschiedlicher Komplexität zu bewerten. Diese Studien geben einen Einblick in die Effektivität des Algorithmus bei der Annäherung von Lösungen partieller Differentialgleichungen und die Rolle, welche die Menge der Trainingsdaten im Approximationsprozess spielt.
Abstract
(Englisch)
This thesis provides a thorough introduction to the mathematical theory of learning through finite samples of training data. It then presents neural networks, along with gradient-based optimization methods, as a mathematical framework for solving learning problems. The theory of mathematical learning through neural networks is further extended with the addition of regularization techniques to introduce physics-informed neural networks, an algorithm for the numerical solution of general partial differential equations. The algorithm’s validity as an approximator is confirmed through an abstract proof, offering insight into the theoretical underpinnings of the approach. Numerical studies are empirically conducted to assess the scaling behavior of the algorithm with respect to the amounts of training data samples on three different classes of model problems with varying levels of complexity. These studies provide insight into the effectiveness of the algorithm in approximating solutions to partial differential equations and the role that the amount of training data plays in the approximation process.

Schlagwörter

Schlagwörter
(Deutsch)
Neuronale Netze
Schlagwörter
(Englisch)
neural networks
Autor*innen
Philipp Maximilian Möhl
Haupttitel (Englisch)
Scaling behavior of physics informed neural networks for solving partial differential equations
Paralleltitel (Deutsch)
Skalierungsverhalten physikalisch informierter neuronaler Netze zur Lösung partieller Differentialgleichungen
Publikationsjahr
2023
Umfangsangabe
iii, 80 Seiten : Illustrationen
Sprache
Englisch
Beurteiler*in
Philipp Grohs
Klassifikationen
31 Mathematik > 31.45 Partielle Differentialgleichungen ,
31 Mathematik > 31.80 Angewandte Mathematik
AC Nummer
AC16921730
Utheses ID
67640
Studienkennzahl
UA | 066 | 821 | |
Universität Wien, Universitätsbibliothek, 1010 Wien, Universitätsring 1