Detailansicht
Enhancing Boltzmann-generators with coarse-grained latent distributions
Jakob Roland Schindelwig
Art der Arbeit
Masterarbeit
Universität
Universität Wien
Fakultät
Fakultät für Physik
Studiumsbezeichnung bzw. Universitätlehrgang (ULG)
Masterstudium Physics
Betreuer*in
Christoph Dellago
DOI
10.25365/thesis.74085
URN
urn:nbn:at:at-ubw:1-27582.56696.776885-0
Link zu u:search
(Print-Exemplar eventuell in Bibliothek verfügbar)
Abstracts
Abstract
(Deutsch)
Die Vorhersage von Observablen atomarer und molekularer Systeme ist unter anderem ein Problem, für das die Gleichgewichtsverteilung repräsentierende Konfigurationen benötigt werden. Vor wenigen Jahren wurden Boltzmann-Generatoren als ein vielversprechendes neues Werkzeug zur Generierung solcher Konfigurationen eingeführt. Dabei handelt es sich um generative, tiefe neuronale Netze, die zur Erzeugung unkorrelierter Konfigurationen physikalischer Systeme gemäß der Boltzmann-Verteilung verwendet werden. Ein erlerntes Mapping transformiert Stichproben aus einer Gaußschen oder uniformen, latenten Wahrscheinlichkeitsverteilung in den Konfigurationsraum und ermöglicht dabei eine Neugewichtung der generierten Verteilung gegenüber der Referenzverteilung. Wir verbessern Boltzmann-Generatoren, indem wir statt der herkömmlichen latenten Verteilungen eine Mischung aus durch traditionelle Sampling-Methoden erzeugte coarse-grained Konfigurationen zusammen mit Gaußschen- oder uniformen Verteilungen transformieren. Anschließend untersuchen wir die Auswirkungen auf den Trainingsprozess und die Leistung des Netzwerkes. Wir testen diesen Ansatz an Alanin-Dipeptiden und einem eindimensionalen XY-Modell und kommen zu dem Schluss, dass dieser Ansatz unter den richtigen Umständen das Training beschleunigt und die Leistung erhöht.
Abstract
(Englisch)
Predicting observables of equilibrium distributions of atomic and molecular systems is, among many others, a problem, for which samples representing the equilibrium distribution of said systems are needed. In recent years Boltzmann-Generators were introduced as a promising new tool to obtain samples from the equilibrium distribution. These are generative, deep neural networks used to generate uncorrelated configurations of physical systems according to Boltzmann statistics. A learned mapping transforms samples from either Gaussian or uniform probability distribution to the configuration space while allowing for reweighting of the generated distribution to the reference distribution. We enhance Boltzmann-Generators by instead transforming a mix of coarse-grained configurations generated by traditional sampling methods together with Gaussian or uniform distributions and study the effects on the training process and the overall performance. Testing this approach on Alanine-Dipeptide and a ond-dimensional XY-Model, we conclude that under the right circumstances this approach accelerates the training and increases the performance.
Schlagwörter
Schlagwörter
(Deutsch)
Boltzmann-Generator
Schlagwörter
(Englisch)
Boltzmann-Generator
Autor*innen
Jakob Roland Schindelwig
Haupttitel (Englisch)
Enhancing Boltzmann-generators with coarse-grained latent distributions
Paralleltitel (Deutsch)
Verbesserung von Boltzmann-Generatoren mit Coarse-Grained latenten Verteilungen
Publikationsjahr
2023
Umfangsangabe
viii, 68 Seiten : Illustrationen
Sprache
Englisch
Beurteiler*in
Christoph Dellago
AC Nummer
AC16923885
Utheses ID
67889
Studienkennzahl
UA | 066 | 876 | |