Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization
Dennis Kleinahns
* Affiliate Links
Links on findyourbook.com are so-called affiliate links. If you click on such an affiliate link and buy via this link, findyourbook.com receives a commission from the respective online shop or provider. For you, the price doesn't change.
Naturwissenschaften, Medizin, Informatik, Technik / Datenkommunikation, Netzwerke
Description
Bachelorarbeit aus dem Jahr 2024 im Fachbereich Informatik - Künstliche Intelligenz, Note: 1,3, Hochschule für Technik Stuttgart (Fakultät Vermessung, Informatik und Mathematik), Sprache: Deutsch, Abstract: Die vorliegende Bachelorarbeit untersucht die Leistungsfähigkeit der "Stochastic Gradient Line Bayesian Optimization" (SGLBO) aus der Publikation von Tamiya und Yamasaki (2022), im Kontext der Parameteroptimierung für "Quantum Neural Networks" (QNN) und vergleicht diese mit der "Adaptive Moment Estimation" (Adam). Die Ergebnisse zeigen, dass beide Algorithmen in der Lage sind, QNNs zu trainieren. Dabei zeigt Adam vor allem Stärken in der rauschfreien Optimierung, während SGLBO signifikant bessere Ergebnisse in verrauschten Umgebungen erzielt. Damit konnten die Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022) reproduziert werden.
customer reviews
Qunatencomputing, Optimierung