SciDok

Eingang zum Volltext in SciDok

Hinweis zum Urheberrecht

Dissertation zugänglich unter
URN: urn:nbn:de:bsz:291-scidok-24309
URL: http://scidok.sulb.uni-saarland.de/volltexte/2009/2430/


From differential equations to differential geometry : aspects of regularisation in machine learning

Steinke, Florian

pdf-Format:
Dokument 1.pdf (4.636 KB)

Bookmark bei Connotea Bookmark bei del.icio.us
SWD-Schlagwörter: Maschinelles Lernen , Regularisierung , Differentialgleichung , Differentialgeometrie , Systemidentifikation , Gauß-Prozess , Bayes-Inferenz
Freie Schlagwörter (Deutsch): Regularisierungsoperator , Regression , Riemannsche Mannigfaltigkeiten
Freie Schlagwörter (Englisch): machine learning , regularisation , differential equation , differential geometry , Bayesian inference , Gaussian process
Institut: Fachrichtung 6.2 - Informatik
Fakultät: Fakultät 6 - Naturwissenschaftlich-Technische Fakultät I
DDC-Sachgruppe: Informatik
Dokumentart: Dissertation
Hauptberichter: Hein, Matthias (Prof. Dr.)
Sprache: Englisch
Tag der mündlichen Prüfung: 18.05.2009
Erstellungsjahr: 2009
Publikationsdatum: 21.09.2009
Kurzfassung auf Englisch: Machine learning requires the use of prior assumptions which can be encoded into learning algorithms via regularisation techniques. In this thesis, we examine in three examples how suitable regularisation criteria can be formulated, what their meaning is, and how they lead to efficient machine learning algorithms. Firstly, we describe a joint framework for positive definite kernels, Gaussian processes, and regularisation operators which are commonly used objects in machine learning. With this in mind, it is then straightforward to see that linear differential equations are an important special case of regularisation operators. The novelty of our description is the broad, unifying view connecting kernel methods and linear system identification. We then discuss Bayesian inference and experimental design for sparse linear models. The model is applied to the task of gene regulatory network reconstruction, where the assumed network sparsity improves reconstruction accuracy and our proposed experimental design setup outperforms prior methods significantly. Finally, we examine non-parametric regression between Riemannian manifolds, a topic that has received little attention so far. We propose a regularised empirical risk minimisation framework, ensuring with the help of differential geometry that it does not depend on the representation of the input and output manifold. We apply our approach to several practical learning tasks in robotics and computer graphics.
Kurzfassung auf Deutsch: A priori Annahmen sind für das maschinelle Lernen unabdingbar, und eine Möglichkeit, diese Annahmen in Lernalgorithmen zu kodieren, ist die Regularisierung. In dieser Dissertation wird anhand von drei Beispielen untersucht, wie man sinnvolle Regularisierungskriterien formulieren kann und wie daraus effiziente Lernalgorithmen entstehen. Zuerst werden Zusammenhänge zwischen positiv definiten Kernen, Gaußprozessen und Regularisierungsoperatoren, wie sie häufig im maschinellen Lernen verwendet werden, beschrieben. Dabei wird klar, dass lineare Differentialgleichungen einen wichtigen Spezialfall solcher Operatoren darstellen, und dass Kernmethoden daher eng mit der linearen Systemidentifikation verwandt sind. Danach wird Bayessche Inferenz und Versuchsplanung in dünnbesetzten, linearen Modellen diskutiert. Das Modell wird auf die Rekonstruktion von genetischen Interaktionsnetzwerken angewendet. Durch die Annahmne, dass die zu schätzenden Vektoren dünnbesetzt sind, und durch die neuartige Versuchsplanungsmethode ergeben sich signifikante Verbesserungen der Rekonstruktion. Schließlich wird nichtparametrische Regression zwischen Riemannschen Mannigfaltigkeiten mittels regularisierter, empirischer Risikominimierung untersucht. Es wird darauf geachtet, dass die Regularisierung unabhängig von der Darstellung der Mannigfalitgkeiten ist. Die vorgestellte Methode wird anhand verschiedener Beispiele aus der Robotik und der Computergraphik getestet.

Home | Impressum | Über SciDok | Policy | Kontakt | Datenschutzerklärung | English