Studien- und Abschlussarbeiten

Wir suchen fortlaufend Studenten für die Bearbeitung von Studien- und Abschlussarbeiten. Hierbei decken die Themen das gesamte Spektrum an Forschungsbereichen innerhalb der derzeit von den Mitarbeitern behandelten Projekte ab. Ideen zu eigenen Themen und konkreten Aufgabenstellungen sind ebenfalls herzlich willkommen, wenn sie Synergien mit den Forschungsbereichen bilden.

Aufgrund der ständig wechselnden Themenvorschläge und Aufgabenstellungen durch die Betreuer erfolgt an dieser Stelle nur ein Hinweis auf einige ausgewählte Themen.


Individuelle Abschlussarbeit

Wir sind auf der Suche nach Studierenden, die gerne an unseren zukünftigen Forschungsprojekten arbeiten möchten. Je nach Ihren Fähigkeiten und Zukunftsplänen suchen wir gemeinsam ein Thema in unseren Forschungsbereichen, das am besten zu Ihnen passt. In Ihrer Abschlussarbeit werden Sie mit aufkommenden Themen in Berührung kommen mit einem Fokus auf KI. Die folgenden Themen sind Beispiele dafür, wie solche Arbeiten aussehen können.

Themenvorschläge

  • Auto-PyTorch für X [BSc + MSc]

    Erweiterung, Anwendung und Verfeinerung unseres AutoDL-Tools Auto-PyTorch für neue Bereiche wie Ausreißererkennung, Wartungsvorhersage oder Zeitreihenvorhersage. Wir empfehlen einen starken Hintergrund in Machinellem Lernen (insbesondere Deep Learning) und der von ihnen gewählten Anwendung für diese Arbeit. Bei Bewerbung zeigen Sie bitte die Richtung auf in der Sie arbeiten möchten und stellen einen groben Plan auf, wie Sie AutoPytorch in ihrem Zielbereich implementieren würden.

    Kontakt: Difan Deng

  • Umsetzung eines neuen DAC-Benchmarks [BSc + MSc]

    Modellierung, Implementierung und Evaluierung von DAC für einen beliebigen Zielalgorithmus. Wir empfehlen einen starken Hintergrund in RL, Grundkenntnisse in DAC sowie in der Zieldomäne Ihrer Wahl, um in diesem Thema erfolgreich zu sein. Mögliche Zielgebiete sind Maschinelles Lernen oder Reinforcement Learning, MIPS oder SAT-Löser und Evolutionäre Algorithmen.

    Kontakt: Theresa Eimer

  • Erforschung der Verhaltensähnlichkeit beim Contextual Reinforcement Learning [Bsc + Msc]

    Die Ausweitung des Reinforcement Learning auf kompliziertere Umgebungen als Spiele, wie z.B. Schach, macht es erforderlich, dass wir unsere Lernmethoden so ausrichten, dass sie viele Probleme in solchen Umgebungen angehen, wie z.B. große Zustands- und Aktionsräume, komplizierte Dynamiken, etc. Verhaltensähnlichkeit umfasst die Ausnutzung von Bedingungen, die zu ähnlichen Strategien führen, d.h. wenn sie mit demselben Zustand versehen sind, erzeugen sie identische Aktionsverteilungen. In dieser Arbeit wollen wir diese Methoden in einem kontextuellen Umfeld untersuchen, wobei wir versuchen werden, die folgenden Fragen zu beantworten

    1. Sind Ähnlichkeitsmethoden robust gegenüber kleinen Umweltveränderungen, wie zum Beispiel kontextuelles Reinforcement Learning? 
    2. Können wir diese Methoden verbessern, indem wir diese zusätzlichen kontextuellen Informationen durch Verlustvergrößerungen oder andere Verfahren nutzen? 
    3. Können wir solche Metriken über Umweltverteilungen hinweg meta-lernen? 

    Idealerweise würde dieses Thema für eine Bachelorarbeit bedeuten, dass wir bestehende Methoden abtragen, während wir für Masterarbeiten einen Schritt weiter gehen und versuchen würden, einen neuen Ansatz zu entwickeln.

    Kontakt: Aditya Mohan

  • Meta-Policy Gradients im Contextual RL [MSc]

    Meta-Policy-Gradienten zielen darauf ab, einen Satz von Hyperparametern in einer einzigen Lebenszeit zu lernen. Die Schlüsselidee besteht darin, die Iteration von Strategien mit der Aktualisierung von Hyperparametern zu verschachteln, d.h. ein Ziel (Bellman- oder Strategie-Gradientenziel) zu lernen und es dann zum Lernen einer neuen Parameteraktualisierung zu verwenden.  Neuere Arbeiten haben gezeigt, dass kontextbezogene Informationen über die Umgebung (z. B. Informationen über Ziele) Meta-Gradienten bereichern können.  

    Pitch:  Untersuchung der Auswirkungen von Kontextinformationen auf Vanille- und Bootstrapped-Meta-Gradienten zur Verallgemeinerung auf ähnliche Umgebungen. Diese Arbeit beinhaltet zwei Fragen:

    1. Funktionieren Standard-MPG-Techniken gut in kontextuellen Umgebungen?
    2. Hilft die Einbeziehung von Kontextinformationen beim Erlernen besserer Hyperparameter-Schemata unter Verwendung von MPGs in solchen Umgebungen?

    Je nach Interesse können wir herausfinden, wie wir diese Fragen konkret beantworten können. 

     

    Kontakt: Aditya Mohan

  • Multi-fidelity als Meta-Lernproblem [MSc]

    Multi-Fidelity hat als oberstes Ziel eine Kostenersparnis für den Hyperparameter Optimierungs Prozess durch approximierte finale Performence in form von e.g. kürzerem Training oder Training mit weniger Daten. Da diese Approximationen typischerweise graduell sind bietet es sich daher an den Approximationsfehler zu verringern indem man auf mehreren Stufen selektiv evaluiert. Ziel dieser Arbeit ist es dass man das vermeintliche Vorwissen von einer Stufe auf die nächste überträgt und kritisch hinterfragt, welche Stufe man überhaupt wählen möchte. Der Ansatz ist, dass man Multi-fidelity als kontinuierlichen Lernprozess über mehrere sich ähnelnde Aufgaben begreift, die es einzuordnen gilt. Wir empfehlen einen starken Hintergrund in AutoML für diese Arbeit. 

    Kontakt: Tim Ruhkopf

  • Interpretierbare Hyperparameter-Optimierung [BSc + MSc]

    Methoden zur Hyperparameter-Optimierung (HPO) können effizient gut funktionierende Hyperparameter-Konfigurationen bestimmen. Allerdings fehlt ihnen oft Einblick und Transparenz, da sie dem Benutzer keine Erklärung für den Optimierungsprozess und die zurückgegebene Konfiguration bieten. Indem wir HPO-Methoden auf verschiedene Weise erweitern, möchten wir uns einem interpretierbareren HPO-Prozess annähern. Das Ziel dieser Arbeit besteht darin, neue Methoden oder Erweiterungen bestehender Methoden für eine interpretierbare HPO zu implementieren und zu evaluieren.

    Kontakt: Sarah Segel

  • Augmentieren von Algorithmenkomponenten in RL durch Meta-Lernen [MSc]

    Wir können Augmentierungsfunktionen durch Meta-Lernen generieren, etwas für das policy objective in PPO. Es ist allerdings offen ob das allgemein für Algorithmenkomponenten in Reinforcement Learning gilt, ob wir auch Augmentierungsensembles lernen könnten und wie gut diese Funktionen generalisieren. Ziel dieser Arbeit ist existierende Techniken auf neue Algorithmen und Komponenten zu erweitern.

    Kontakt: Theresa Eimer

  • Alles zu Bayes'scher Optimierung - Wie kann die Robustheit und Effizienz erhöht werden? [BSc + MSc]

    Bayes'sche Optimierung (BO) umfasst eine Klasse von modell-gestützten, effizienten Algorithm für die Black-Box-Optimierung mit sehr kleinen Budgets an Funktionsevaluationen. Je nach zu optimierendem Problem wird eine andere Einstellung benötigt, was direkt die Robustheit und Effizienz beeinflusst.
    Das Ziel dieser Arbeit ist, die Robustheit und Effizienz von BO zu erhöhen, indem entweder der Kompromiss zwischen Exploration und Exploitation (dynamisch) eingestellt oder meta-gelernt wird, oder indem unser Tool SMAC3 mit verschiedenen State-of-the-Art Methoden erweitert wird.

    Kontakt: Carolin Benjamins

  • Unser HPO Tool SMAC Verbessern [BSc]

    SMAC ist ein robustes und flexibles Framework für Bayes'sche Optimierung. Es unterstützt Nutzer dabei, gut geeignete Hyperparameterkonfigurationen für ihre Algorithmen, z.B. bei Maschinellem Lernen,  zu finden. Der Kern von SMAC besteht aus Bayes'scher Optimierung kombiniert mit einem "Agressive Racing" Mechanismus, der effizient entscheidet, welche Konfiguration besser geeignet ist.
    Natürlich ist SMAC noch nicht vollendet und wir haben einige mögliche Abschlussarbeitthemen, z.B.:

    • Implementierung und Evaluation von State-of-the-Art Modellen, die die zugrunde liegende Funktion approximieren
    • Implementierung und Evaluation von Input- und Output-Warping-Techniken
    • Implementierung und Evaluation von Multi-Objektive Qualitätsindikatoren

    und viele mehr!

    Kontakt: Carolin Benjamins

  • Implementierung und Evaluation paralleler HPO Ansätze [BSc]

    Hyperparameter-Optimierung (HPO) ist ein wichtiger Schritt in der Entwicklung von Modellen des maschinellem Lernens, kann aber rechenintensiv und zeitaufwendig sein. Parallele HPO-Methoden, wie etwa PASHA (Progressive Asynchronous Successive Halving Algorithm), versuchen, dieses Problem durch Parallelisierung des Suchprozesses anzugehen. Dieses Projekt beinhaltet die Implementierung und Bewertung von PASHA oder ähnlichen parallelen HPO-Ansätzen. Bei der Bewertung sollten Faktoren wie Recheneffizienz, Qualität der resultierenden Modelle und Skalierbarkeit berücksichtigt werden. Das Projekt könnte auch die Leistung des parallelen HPO-Ansatzes mit traditionellen sequenziellen HPO-Methoden vergleichen.

    Kontakt: Helena Graf

  • Methoden der Hyperparameter Importance [MSc]

    Die wichtigsten Hyperparameter zu identifizieren gibt Aufschluss über das zugrundeliegende Modell und zeigt, auf welche Hyperparameter man sich beim Tuning vorrangig konzentrieren sollte. Es gibt viele Methoden zur Bestimmung der Wichtigkeit von Hyperparametern (Feature Importance, Ablation Analysis, Forward Selection, Local Parameter Importance, fANOVA), die einem Anwender von maschinellem Lernen möglicherweise nicht bekannt sind. In diesem Projekt soll ein detaillierter Überblick über alle Methoden gegeben werden. Darüber hinaus sollten die Anwendungsbereiche spezifischer Methoden sowie Vor- und Nachteile berücksichtigt werden.

    Kontakt: Helena Graf

  • Empirische Evaluation von oberen Schranken von Performanz Metriken [BSc/MSc]

    Die Entwicklung von ML-Modellen ist eine langwierige und zeitraubende Aufgabe. Grundsätzlich ist die Leistung eines jeden Modells unklar, bis es tatsächlich ausgewertet wird. Daher können viele Ressourcen verschwendet werden, wenn die Performanz des finalen Modells nicht den zuvor festgelegten Mindestanforderungen passt, z. B. wenn eine Genauigkeit von 90 % erforderlich ist, das beste Modell aber nur 70 % erreicht. In einem solchen Fall ist entweder das Modell nicht gut genug und man muss mehr Ressourcen in die Entwicklung eines besseren Modells investieren, oder die Qualität der Daten macht es unmöglich eine bessere Leistung zu erzielen. Um den letzteren Fall auszuschließen, wäre es hilfreich, wenn es theoretische Schranken für verschiedene Metriken gäbe, die im Voraus für einen bestimmten Datensatz überprüft werden könnten. Ziel dieser Arbeit ist es, bestehende Vorschläge für solche Schranken empirisch zu bewerten, um herauszufinden, ob sie unter verschiedenen Annahmen tatsächlich zutreffen. 

    Kontakt: Tanja Tornede

  • Verbesserung der Analyse des Tierverhaltens via HPO in Objektverfolgungsalgorithmen - In Zusammenarbeit mit dem Zoo Hannover [MSc]

    In Zusammenarbeit mit dem Zoo Hannover sollen Objekterkennungs- und -verfolgungsalgorithmen zur Überwachung des Aufzuchtverhaltens von Thomson-Gazellen verbessert werden. Wir integrieren automatisiertes maschinelles Lernen (AutoML) und Computer Vision,, wobei der Schwerpunkt auf der Hyperparameteroptimierung (HPO) liegt. Das Hauptziel dieses Projekts besteht darin, die Analyse des Tierverhaltens mithilfe von Kameradaten zu verbessern. Nach Identifizierung führender Verfolgungsalgorithmen beinhaltet diese Masterarbeit das Benennen relevanter Hyperparameter, die spezifisch für die entsprechenden Verfolgungsalgorithmen sind. Das AutoML-Tool SMAC soll strategisch zur Optimierung der Leistung der Verfolgungsalgorithmen genutzt werden, mit dem Ziel, die Genauigkeit und Effizienz bei der Analyse des Tierverhaltens zu steigern.

    Kontakt: Leona Hennig

Interesse geweckt?

Der genaue Ablauf einer Abschlussarbeit, zusammen mit einer ungefähren Vorstellung welche Erwartungen wir an Abschlussarbeiten haben, ist hier beschrieben.

Es ist uns wichtig, dass das passende Hintergrundwissen vorhanden ist, damit eine Arbeit bei eine Chance auf einen positiven Abschluss hat. Um das entsprechend einschätzen zu können, würden wir bitten, uns folgende Punkte zu kommen zu lassen:

  1. Themenvorschlag oder Themengebiet(e)
  2. Welche Vorkenntnisse sind vorhanden? Welche ML-bezogenen Kurse wurden dafür belegt?
  3. Eine Selbsteinschätzung von -- bis ++ zu folgenden Themen:
    • Coding in Python
    • Coding mit PyTorch
    • Fähigkeit ein Deep Learning Paper zu implementieren
    • Fähigkeit ein Reinforcement Learning Paper zu implementieren
    • Fähigkeit eine fremde Codebase zu verstehen und auszuführen

Falls Sie generell Interesse an einer Abschlussarbeit bei uns haben, aber sich für keines der oben angegebenen Themen entschieden haben, so senden Sie bitte eine Email mit den oben stehenden Informationen an m.lindauer@ai.uni-hannover.de.

Sollten Sie Interesse an einem spezifischen, weiter oben angegebenen Thema haben, so senden Sie bitte direkt eine Email an die im Thema angegebene Ansprechperson. Die Mailadressen können den persönlichen Seiten entnommen werden.