Studien- und Abschlussarbeiten

Wir suchen fortlaufend Studenten für die Bearbeitung von Studien- und Abschlussarbeiten. Hierbei decken die Themen das gesamte Spektrum an Forschungsbereichen innerhalb der derzeit von den Mitarbeitern behandelten Projekte ab. Ideen zu eigenen Themen und konkreten Aufgabenstellungen sind ebenfalls herzlich willkommen, wenn sie Synergien mit den Forschungsbereichen bilden.

Aufgrund der ständig wechselnden Themenvorschläge und Aufgabenstellungen durch die Betreuer erfolgt an dieser Stelle nur ein Hinweis auf einige ausgewählte Themen.


Individuelle Abschlussarbeit

Wir sind auf der Suche nach Studierenden, die gerne an unseren zukünftigen Forschungsprojekten arbeiten möchten. Je nach Ihren Fähigkeiten und Zukunftsplänen suchen wir gemeinsam ein Thema in unseren Forschungsbereichen, das am besten zu Ihnen passt. In Ihrer Abschlussarbeit werden Sie mit aufkommenden Themen in Berührung kommen mit einem Fokus auf KI. Die folgenden Themen sind Beispiele dafür, wie solche Arbeiten aussehen können.

Themenvorschläge

  • Auto-PyTorch für X [BSc + MSc]

    Erweiterung, Anwendung und Verfeinerung unseres AutoDL-Tools Auto-PyTorch für neue Bereiche wie Ausreißererkennung, Wartungsvorhersage oder Zeitreihenvorhersage. Wir empfehlen einen starken Hintergrund in Machinellem Lernen (insbesondere Deep Learning) und der von ihnen gewählten Anwendung für diese Arbeit. Bei Bewerbung zeigen Sie bitte die Richtung auf in der Sie arbeiten möchten und stellen einen groben Plan auf, wie Sie AutoPytorch in ihrem Zielbereich implementieren würden.

    Kontakt: Difan Deng

  • Umsetzung eines neuen DAC-Benchmarks [BSc + MSc]

    Modellierung, Implementierung und Evaluierung von DAC für einen beliebigen Zielalgorithmus. Wir empfehlen einen starken Hintergrund in RL, Grundkenntnisse in DAC sowie in der Zieldomäne Ihrer Wahl, um in diesem Thema erfolgreich zu sein. Mögliche Zielgebiete sind Maschinelles Lernen oder Reinforcement Learning, MIPS oder SAT-Löser und Evolutionäre Algorithmen.

    Kontakt: Theresa Eimer

  • Erforschung der Verhaltensähnlichkeit beim Contextual Reinforcement Learning [Bsc + Msc]

    Die Ausweitung des Reinforcement Learning auf kompliziertere Umgebungen als Spiele, wie z.B. Schach, macht es erforderlich, dass wir unsere Lernmethoden so ausrichten, dass sie viele Probleme in solchen Umgebungen angehen, wie z.B. große Zustands- und Aktionsräume, komplizierte Dynamiken, etc. Verhaltensähnlichkeit umfasst die Ausnutzung von Bedingungen, die zu ähnlichen Strategien führen, d.h. wenn sie mit demselben Zustand versehen sind, erzeugen sie identische Aktionsverteilungen. In dieser Arbeit wollen wir diese Methoden in einem kontextuellen Umfeld untersuchen, wobei wir versuchen werden, die folgenden Fragen zu beantworten

    1. Sind Ähnlichkeitsmethoden robust gegenüber kleinen Umweltveränderungen, wie zum Beispiel kontextuelles Reinforcement Learning? 
    2. Können wir diese Methoden verbessern, indem wir diese zusätzlichen kontextuellen Informationen durch Verlustvergrößerungen oder andere Verfahren nutzen? 
    3. Können wir solche Metriken über Umweltverteilungen hinweg meta-lernen? 

    Idealerweise würde dieses Thema für eine Bachelorarbeit bedeuten, dass wir bestehende Methoden abtragen, während wir für Masterarbeiten einen Schritt weiter gehen und versuchen würden, einen neuen Ansatz zu entwickeln.

    Kontakt: Aditya Mohan

  • Meta-Policy Gradients im Contextual RL [MSc]

    Meta-Policy-Gradienten zielen darauf ab, einen Satz von Hyperparametern in einer einzigen Lebenszeit zu lernen. Die Schlüsselidee besteht darin, die Iteration von Strategien mit der Aktualisierung von Hyperparametern zu verschachteln, d.h. ein Ziel (Bellman- oder Strategie-Gradientenziel) zu lernen und es dann zum Lernen einer neuen Parameteraktualisierung zu verwenden.  Neuere Arbeiten haben gezeigt, dass kontextbezogene Informationen über die Umgebung (z. B. Informationen über Ziele) Meta-Gradienten bereichern können.  

    Pitch:  Untersuchung der Auswirkungen von Kontextinformationen auf Vanille- und Bootstrapped-Meta-Gradienten zur Verallgemeinerung auf ähnliche Umgebungen. Diese Arbeit beinhaltet zwei Fragen:

    1. Funktionieren Standard-MPG-Techniken gut in kontextuellen Umgebungen?
    2. Hilft die Einbeziehung von Kontextinformationen beim Erlernen besserer Hyperparameter-Schemata unter Verwendung von MPGs in solchen Umgebungen?

    Je nach Interesse können wir herausfinden, wie wir diese Fragen konkret beantworten können. 

     

    Kontakt: Aditya Mohan

  • Augmentieren von Algorithmenkomponenten in RL durch Meta-Lernen [MSc]

    Wir können Augmentierungsfunktionen durch Meta-Lernen generieren, etwas für das policy objective in PPO. Es ist allerdings offen ob das allgemein für Algorithmenkomponenten in Reinforcement Learning gilt, ob wir auch Augmentierungsensembles lernen könnten und wie gut diese Funktionen generalisieren. Ziel dieser Arbeit ist existierende Techniken auf neue Algorithmen und Komponenten zu erweitern.

    Kontakt: Theresa Eimer

  • Verbesserung der Analyse des Tierverhaltens via HPO in Objektverfolgungsalgorithmen - In Zusammenarbeit mit dem Zoo Hannover [MSc]

    In Zusammenarbeit mit dem Zoo Hannover sollen Objekterkennungs- und -verfolgungsalgorithmen zur Überwachung des Aufzuchtverhaltens von Thomson-Gazellen verbessert werden. Wir integrieren automatisiertes maschinelles Lernen (AutoML) und Computer Vision,, wobei der Schwerpunkt auf der Hyperparameteroptimierung (HPO) liegt. Das Hauptziel dieses Projekts besteht darin, die Analyse des Tierverhaltens mithilfe von Kameradaten zu verbessern. Nach Identifizierung führender Verfolgungsalgorithmen beinhaltet diese Masterarbeit das Benennen relevanter Hyperparameter, die spezifisch für die entsprechenden Verfolgungsalgorithmen sind. Das AutoML-Tool SMAC soll strategisch zur Optimierung der Leistung der Verfolgungsalgorithmen genutzt werden, mit dem Ziel, die Genauigkeit und Effizienz bei der Analyse des Tierverhaltens zu steigern.

    Kontakt: Leona Hennig

Interesse geweckt?

Der genaue Ablauf einer Abschlussarbeit, zusammen mit einer ungefähren Vorstellung welche Erwartungen wir an Abschlussarbeiten haben, ist hier beschrieben.

Es ist uns wichtig, dass das passende Hintergrundwissen vorhanden ist, damit eine Arbeit bei eine Chance auf einen positiven Abschluss hat. Um das entsprechend einschätzen zu können, würden wir bitten, uns folgende Punkte zu kommen zu lassen:

  1. Themenvorschlag oder Themengebiet(e)
  2. Welche Vorkenntnisse sind vorhanden? Welche ML-bezogenen Kurse wurden dafür belegt?
  3. Eine Selbsteinschätzung von -- bis ++ zu folgenden Themen:
    • Coding in Python
    • Coding mit PyTorch
    • Fähigkeit ein Deep Learning Paper zu implementieren
    • Fähigkeit ein Reinforcement Learning Paper zu implementieren
    • Fähigkeit eine fremde Codebase zu verstehen und auszuführen

Falls Sie generell Interesse an einer Abschlussarbeit bei uns haben, aber sich für keines der oben angegebenen Themen entschieden haben, so senden Sie bitte eine Email mit den oben stehenden Informationen an m.lindauer@ai.uni-hannover.de.

Sollten Sie Interesse an einem spezifischen, weiter oben angegebenen Thema haben, so senden Sie bitte direkt eine Email an die im Thema angegebene Ansprechperson. Die Mailadressen können den persönlichen Seiten entnommen werden.

luhai_slides_template.pptx
PPTX, 1 MB