17 June, 2019
Johannes Maucher

Deep Learning Track Vol.1

Der Deep Learning Track ist eine neue vom Institute for Applied AI (IAAI) angebotene Veranstaltungsreihe. Sie richtet sich an alle, die mit den aktuellen Entwicklungen im Bereich Deep Learning Schritt halten wollen (keep track). Die erste Ausgabe wird am 18.07.2019 von 8.15h - 12.30h an der HdM stattfinden.

Die Schwerpunktthemen in dieser ersten Veranstaltung sind Explainable AI (XAI) und Generative Adversariale Netze (GANs) für Bildsynthese und Bildvergrößerung. Die Themen wurden im Rahmen des Master-Seminars Selected Topics of Deep Learning von den Studierenden aufbereitet. Die entsprechenden Präsentationen sind unten kurz beschrieben.


LIME – Explainability in AI

  • Daniel Bruckner, Florian Rupp, Marcel Heisler
  • 8.15h-8.45h

Moderne Machine Learning Algorithmen erreichen bereits eine sehr hohe Genauigkeit in der Bild- und Textverarbeitung und sind ein fester Bestandteil vieler Datenverarbeitungsverfahren. Viele dieser Algorithmen können trotz ihrer überragenden Leistung keine Erklärung für die erzielten Ergebnisse liefern. Mit LIME (Local Interpretable Model-agnostic Explanations) stellen wir im Rahmen dieser Präsentation einen Modell-unabhängigen Ansatz zur Lösung dieses Problems vor. Dabei gehen wir im Detail auf die Funktionsweise, sowie auf die Anwendung von LIME in verschiedenen Szenarien ein.


Ein Blick in die Blackbox - Verbessern der Explainability von neuronalen Netzen mit DeepLIFT

  • Alexandra Rink, Christian Müller
  • 8.50h-9.20h

DeepLIFT ist eine Methode zur Interpretation und Erklärung von Ausgaben aus neuronalen Netzen. Dieses Verfahren wird anhand von Beispielen veranschaulicht.


Autonomes Fahren mit Deep Reinforcement Learning

  • Nadin-Katrin Apel, Daniel Dreher
  • 9.25h-9.55h

Deep Reinforcement Learning sorgt immer wieder für neue Schlagzeilen: Erst wurde Go gemeistert, dann Starcraft und vor kurzer Zeit sogar Dota 2. Doch auch abseits von Spielen zeigt das Lernen mit Kritiker Potential, zum Beispiel beim autonomen Fahren. Mit unserem Projekt versuchen wir Deep Reinforcement Learning auf die Straße zu bringen. Hierfür wurde ein tiefes neuronales Netz mit einer “Asynchronous Advantage Actor-Critic”-Architektur in einer virtuellen Simulationsumgebung trainiert und anschließend zur Auswertung auf ein Auto in Miniaturformat übertragen.


Semantische Bildsynthese mit GANs

  • Manuel Carullo
  • 10.15h-10.45h

GANs (Generative Adversarial Networks) sind seit einigen Jahren ein enorm wichtiges Werkzeug im Bereich Deep Learning um u.a. fotorealistische Bilder zu generieren. In diesem Vortrag soll insbesondere auf die Entwicklungen im Bereich der semantischen Bildsynthese eingegangen werden, bei der dem Netz mit Hilfe einer Segmentation Map spezifische Vorgaben gemacht werden, welcher Bildinhalt an welcher Stelle im Bild generiert werden soll. Der Fokus liegt dabei auf dem vor wenigen Monaten von NVIDIA vorgestellten GauGAN, welches SPADE (Spatially-Adaptive Normalization) nutzt, um realistische Landschaften zu generieren.


AttnGAN

  • Tobias Wolf
  • 10.50h-11.20h

Beim AttnGAN handelt es sich um eine Weiterentwicklung eines GANs, welche es erlaubt aus kurzen Sätzen Bilder zu generieren. Das zusätzlich eingesetzte Attentionmodell fokussiert hierbei verschiedene Wörter in verschiedenen Bildbereichen, wodurch detailliertere Bilder entstehen.


Single Image Super Resolution (SISR) mit Enhance Super Resolution GAN

  • Tim Landenberger, Christophe Hoste, Johannes Horn
  • 11.25h-11.55h

Die Problemstellung Single Image Super Resolution (SISR) beschäftigt sich damit, niedrig aufgelöste Bilder zu vergrößern. In den letzten 6 Jahren hat sich die Qualität durch verschiedene Architekturen (RCNN, VDSR, EDSR, SRGAN) stetig verbessert. Im Vortrag wird die aktuelle “State of the Art” Architektur ESRGAN “Enhances Super Resolution GAN” vorgestellt, untersucht und im Detail erläutert.


Video Super Resolution (VSR)

  • Simon Wolf, Vincent Musch, Sinan Kale
  • 12.00h-12.30h

Die VSR bringt aufgrund zeitlicher Abhängigkeiten der einzelnen Bilder zusätzliche Herausforderungen mit sich. Diese können mit der Bestimmung des Optischen-Flows bewältigt werden und das Hochskalieren eines Videos enorm verbessern. Am Beispiel “TecoGAN” wird eine solche Architektur genauer betrachtet. Weiter werden Herausforderungen und Modifikationen analysiert, welche die heutige VSR weiter verbessern könnten.


Anmeldung & Kontakt:

Prof. Dr. Johannes Maucher
Hochschule der Medien
Telefon: +49 (0)711 8923 2178
Email: maucher@hdm-stuttgart.de
Webseite: http://maucher.pages.mi.hdm-stuttgart.de/ai/