Hochschule Düsseldorf
University of Applied Sciences
Fachbereich Elektro- & Informationstechnik
Faculty of Electrical Engineering & Information Technology

​​​Vorschläge und Themen für neue Abschlussarbeiten

Die folgende Liste enthält Vorschläge für neue Abschlussarbeiten, welche alle sofort in der Arbeitsgruppe begonnen werden können. Einige Themen eignen sich vom Inhalt her sowohl für Bachelor- als auch als Master-Thesis, der Unterschied liegt dann im Anspruch und der Tiefe der Auseinandersetzung. Im Zweifelsfall gilt aber das bei Interesse fast alle Themen auf das jeweilige Niveau angepasst werden können - bitte fragen Sie nach.

Forschungsthema: Physikalisch-Realistische Optik-Simulation für Fahrerassistenz-Systeme und Autonomes Fahren

Unsere Forschung beschäftigt sich mit der möglichst realistischen Simuationen von Kamera-Systemen für autonomes Fahren. Beim Übergang von Assistenzfunktionen zum autonomen Fahren wird die Bildqualität der eingesetzten Kameras im Fahrzeug *mission critical*. Um diese Bildqualität umfassend zu testen müssen die Kamera-Systeme auch simuliert und in künstlichen Fahrszenen erprobt werden.

Die aktuell vorliegenden Optik-Modelle sind jedoch alle stark vereinfacht, oder sehen sogar nur wie Computerspiel-Grafik aus. Das ist für die quantitative Bewertung eines echten Produktes nur eine Näherung. Selbst foto-realistisch reicht ja nicht aus, weil für die Überprüfung des Kamera-Systems nicht irgend etwas simuliert werden soll, dass so *aussieht* wie ein optischer Effekt, sondern dass so *ist* wie das echte System. Wir sprechen dabei von physikalisch-realistisch statt foto-realistisch.

Hier setzt unsere Forschung an. Wir gebrauchen lineare System-Theorie um die optischen Eigenschaften eines Objektives zu beschreiben. Im Ortsraum beschreibt dabei die sogenannte Punktspreizfunktion (PSF) die Wirkung der Optik auf die Abbildung der Szene. Vereinfacht gesprochen bildet ein Objektiv einen idealen Punkt nicht als Punkt sondern eben leicht verschmiert als Verteilung ab. Das ist die PSF. Gemäß linearer Systemtheorie kann die Wirkung des Objektives simuliert werden indem die PSF auf eine bestehende Szene gefaltet wird. Die Faltungsoperation kann auch nach Fouriertransformation im Frequenzbereich als Multiplikation ausgeführt werden. Anders gesagt wenden wir mit der Faltung einen Bildbearbeitungsfilter an, und hinterher sieht das Bild so aus wie mit der vermessenen Linse aufgenommen.

Der Faltungsalgorithmus selber, also die Anwendung eines Faltungskernels als Filterfunktion, ist Gegenstand einiger der unten aufgeührten Abschlussarbeiten. Die Entfaltung - d.h. das nachträgliche Herausrechnen der Wirkung eines Objektives um wieder ein scharfes Bild zu erhalten (engl. Image Reconstruction) - ist ein ebenfalls sehr wichtiger Aspekt unserer Arbeit und findet sich ebenso in einigen Themen wieder. 

Kernstück ist die Modellierung der gemessenen PSF durch künstliche neuronale Netze (NN). Dabei setzen wird NN als rein statistische Methode der nicht-linearen Regression ein. Mit diesem Modell sind wir dann in der Lage den Faltungskernel für die Bildbearbeitung zu bestimmen. Im ersten Schritt sind unsere NN sehr einfach aufgebaut. Da wir die NN als quantitative Regression einsetzen ist das Auflösungsvermögen und die Genauigkeit der Regression eine wichtige Fragestellung die in mehrere Themen einfließt. Einige weitere Themenvorschläge setzen sich mit alternativen Topologien des Netzes selber auseinander, insbesondere ob Vorwissen über die optischen Eigenschaften in die Struktur des Netzes einfließen kann. Auch Variationen der Metrik sind Thema.

Der aktuelle Stand des neuronalen Netzes ist mit Tensorflow in Python umgesetzt, und das Training ist auch mittelfristig mit Python geplant. Bei der *inference* und der Faltung jedoch setzen wir auf C++, so dass auch dies in den Themen zu finden ist. Ziel ist letztendlich eine Echtzeit-fähige Bildbearbeitung, welches voraussichtlich nur mit fortgeschrittenen Programmierparadigmen auf der GPU umgesetzt werden kann.

Aktuelle Arbeiten:

  • Vergleich synthetisch / echt im Labor: um die Güte unseres Optik-Modells zu demonstrieren sollen echte Bilder mit vermessenen Objektiven im Optik-Labor ​gemacht werden. Anschließend wird das Bild in Simulation erstellt, und das vorher vermessene Objektiv als Modell auf die Simulation angewandt. Wir verwenden quantitative Methoden um die Bildqualität zu vergleichen.
  • Gauss vs. PSF mit "Dead Leaves": dies ist eine Variation des Vergleichs synthetisch-echt. In der Computer-Vision-Wissenschaft ist der Gauß-Filter als Unschärfe-Filter weit verbreitet. Aus optischer Sicht ist dies völlig unzureichend. Hier soll die optische Qualität des Gauß-Filters quantitativ bestimmt werden, und mit Zernike-Polynomen eine zusätzliche Alternative zu unserem Optik-Modell aufgezeigt werden.
  • Image Reconstruction: welche Algorithmen zur Entfaltung der Übertragungsfunktion werden in der Literatur bei etablierten Algorithmen des Computational Imaging (Extended Depth of focus, PSF modeling) eingesetzt? Hierzu eine Recherche und ggfls. Nach-Programmierung dieser Algorithmen.
  • Kombi-Faltung: wir haben es regelmäßig mit echten Fahrdaten zu tun, welche ja bereits mit einem konkreten Objektiv aufgezeichnet wurden. Bei der Kombi-Faltung handelt es sich um einen neuartigen Vorschlag die Image Reconstruction durch eine zweite Faltung zu umgehen, und zwei-in-einer Faltung durchzuführen.
  • Algorithmen der Personenerkennung: eine weitere Möglichkeit unser Optik-Modell zu bewerten sind Open-Source-Algorithmen zur Personenerkennung. Es sollen eine Anzahl bekannter Algorithmen in der Arbeitsgruppe implementiert werden, und voher/nacherh-Vergleiche mit/ohne Optik-Modell auf Bild-Datenbanken durchgeführt werden.
  • Spektrale Auflösung und Verzerrung: jedes Objektiv verzerrt (distortion), und jedes Objektiv hat chromatische Aberrationen (Farbfehler). In unserem Modell hängen diese Themen zusammen. Es geht darum bekannte Distortion-Modelle zu implementieren, und gleichzeitig das Optik-Modell um Farbkanäle zu erweitern.
  • Metrik: wie ähnlich sind sich zwei räumliche Verteilungen? Diese sehr allgemeine Frage wird aktuell meist einfach mit Mean Square Error (MSE) beantwortet. MSE ignoriert jedoch den räumlichen Zusammenhang der Daten. In dieser Arbeit werden Metriken untersucht welche die räumliche Bedeutung der Daten-Anordnung berücksichtigt. Diese Metrik soll im Optik-Modell umgesetzt werden, d.h. das neuronale Netz wird dann nicht mit MSE trainiert.
  • Auflösungsvermögen: in Abhängigkeit von der Topologie des neuronalen Netzes hat unser Optik-Modell ein gewisses räumliches Auflösungsvermögen. Die Topologie soll variiert und der Einfluss auf das Auflösungsvermögen untersucht werden. Dazu gehört insbesondere auch die Variation der Test- und Trainingsdaten für das neuronale Netz.


Forschungsthema: ​Digital Annealer, Quantum Annealer und Quantencomputer

Quantum Annealing [1] ist ein Vorschlag zur Beschleunigung des etablierten und erfolgreichen klassischen Simulated Annealing Optimierungs-Algorithmus [2]. Insbesondere im Bereich der Kombinatorik (Travelling Salesman Problem, Lager-Logistik, Verkehrsfluss-Optimierung u.v.m.) hat sich das Simulated Annealing als sehr hilfreich erwiesen. Spannend ist, dass mit moderner Hardware (z.B. D-Wave Quantum Annealer [3]) der Quantum Annealing Algorithmus auch im Labor bereits experimentell umgesetzt wurde, und sogar schon bei ersten Industriepartnern im Einsatz ist (insbesondere VW [4]). Allerdings stellt sich die Frage, ob der sehr teure Quanten-Annealer überhaupt notwendig ist, oder ob nicht klassische Verfahren die gleiche Leistungsfähigkeit erreichen?

Weil es nämlich darüber hinaus moderne klassischen Berechnungsansätze mit FPGAs und ASICs gibt, welche das Simulated Annealing ebenfalls beschleunigen. Diese werden unter dem Begriff Digital Annealing geführt. Z.T. wird irreführender Weise Werbung gemacht, dass auch diese klassischen Ansätze eine Quanten-Beschleunigung simulieren, was inhaltlich schlichtweg falsch ist [5]. Das spannende: die Ansätze von Fujitsu sind im Detail veröffentlicht, und sollten auf moderner GPU-Hardware nachgestellt werden können. Die Leistungsfähgkeit der echten Quanten-Annealer steht auch in Frage [1], und könnte durch den Vergleich mit den klassischen Digital Annealer Algorithmen untersucht werden.

Diese Arbeit beinhaltet konkret:

  • Implementierung des veröffentlichten Digital Annealing Algorithmus von Fujitsu auf einer Nvidia-GPU mit Cuda-Cores (Python oder C++)
  • Implementierung relevanter Anwendungen (Traveling salesman, Verkehrsflussoptimierung) mit Hilfe dieses Annealing-Algorithmus
  • Kontaktaufnahme zu VW um deren Anwendungen zu erhalten, um einen Vergleich zu echten Quanten-Annealing zu ermöglichen

Diese Arbeit macht Ihnen Spaß, wenn

  • Sie gerne intensiv und Hardware-nah programmieren
  • Sie sich für vielfältig nutzbare Optimierungs-Algorithmen interessieren
  • Sie gerne lernen möchte wie man mit Hilfe der Komplexitätstheorie moderne Algorithmen bewertet
  • Sie einen Einblick in das Feld des Quantencomputing erhalten wollen
Das Thema gibt - wenig überraschend - Inhalte auch für mehrere Arbeiten ab. Ein Kontakt zum VW Data:Lab in München besteht bereits, ebenso zur Computerzeitschrift c’t (s. [1, 5]) für eine mögliche Veröffentlichung der Ergebnisse.

Bitte sprechen Sie mich bei Interesse oder Fragen einfach direkt per Mail oder Teams an.

Referenzen:
[1] https://www.heise.de/hintergrund/Quanten-Annealer-Vorbote-des-Quantencomputers-4440230.htmlhttps://www.heise.de/hintergrund/Quanten-Annealer-Vorbote-des-Quantencomputers-4440230.html
[2] https://de.wikipedia.org/wiki/Simulated_Annealing
[3] https://www.dwavesys.com/solutions-and-products/systems/
[4] https://www.volkswagenag.com/en/news/stories/2019/11/where-is-the-electron-and-how-many-of-them.html
[5] https://www.heise.de/hintergrund/Was-Fujitsus-Digital-Annealer-von-Quantencomputern-unterscheidet-4441046.html