Phase 1

NummerProjekt
1Mathematische Modelle in der Magnetpartikelbildgebung
2Machine Learning/Deep Learning Methoden für Risserkennung
3Deep Learning für die Charakterisierung von Hauttumoren
4Analyse und Quantifizierung von Notausweichtrajektorien
5TPM-basierte dynamische Bildrekonstruktion in der Magnetresonanztomographie                      
6Materialprüfung mittels Hochdurchsatz-Nano-Computertomographie
7Optimierung von Aktivkohlefiltern zur Wasseraufbereitung
8Deep Learning für Predictive Maintenance von Schienenfahrzeugen
9Symbolische Regression für die Materialmodellierung
10Deep Learning für die Detektion von interiktalen epileptischen Spikes
11Deskriptoren für Rheologiedaten

 

Phase 2


#1 Mathematische Modelle in der Magnetpartikelbildgebung

Die Magnetpartikelbildgebung (Magnetic Particle Imaging, MPI) ist ein neuartiges Bildgebungsverfahren mit vielversprechenden medizinischen Anwendungen, bei der eine Verteilung von Nanopartikeln mit einem ferromagnetischen Kern und einer funktionalisierten Hülle visualisiert wird. Das Verfahren ist strahlungsfrei und profitiert von einer hohen zeitlichen Auflösung.

Es soll ein Modell für das Verhalten der magnetischen Momente der Nanopartikel, welches Néel und/oder Brown Rotation berücksichtigt, untersucht werden. Dies beinhaltet den Abgleich mit Realdaten, einen qualitativen und ggf. quantitativen Vergleich mit den Messdaten und visuelle (dynamische) Aufbereitung der Simulationen in physikalisch realistischen Szenarien. Auf der mathematischen Seite erfordert dies insbesondere die numerische Lösung einer parabolischen PDE, welche sich durch Diskretisierung auf die Lösung eines Anfangswertproblem reduzieren lässt. Die Messdaten aus den MPI-Experimenten am Beispiel von technischen Gefäß- und Auflösungsphantomen werden von dem Anwendungspartner zur Verfügung gestellt.

Studentisches Team (ab Juli 2021)

Cécile Pot d'or & Lasse Fischer

Kooperation

Universität Bremen – Dr. Tobias Kluth, Hannes Albers
Universitätsklinikum Hamburg-Eppendorf – Prof. Dr. Tobias Knopp

Abschluss

Erfolgreich abgeschlossen am 19.01.2022.


#2 Machine Learning/Deep Learning Methoden für Risserkennung

Für die Konstruktion und Instandhaltung von Gebäuden, Brücken und Straßen ist es wichtig, Risse in Beton zuverlässig und so früh wie möglich detektieren zu können. Hierzu kommen bildgebende Methoden zum Einsatz, die den Beton zwei- oder dreidimensional abbilden. Zur automatischen Detektion der Risse in den Bildern können auf maschinellem Lernen basierende Methoden verwendet werden. Eine Charakterisierung der beobachteten Risse kann dann helfen, die mechanischen Eigenschaften von Beton besser zu verstehen.

Risserkennung entspricht einem binären Klassifizierungsproblem, das heißt ein Bild soll entweder als “enthält einen Riss” oder “enthält keinen Riss” klassifiziert werden. Im Projekt sollen Methoden des maschinellen Lernens für diesen Zweck genutzt werden. Da für supervised learning ein großer Trainingsdatensatz erforderlich ist, werden synthetische Bilder zur Verfügung gestellt. Darüber hinaus sollen die Ansätze auch auf realen 3D Daten, die mittels Computertomografie von Betonproben gewonnen werden, getestet werden.

Studentisches Team (ab Juli 2021)

Shai Dimant & Justus Will

Kooperation

Technische Universität Kaiserslautern - Prof. Dr. Claudia Redenbach, Franziska Müsebeck
Fraunhofer ITWM Kaiserslautern - Dr. Katja Schladitz

Abschluss

Erfolgreich abgeschlossen am 18.01.2022.


#3 Deep Learning für die Charakterisierung von Hauttumoren

Der Einsatz von künstlicher Intelligenz (KI) in der digitalen Pathologie schreitet unaufhörlich voran. Durch neu entwickelte Methoden aus den Bereichen maschinelles Lernen (ML) und Deep Learning (DL) können die histologischen Standardmethoden ergänzt und Prozesse in der Routinediagnostik automatisiert werden.

Es soll untersucht werden, wie detailliert die dermatopathologischen Annotationen eines Gewebeschnitts sein müssen, um robuste Klassifizierungsergebnisse zu erzielen. Dafür kommen für die Netzwerkarchitektur Encoder-Decoder/ FCN (fully convolutional neural networks)/ U-Nets zur Anwendung. Die Sensibilität für Veränderungen in den Annotationen soll methodisch durch eine Einschränkung der Genauigkeit der Annotationen und eine Untersuchung der Robustheit gegenüber "Adversarial Examples" und die Analyse der Lipschitz-Kontinuität erreicht werden. Von dem medizinischen Partner werden optische Bilder von Hämatoxylin-Eosin (H&E) gefärbten Hautkrebstumoren sowie Metainformationen zur Verfügung gestellt.

Studentisches Team (ab Mai 2021)

Nikolas Dreverhoff & Rudolf Herdt

Kooperation

Universität Bremen – Prof. Dr. Dr. h.c. Peter Maaß, Dr. Daniel Otero Baguer, Jean Le'Clerc Arrastia
MVZ Dermatopathologie Duisburg Essen GmbH – Prof. Dr. Schaller

Abschluss

Erfolgreich abgeschlossen am 10.01.2022.


#4 Analyse und Quantifizierung von Notausweichtrajektorien

Im Bereich der Fahrerassistenzfunktionen gewinnt das Thema des Notausweichens im Gefahrenfall zunehmend an Bedeutung. Auch wird dieses Thema für automatisierte Fahrzeuge von Relevanz sein, damit diese die gleiche Möglichkeiten der Schadensprävention zur Verfügung haben wie menschliche Fahrer. Es soll untersucht werden, wie sich Notausweichtrajektorien bewerten und vergleichen lassen. Dazu sollen Ausweichvorgänge in einem Versuchsfahrzeug durchgeführt und protokolliert werden. Die resultierenden Messdaten sollen auf ableitbare Kenngrößen untersucht werden um grundlegende Eigenschaften des Manövers zu quantifizieren. Das Ziel ist dabei eine Bewertbarkeit zwischen Notausweichtrajektorien zu ermöglichen, welche z.B. für das Training neuronaler Netze verwendet werden kann.

Zunächst sollen Daten durch Fahrversuche auf dem universitären Testgelände der Universität der Bundeswehr generiert werden. Hierbei werden relevante Größen wie Längs- und Querbeschleunigungen, Lenkwinkel und Lenkwinkelgeschwindigkeiten aufgezeichnet. Auf Basis eines mathematischen Modells sollen dann durch eine Parameteridentifikation relevante Bewertungsgrößen ermittelt werden. Kooperation

Kooperation

Universität der Bundeswehr München - Prof. Dr. Matthias Gerdts
IAV GmbH, Intelligent Driving Functions - Dr. Ulrich Bauer


#5 TPM-basierte dynamische Bildrekonstruktion in der Magnetresonanztomographie

Klassische Methoden zur Bildrekonstruktion beruhen auf der Annahme, dass vom Untersuchungsobjekt während der Datenaufzeichnung keine Dynamik ausgeht. Gerade in der medizinischen Bildgebung ist diese Annahme jedoch typischerweise verletzt: Bewegungen des Patienten, der Organe oder der Fluss von Kontrastmitteln während der Datenaufzeichnung führen zu einer Verringerung der zeitlichen Auflösung bzw. zu Bewegungsartefakten im Rekonstruktionsergebnis. Dies erfordert die Entwicklung von Algorithmen, welche die Dynamik im Rekonstruktionsschritt berücksichtigen. Die benötigten Zusatzinformationen über die Dynamik sollen in diesem Projekt mit Hilfe des Tissue phase mapping (TPM) gewonnen werden.

TPM wurde für die MRT-Herzbildgebung entwickelt und liefert 3D Geschwindigkeitsvektoren, aus denen Rückschlüsse über Herzkrankheiten geschlossen werden. Diese vollständigen Geschwindigkeitsinformationen sollen im Projekt zur dynamischen Bildrekonstruktion der Atembewegung genutzt werden. Konkret sollen diese mit einem datengetriebenen Rekonstruktionsverfahren kombiniert werden, um so im Vergleich zu rein-datenbasierten Verfahren eine bessere Kontrolle über den Output zu ermöglichen. Insbesondere soll dabei untersucht werden, inwieweit die räumliche und zeitliche Auflösung der Rekonstruktionsergebnisse im Vergleich zu Standardverfahren wie Atemgating verbessert werden kann bzw. inwiefern sich eine Beschleunigung bei der MR-Datenakquise erzielen lässt.  Die Evaluierung erfolgt an gemessenen MR-Daten zur dynamischen atemaufgelösten Leberbildgebung im Vergleich zur statischen Bildgebung im Atemstop.

Studentisches Team (ab Juni 2021)

Jaqueline Benzinger & Jennifer Kling

Kooperation

Universität Stuttgart - Prof. Dr. Bernadette Hahn, Mathias Feinler
Universitätsklinikum Würzburg, Experimentelle Radiologie - Prof. Dr. Herbert Köstler, Prof. Dr. Tobias Wech
Universitätsklinikum Würzburg, Institut für Diagnostische und Interventionelle Radiologie - Prof. Dr. Thorsten Bley

Abschluss

Erfolgreich abgeschlossen am 16.12.2021.


#6 Materialprüfung mittels Hochdurchsatz-Nano-Computertomographie

Die industrielle Computertomographie (CT) findet breite Anwendung im Bereich der hochgenauen Werkstoffprüfung und Qualitätssicherung von Materialien. Dabei spielt die Hochdurchsatz-Nano-Computertomographie (NanoCT) basierend auf Transmissionsmessungen von Röntgenstrahlung im hochauflösenden Bereich eine zunehmend große Rolle. Diese Technologie soll für die Schadensanalyse (Risse, Poren) von faserverstärkten Materialien und Hybridbauteilen für Leichtbaustrukturen zum Einsatz kommen. Auch metallische Materialien (Aluminiumlegierungen) für die Automobilindustrie oder Mikroelektronik werden untersucht.

Im Anwendungsgebiet der dynamischen Computertomographie wurde eine Regularisierungsstrategie für lineare inverse Probleme mit ungenauem Vorwärtsoperator untersucht, die auf sequentiellen Unterraumoptimierungsmethoden (SESOP) in Kombination mit der Kaczmarz-Methode basiert (Blanke et al. 2020). Dieser Ansatz soll auf NanoCT übertragen werden. Zudem sollen, basierend auf diesem Verfahren sowie weiteren iterativen Methoden, wie z.B. algebraischen Rekonstruktionstechniken, Verfahren zur Konstraststeigerung entwickelt werden. Ebenfalls interessant wäre es das Potential von Methoden des Maschinellen Lernens für diese Art der Tomographie zu eruieren. Dafür stehen CT-Daten eines XRM-II nanoCT von Bauteilen im Bereich von 100 µm, sowie CT-Daten von instationären Messungen einer Micro-CT, die mithilfe einer Zugvorrichtung erhoben wurden, zur Verfügung.

Studentisches Team (ab Juli 2021)

Tom Lütjen & Fabian Schönfeld

Kooperation

Universität des Saarlandes - Prof. Dr. Thomas Schuster, Jonas Fell
Universität Bremen - Dr. Tobias Kluth, Johannes Leuschner, Maximilian Schmidt
Fraunhofer IzfP Saarbrücken - Dr. Michael Maisl

Abschluss

Erfolgreich abgeschlossen am 19.01.2022.


#7 Optimierung von Aktivkohlefiltern zur Wasseraufbereitung

Nach Angaben der WHO haben rund 1,1 Milliarden Menschen keinen Zugang zu einer verbesserten Trinkwasserversorgung, etwa 3,4 Millionen Menschen sterben jedes Jahr an einer wasserbedingten Krankheit. Dies bedeutet, dass die Forschungs- und Entwicklungsaktivitäten zur Wasseraufbereitung nicht nur für die Wissenschaft und Technologie von Bedeutung sind, sondern auch einen entscheidenden Einfluss auf das Leben von Millionen von Menschen haben. Ein Filter mit körniger Aktivkohle (GAC) ist eine bewährte Option, um bestimmte Chemikalien, insbesondere organische Chemikalien, aus Wasser zu entfernen. GAC-Filter können auch verwendet werden, um Chemikalien wie Schwefelwasserstoff (Geruch nach faulen Eiern) oder Chlor zu entfernen, die Wasser unangenehme Gerüche oder Geschmäcker verleihen. Da es keine eindeutige Empfehlung für die Größe des Granulats gibt, hängt das Design des Filters von verschiedenen Parametern ab, wie z.B. der Konzentration und der Art der zu entfernenden Verunreinigungen. Die optimale Größe des Granulats kann durch Experimente bestimmt werden, was teuer und zeitaufwendig ist oder über die Lösung von Anfangs-Randwertproblemen für partielle Differentialgleichungen, die die Konvektions-Diffusions-Adsorptions-Prozesse beschreiben. Solche virtuellen Experimente benötigen jedoch meist immer noch sehr große Rechenzeiten. Fortgeschrittene Methoden zur Modellordnungsreduktion und Algorithmen für maschinelles Lernen können die zur Lösung eines solchen Optimierungsproblems erforderliche Rechenzeit erheblich reduzieren.

Folgende mathematische Methoden werden hierbei zur Anwendung kommen: (1) Numerische Methoden zur Lösung partieller Differentialgleichungen, (2) Methoden zur Modellordnungsreduktion sowie (3) Methoden des maschinellen Lernens.

Kooperation

Westfälische Wilhelms-Universität Münster - Prof. Dr. Mario Ohlberger, Dr. Felix Schindler
Universität Stuttgart – Prof. Dr. Bernard Haasdonk, Dr. Maha Youssef, Tizian Wenzel
Fraunhofer ITWM Kaiserslautern - Prof. Dr. Oleg Iliev


#8 Deep Learning für Predictive Maintenance von Schienenfahrzeugen

Predictive Maintenance (PdM) verfolgt das Ziel, den aktuellen Zustand von Komponenten zu bestimmen und den optimalen Zeitpunkt für Wartungs- und Instandhaltungsarbeiten vorherzusagen. Der optimale Zeitpunkt ist ein Kompromiss zwischen Ausfallrisiko und maximaler Ausschöpfung des verfügbaren Restlebens. Zusätzlich dient PdM der Früherkennung von Komponentenausfällen. So können kostenintensive Folgeschäden und Störungen im Betrieb reduziert werden.

Als Input dienen Diagnose-, Telematik-, Stamm- und Betriebsdaten. Sie werden zusammen mit Informationen zu Ausfällen im Betrieb hinsichtlich Muster und Prognosepotential analysiert. Mittels Supervised Learning kann überprüft werden, ob Ausfälle prognostizierbar sind. Unsupervised Learning kann dazu verwendet werden, um Anomalien zu identifizieren und tiefergehende Befundungen zu triggern. Eine Herausforderung stellt oftmals dar, dass Ausfälle sehr selten und dadurch die Datensätze sehr unausgewogen sind. Diesen seltenen Ereignissen stehen häufig hochdimensionale Eingangsgrößen gegenüber. Hinzu kommt, dass sich verschiedene Störungsbilder überlagern können. Dies führt z.B. bei einer binären Klassifikation in Störung ja/nein dazu, dass die Nein-Klasse zwar nicht das gesuchte aber andere Störungsbilder enthält, was eine saubere Klassifikation erschwert. Deep Learning Methoden können helfen, seltene Ereignisse zu identifizieren. Aufgrund der teilweise geringen Anzahl an Beobachtungen sind besondere Maßnahmen zu ergreifen, um relevante Zusammenhänge zu lernen.

Studentischer Bearbeiter (ab September 2021)

David Prenninger

Kooperation

Universität Bremen - Prof. Dr. Dr. h.c. Peter Maaß, Prof. Dr. Daniel Schmand
DB Analytics, Deutsche Bahn AG – Björn Weißhaupt, Dr. Teresa Lenz, Dr. Michael M. Dürr

Abschluss

Erfolgreich abgeschlossen am 07.02.2022.


#9 Symbolische Regression für die Materialmodellierung

Neue innovative Verfahren des virtuellen Materialdesigns finden immer breitere Anwendung zur effizienten Materialentwicklung, insbesondere auch bei der Schott AG, einem Hersteller von Spezialglas und Glaskeramiken. Ein Beispiel aus der aktuellen Materialentwicklung sind hier bruchresistente Covergläser für Handydisplays (z.B. Schott Xensation® Up.). Von besonderer Wichtigkeit sind dafür geeignete Materialmodelle zur Vorhersage von Materialeigenschaften. Neben physikalischen Modellen spielen dabei auch datengetriebene empirische Modelle eine besondere Rolle.

In diesem Projekt sollen die Einsatzmöglichkeiten von Verfahren des maschinellen Lernens insbesondere das Verfahren der symbolischen Regression für die Entwicklung von solchen Materialmodellen untersucht werden. Gegenüber beispielsweise Deep Learning Methoden, versprechen Verfahren zur symbolischen Regression insbesondere auch bei geringer Datenlage bereits sehr gute Vorhersage zu erreichen, auch da Domänenwissen in die Modelle eingebaut werden kann. Darüber hinaus können die so generierten Modelle üblicherweise besser als Black-Box Modelle von den Anwendern interpretiert werden. Der Fokus liegt in diesem Projekt auf industrierelevanten Anwendungsfällen aus dem Bereich der Glasentwicklung und -produktion.

Kooperation

Universität Bonn - Prof. Dr. Jochen Garcke
Fraunhofer SCAI Sankt Augustin - Dr. Jan Hamaekers
Schott AG - Dr. Benedikt Ziebarth


#10 Deep Learning für die Detektion von interiktalen epileptischen Spikes

In der Neurologie ist die Detektion von interiktalen epileptischen Spikes (IES) ein wichtiger Bestandteil der Epilepsiediagnostik, insbesondere bei Patienten mit pharmakoresistenter Epilepsie. Dazu werden zeitlich hoch aufgelöste elektroenzephalographische (EEG) Ableitungen der Patienten ausgewertet. In der Vergangenheit wurden hauptsächlich parametrische Verfahren zur automatischen Detektion von IES eingesetzt. Seit kurzem werden auch datenbasierte Deep Learning Ansätze verwendet. Diese sind in der Regel den parametrischen Ansätzen überlegen.

Ziel dieser Arbeit ist es zunächst, verschiedene existierende Deep Learning Frameworks in der Softwareplattform Tensorflow zu implementieren. Diese sollen dann zur Detektion von IES herangezogen und die Ergebnisse verglichen werden hinsichtlich Effektivität und Robustheit. Der vielversprechendste Ansatz soll dann weiter verbessert werden. Hierzu stehen verschiedene Datensätze zur Verfügung, die bereits von Experten bewertet wurden. Nach erfolgreichem Abschluss des Projektes kann das resultierende Deep Neural Net zu einem späteren Zeitpunkt in eine existierende Software (C++) integriert werden.

Studentisches Team (ab Mai 2021)

Fabienne Anselstetter & Patricia Schell

Kooperation

Hochschule Ansbach – Prof. Dr. Christian Uhl
BESA GmbH - Dr. Harald Bornfleth, Dr. Nicole Ille

Abschluss

Erfolgreich abgeschlossen am 09.11.2021.


#11 Deskriptoren für Rheologiedaten

Neue innovative Methoden des maschinellen Lernens finden vielfältige Einsatzmöglichkeiten in der Materialentwicklung, wobei die Grundlage für die Nutzung dieser Verfahren meist geeignete Deskriptoren der zu behandelnden Eingangsdaten bilden. Für viele Materialen ist deren Rheologie, d.h. deren Verformungs- und Fließverhalten, von besonderer Bedeutung für praktische Einsatzmöglichkeiten. So sind die Klebstoffeigenschaften von Polymeren stark von den rheologischen Eigenschaften abhängig. Diese bestimmen, wie gut der Klebstoff in die mikroskopisch raue Oberfläche der zu verbindenden Substrate fließt. Der Modul der Polymere ist dabei ein Maß für die Klebrigkeit.

In diesem Projekt sollen geeignete Deskriptoren zur Beschreibung von Rheologiedaten entwickelt und deren Einsatzmöglichkeit für verschiedenen Verfahren des maschinellen Lernens innerhalb industrierelevanter Fragestellungen untersucht werden. Dazu soll hier der Schwerpunkt insbesondere auf der Behandlung von Experimental-Rheologiekurven liegen. Dazu ist geplant unterschiedliche Parametrisierungen solcher Kurven zu entwickeln und hinsichtlich ihrer Eignung zur Beschreibung der Korrelation der Rheologie zu analysieren.

Kooperation

Universität Bonn - Prof. Dr. Jochen Garcke
Fraunhofer SCAI Sankt Augustin - Dr. Jan Hamaekers
Covestro Deutschland AG - Dr. Dirk Dijkstra


#12 Robuste neuronale Netze zur Detektion von Rissen

(Fortführung des Projektes #2)

Für die Konstruktion und Instandhaltung von Gebäuden, Brücken und Straßen ist es wichtig, Risse in Beton zuverlässig und so früh wie möglich detektieren zu können. Hierzu kommen bildgebende Methoden zum Einsatz, die den Beton zwei- oder dreidimensional abbilden. Zur automatischen Detektion der Risse in den Bildern können auf maschinellem Lernen basierende Methoden verwendet werden. Eine Charakterisierung der beobachteten Risse kann dann helfen, die mechanischen Eigenschaften von Beton besser zu verstehen.

Risserkennung entspricht einem binären Klassifizierungsproblem, das heißt ein Bild soll entweder als “enthält einen Riss” oder “enthält keinen Riss” klassifiziert werden. Im Projekt sollen Methoden des maschinellen Lernens für diesen Zweck genutzt werden. Da für supervised learning ein großer Trainingsdatensatz erforderlich ist, werden synthetische Bilder zur Verfügung gestellt. Darüber hinaus sollen die Ansätze auch auf realen 3D Daten, die mittels Computertomografie von Betonproben gewonnen werden, getestet werden.

Studentisches Team (ab Juli 2022)

Lea Stuppy & Tim Prokosch

Kooperation

Technische Universität Kaiserslautern - Prof. Dr. Claudia Redenbach, Franziska Müsebeck
Fraunhofer ITWM Kaiserslautern - Dr. Katja Schladitz


#13 Materialprüfung mittels Hochdurchsatz-Nano-Computertomographie

(Fortführung des Projektes #6)

Die industrielle Computertomographie (CT) findet breite Anwendung im Bereich der hochgenauen Werkstoffprüfung und Qualitätssicherung von Materialien. Dabei spielt die Hochdurchsatz-Nano-Computertomographie (NanoCT) basierend auf Transmissionsmessungen von Röntgenstrahlung im hochauflösenden Bereich eine zunehmend große Rolle. Diese Technologie soll für die Schadensanalyse (Risse, Poren) von faserverstärkten Materialien und Hybridbauteilen für Leichtbaustrukturen zum Einsatz kommen. Auch metallische Materialien (Aluminiumlegierungen) für die Automobilindustrie oder Mikroelektronik werden untersucht.

Im Anwendungsgebiet der dynamischen Computertomographie wurde eine Regularisierungsstrategie für lineare inverse Probleme mit ungenauem Vorwärtsoperator untersucht, die auf sequentiellen Unterraumoptimierungsmethoden (SESOP) in Kombination mit der Kaczmarz-Methode basiert (Blanke et al. 2020). Dieser Ansatz soll auf NanoCT übertragen werden. Zudem sollen, basierend auf diesem Verfahren sowie weiteren iterativen Methoden, wie z.B. algebraischen Rekonstruktionstechniken, Verfahren zur Konstraststeigerung entwickelt werden. Ebenfalls interessant wäre es das Potential von Methoden des Maschinellen Lernens für diese Art der Tomographie zu eruieren. Dafür stehen CT-Daten eines XRM-II nanoCT von Bauteilen im Bereich von 100 µm, sowie CT-Daten von instationären Messungen einer Micro-CT, die mithilfe einer Zugvorrichtung erhoben wurden, zur Verfügung.

Kooperation

Universität des Saarlandes - Prof. Dr. Thomas Schuster, Jonas Fell
Universität Bremen - Dr. Tobias Kluth, Johannes Leuschner, Maximilian Schmidt
Fraunhofer IzfP Saarbrücken - Dr. Michael Maisl


#14 Deep Learning für Predictive Maintenance von Schienenfahrzeugen

(Fortführung des Projektes #8)

Predictive Maintenance (PdM) verfolgt das Ziel, den aktuellen Zustand von Komponenten zu bestimmen und den optimalen Zeitpunkt für Wartungs- und Instandhaltungsarbeiten vorherzusagen. Der optimale Zeitpunkt ist ein Kompromiss zwischen Ausfallrisiko und maximaler Ausschöpfung des verfügbaren Restlebens. Zusätzlich dient PdM der Früherkennung von Komponentenausfällen. So können kostenintensive Folgeschäden und Störungen im Betrieb reduziert werden.

Als Input dienen Diagnose-, Telematik-, Stamm- und Betriebsdaten. Sie werden zusammen mit Informationen zu Ausfällen im Betrieb hinsichtlich Muster und Prognosepotential analysiert. Mittels Supervised Learning kann überprüft werden, ob Ausfälle prognostizierbar sind. Unsupervised Learning kann dazu verwendet werden, um Anomalien zu identifizieren und tiefergehende Befundungen zu triggern. Eine Herausforderung stellt oftmals dar, dass Ausfälle sehr selten und dadurch die Datensätze sehr unausgewogen sind. Diesen seltenen Ereignissen stehen häufig hochdimensionale Eingangsgrößen gegenüber. Hinzu kommt, dass sich verschiedene Störungsbilder überlagern können. Dies führt z.B. bei einer binären Klassifikation in Störung ja/nein dazu, dass die Nein-Klasse zwar nicht das gesuchte aber andere Störungsbilder enthält, was eine saubere Klassifikation erschwert. Deep Learning Methoden können helfen, seltene Ereignisse zu identifizieren. Aufgrund der teilweise geringen Anzahl an Beobachtungen sind besondere Maßnahmen zu ergreifen, um relevante Zusammenhänge zu lernen.

Kooperation

Universität Bremen - Prof. Dr. Dr. h.c. Peter Maaß, Prof. Dr. Daniel Schmand
DB Analytics, Deutsche Bahn AG – Björn Weißhaupt, Dr. Teresa Lenz, Dr. Michael M. Dürr


#15 Feature Engineering und Erklärbarkeit von Deep Learning Verfahren zur Detektion von epileptischen Spikes

(Fortführung des Projektes #10)

Datenbasierte Deep Learning (DL) Verfahren stellen einen vielversprechenden Ansatz zur Unterstützung der neurologischen Diagnostik bei der Detektion von interiktalen epileptischen Spikes (IES) in elektroenzephalographischen Ableitungen (EEG) dar. Der Lern- und Ergebnisfindungsprozess der DL-Black-Box-Modelle ist für Menschen in der Regel jedoch nicht nachvollziehbar. Gerade bei medizinischer Anwendung ist es aber nötig zu erklären, wie die Ergebnisse des DL-Verfahrens zustande kommen und zu bewerten, ob die Entscheidungen auf sinnvollen Bewertungskriterien beruhen. Im Rahmen zweier Teilprojekte (Explainable AI & Feature Engineering) sollen sinnhafte Bewertungskriterien etabliert werden.

Ziel des Teilprojekts Explainable AI ist es, das im InnovationLab der Runde 1 in Projekt #10 (Deep Learning für die Detektion von interiktalen epileptischen Spikes) in Tensorflow implementierte Deep Neural Network mit Hilfe von verschiedenen existierenden Verfahren der erklärbaren KI zu analysieren. Die betrachteten Verfahren sollen hinsichtlich ihrer Aussagekraft miteinander verglichen werden. Mit Hilfe des am besten für diese Fragestellung geeigneten Verfahrens soll das implementierte Deep Neural Network verständlicher und nachvollziehbarer werden.

Parallel dazu soll im zweiten Teilprojekt mithilfe von Feature Engineering die bereits erstellten Modelle, die im Rahmen der Runde 1 des Projekts #10 des InnovationLab entstanden sind, optimiert werden. Das Feature Engineering soll im Kontrast zur Explainable AI Features generieren, welche physiologisch bzw. mathematisch nachvollziehbar sind. Für das gezielte Generieren von Merkmalen können Dimensionsreduktionsalgorithmen (PCA, DyCA, UMap, etc. mit ggf. Kombination von persistenten Homologien), Wissen von Experten (Kriterien des Labelings) und räumliche Transformationen der EEG Daten genutzt werden. Dabei soll die Interpretierbarkeit der erstellten Modelle erhöht werden.

Studentisches Team (ab Juli 2022)

Chiara Paglia & Annika Stiehl

Kooperation

Hochschule Ansbach – Prof. Dr. Christian Uhl, Prof. Dr. Stefan Geißelsöder
BESA GmbH - Dr. Harald Bornfleth, Dr. Nicole Ille

Kontakt

Prof. Dr. Dr. h.c. Peter Maaß
Zentrum für Technomathematik
Universität Bremen
Bibliothekstraße 5
28359 Bremen
pmaass@uni-bremen.de