PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Maschinelles Lernen in der Ultraschallmesstechnik

PD Stefan Bosse

Universität Bremen - FB Mathematik und Informatik

1 / 37

Fragestellung und Ziele PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Fragestellung und Ziele

Wie kann man Schäden oder Veränderungen von Materialien aus zeitaufgelösten Sensordaten erkennen?

Grundverständnis und Anwendung der algorithmischen Approximation von Modellfunktionen

Wie kann man aus gemessenen Sensordaten lernen und Modelle bilden die Schäden erkennen können?

Was ist das Besondere an Zeit- und Datenserien?

Grundverständnis wie Maschinelles Lernen sinnvoll in der Schadensdiagnostik eingesetzt werden klann

2 / 37

Daten und Sensoren PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Daten und Sensoren

1

3 / 37

Daten und Sensoren PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Daten

  • Daten sind die Grundlage für die Modellbildung und Modelltestung

  • Daten können aus einer Vielzahl von Quellen stammen

    • Experiment
    • Simulation
    • Feldstudie
    • Abgeleitet aus anderen Datensätzen
  • Es gibt Zusammenhänge zwischen Variablen (gemessen, beobachtet, Metaebene): Modell!

4 / 37

Daten und Sensoren PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Daten

Allgemein kann man Daten und deren Werte unterteilen in:

  • Skalare Werte, wie Temperatur, Alter, usw.
  • Serien von Skalaren Werten, wie Zeitserien
  • Vektorielle Werte wie Bilder
  • Serien von vektoriellen Werten, wie Bildserien
  • Zusammengesetzte Daten, also Datenrecords → Datentabellen

Daten haben daher eine Dimensionalität 𝕏N, wobei die Wertemenge 𝕏 einer Dimension aus den ganzen ℕ, reelen ℝ, der Zeit 𝕋 oder kategorischen Wertemengen 𝕊 bestehen kann (oder Untermengen davon).

5 / 37

Daten und Sensoren PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Datenwerte

Numerische und Metrische Werte
Das sind Werte die abzählbar sind und wo man Relationen (wie kleiner oder größer) sinnvoll definieren kann, also alle reellen und ganzen Zahlen.
  • Beispiele: Temperatur, Länge, Ort, Zeit
Kategorische Werte
Das sind symbolische Werte für die entweder keine (sinnvolle) Ordnungsrelation existiert oder wo sich wenigstens keine Differenzen bilden lassen.
  • Beispiele: Staatsangehörigkeit, Farbennamen (rot < gelb???), Schadenstyp
6 / 37

Daten und Sensoren PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Auch kategorische Variablen können mit einer Wahrscheinlichkeit p und Wahrscheinlichkeitsverteilung p=[0,1] durch eine numerische Variable repräsentiert werden.

  • Die Wahrscheinlichkeit kann die Häufigkeit des Auftretens oder die Wahrscheinlichkeit eines einzelnen Auftretens beschreiben

  • Maschinelles Lernen bedeutet häufig eine Approximation einer Vorhersage, und ist somit immer mit einer bestimmten Vorhersagewahrscheinlichkeit verbunden (nicht immer bestimmbar!)

4

7 / 37

Daten und Sensoren PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Datenkodierung

  • Häufig, z.B. bei Künstlichen Neuronalen Netzen, müssen kategorische Daten in numerische kodiert werden

  • Häufigste Kodierungsformate:

    • One-hot Kodierung, d.h. die kategorische Variable k={s1,..,sw} mit w verschiedenen symbolischen Werten (z.B. hoch, tief, mittel) wird auf einen w-stelligen 0-1 Vektor abgebildet, wo maximal ein Element den Wert 1 besitzt
    • Lineare Treppe, d.h. die kategorische Variable k={s1,..,sw} mit w verschiedenen symbolischen Werten wird auf eine Zahlenreihe {v1,..,vw} ∈ [0,1] abgebildet → Nur bei vorhandener Ordnungsrelation sinnvoll
8 / 37

Daten und Sensoren PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

1 Beispiel für eine One-hot Kodierung und Abbildung auf eine Zielvariable y

Kodierung numerischer Variablen als diskrete Wertemenge: Intervallkodierung

9 / 37

Daten und Sensoren PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Datenarten

Strukturierte Daten
Datentabellen deren Spalten direkt Eigenschaften darstellen → Eigenschaftsvariablen → Modellmerkmale → Temperatur, Dichte, ...
Unstrukturierte Daten
Daten die nicht direkt Eigenschaften einer Beobachtung wiedergeben → Müssen in Eigenschaftvariablen transformiert werden → Merkmalsselektion → Bilder, Audiosignale, Texte

Die Dimensionalität und Größe von unstrukturierten Daten ist meist viel größer als die der strukturierten Daten → Merkmalsselektion ist meistens auch Datenreduktion!

10 / 37

Daten und Sensoren PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

2 Unterschied von strukturierten zu unstrukturierten Daten

11 / 37

Maschinelles Lernen PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Maschinelles Lernen

12 / 37

Maschinelles Lernen PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Funktionaler Ansatz

Annahme:

  • Es gibt messbare Eingabevariablen, z.B. Sensorvariablen, x={x1,..,xi}
  • Es gibt messbare oder nicht messbare Ausgabevariablen, y={y1,..,yj}
  • Fragestellung: Welchen Zusammenhang gibt es zwischen x und y?

f(x):xy,RiRj,jif1(y):yx

  • f(x): Vorwärtsmodellierung, Mf
  • f-1(y): Rückwärtsmodellierung (Inverses Problem), M-1f-1
  • Es gibt i.A. eine Vielzahl von Modellhypothesen ℍ={M1,..,Mk}, die die unbekannte Modellfunktion f approximieren!
13 / 37

Maschinelles Lernen PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Klassen von Maschinellen Lernen

Klassifikation

  • Diskriminative Modelle schätzen die Wahrscheinlichkeit p(y|x) eines y Wertes (Label) für gegebene Eingabedaten x (oder treffen eine binäre Entscheidung)

2 Klassifikation bildet Eingabedaten x auf kategorische Variablen y ab: Diskriminierende Modelle

14 / 37

Maschinelles Lernen PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

3 Beispiel für eine Multiklasseneinteilung (3 Klassen) (Links) Überlappende Klassifikationsgebiete (rot, blau), Rechteckige Regionen, klare Trennung durch Graden (Rechts) Klare Trennung der Klassen durch nichtlineare Funktionen

15 / 37

Maschinelles Lernen PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Klassifikation funktional

y=Aifx[a,b]Bifx[c,d]Cifxother

Entscheidungsbäume sind typische Klassifikatoren die aus verschachtelten Entscheidungsknoten bestehen Beispiel für einen Regressionsbaum (Materialeigenschaft)

16 / 37

Maschinelles Lernen PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Falschklassifikation

  • Ein Wert einer kategorischen Zielvariable y=s ∈ {si}i=1,w kann richtig oder falsch vorhergesagt werden
  • Die statistische Auswertung einer Menge von Testdaten ergibt:
    • Die richtig-positiv Rate tp
    • Die falsch-positiv Rate fp
    • Die falsch-negativ Rate fn

wikipedia

F-1 Score F1=tptp+12(fp+fn)

17 / 37

Maschinelles Lernen PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Regression

  • Anders als bei der Klassifikation die einen diskreten Wert bestenfalls mit einer annotierten Wahrscheinlichkeit ausgeben soll, ist die Regression eine (lineare) Interpolation bzw. Extrapolation einer kontinuierlichen numerischen Zielvariable y

Polyfit auf Datenpunkten y(x)

Kreuzvalidierung und Overfitting

18 / 37

Maschinelles Lernen PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Training

5 Training bedeutet die Anpassung und Auswahl geeigneter Modellhypothesen h durch Veränderung der Parameter p aus Trainingsdaten X

19 / 37

Künstliche Neuronale Netzwerke PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Künstliche Neuronale Netzwerke

Deep Learning ist nicht alles!

Neuronale Netzwerke (das mathematische Neuron) gehen in die 1940 Jahre zurück.

20 / 37

Künstliche Neuronale Netzwerke PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Das Perzeptron

Ein KNN hat Ähnlichkeit mit einem Entscheidungsbaum. Der Unterschied: Die Knoten sind aktive Funktionen. Daher ist ein KNN ein Funktionsgraph.

  • Das Single Layer Perzeptron (SLP) ist das einfachste KNN und besteht aus einem einzigen künstlichen Neuron.

Warum ist der Begriff "Neuron" mit Bezug auf die Biologie irreführend, was ist beim natürlichen Neuron anders (Verhalten, nicht die Chemie)?

Warum ist ein KNN kein Gehirn, was ist der große biologsche Unterschied im Vergleich zu der folgenden Architektur?

21 / 37

Künstliche Neuronale Netzwerke PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Funktionaler Ansatz

  • Ein Perzeptron ist eine Funktion, die einen Eingabevektor x auf eine skalare Ausgabevariable y abbildet:

y(x)=ft(b+ixiwi)

  • Dabei ist:
    • w ein Gewichtungsvektor mit dem die Eingabevariablen xi multipliziert werden
    • b ein Offset (Bias)
    • ft die Transfer- oder Aktivierungsfunktion
22 / 37

Künstliche Neuronale Netzwerke PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Architektur

1 Aufbau eines (Single Layer) Perzeptrons mit einem Neuron

23 / 37

Künstliche Neuronale Netzwerke PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Transferfunktionen

Verschiedene Transferfunktionen mit unterschiedlichen Übrtragsungskurven: Linear vs. Nichtlinear, Begrenzung vs. Unbegrenzt

  • Gebräuchlich für Diskriminative Modelle sind die Log-Sigmoid (Logistics) Funktion
  • Für Regression ist die Log-Sigmoid mit vorsicht zu verwenden: Starke Nichtlinearität an den Grenzen 0/1!
24 / 37

Künstliche Neuronale Netzwerke PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Parametrisierung

Das KNN Modell M(p) ist durch den Parametervektor p gegeben, und besteht wenigstens aus einem Neuron, meistens aber aus einem Netzwerk von Neuronen (KNN):

Statische Parameter
Anzahl der eingehenden Kanten (|w|), Transferfunktion ft, Anzahl der Neuronen, Anzahl der Schichten (von Neuronen) und Anzahl der Neuronen pro Schicht, Verbindungsstruktur (Kanten)
Dynamische Parameter
Offset b, Kantengewichte w, eventuell Aufbau des Netzwerkes (Kanten und Knoten) ⇒ Evolutionäre Algorithmen
25 / 37

Künstliche Neuronale Netzwerke PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Neuronales Netzwerk

1 Aus einzelnen Neuronenknoten zusammengesetztes Netzwerk

26 / 37

Künstliche Neuronale Netzwerke PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Zwei einfache Probleme

x1 x2 y
0 0 1
0 1 0
1 0 0
1 1 0
x1 x2 y
0 0 0
0 1 1
1 0 1
1 1 0
(a) (b)
x2 x2
▲ ▲
│ │
1 │ N N 1 │ P N
│ │
│ │
0 │ P N 0 │ N P
└──────────────▶ x1 └──────────────▶ x1
0 1 0 1
y:{N=0,P=1}
  • Lösung mit einem Perzeptron (eine Schicht) möglich?
  • Wie können die dynamischen Parameter w und b bestimmt werden?
    • Minimierungsproblem des Fehlers E=||y-y0|| für alle Fälle {⟨Xi,yi⟩}i
    • Schrittweises verändern in Abhängigkeit des Fehlers E=||y-y0|| und einer Änderungs(Lern)rate α
  • Annahme: Lineare Transferfunktion ft(u)=u
27 / 37

Künstliche Neuronale Netzwerke PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

28 / 37

Zeitaufgelöste Signale PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Zeitaufgelöste Signale

Gemessenes Ultraschallsignal (S: Sensor, A: Aktuator, D: Schaden)

29 / 37

Zeitaufgelöste Signale PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Zeitserien

Zeitseriendaten sind typisch für die Schadensdiagnostik mit geführten Wellen und Ultraschallmesstechnik

  • Zeitseriendaten sind unstrukturierte Daten
  • Die Zeitvariable t ist i.A. kein eigenständiges Merkmal!
  • Eine Zeitserie besteht aus einer geordneten Menge von einzelnen zusammenhängenden und abhängigen Messungen X={x(t=1),x(t=2),..}
  • In einer Datenserie gibt es eine Historie, d.h., Modellfunktionen f(X): Xy sind i.A. zustandsbehaftet (besitzen einen veränderlichen Datenzustand)
  • Modelle auf Zeitseriendaten verarbeiten häufig die Daten sequenziell!
30 / 37

Zeitaufgelöste Signale PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Merkmalsvariablen von Zeitserien

Variable Berechnung
Mittelwert x=∑xi/N
Streumaße sm2=∑xi2-x, sm3=∑xi3-x, ..
Varianz, Standardabweichung Var=sm2/N, s=√Var
Asymmetrie (Skew) Skew=(√N sm3)/(sm2sm2)
Extremwerte xmin=min(X), xmax=max(X)
Frequenzspektrum FFT(X): X → F
Diskrete Wavelet Transformation, DWT Koeff. DWT1(X), DWT2(X),..
Histogramm [∣{x ∈ [min,min+Δ)}∣, ∣{x ∈ [min+Δ,min+2Δ)}∣,.., ∣{x ∈ [max-Δ,max]}∣]

https://www.mql5.com/de/articles/292

31 / 37

Zeitaufgelöste Signale PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Bilderzeugung

  • Die bisherigen Merkmale bedeuten Dimensionalitäts- und Größenreduktion der Eingabedaten

    • Selbst FFT (Frequenzspektrum) reduziert die Datengröße um den Faktor 2!
  • Man kann aber auch den umgekehrten Weg gehen und die Datendimensionalität erhöhen:

    • Beispiel ist die Erzeugung eines Spektrogramms aus den Zeitserie
    • Transformation der Merkmalsselektion in den Bildraum → Bilderkennungsproblem (z.B. mit Convolutional Neural Networks)
32 / 37

Zeitaufgelöste Signale PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Spektrogramm

1 Beispiel eines zeitaufgelösten Spektogramms durch Bewegende Fensterfrequenzanalyse

33 / 37

Zeitaufgelöste Signale PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Messdaten

  • Für die praktische Übung sollen Messdaten aus der OpenGuidedWaves Datenbank verwendet werden

  • Die Messungen wurden an einer CFK Platte mit Pseudodefekten durchgeführt

    • Pseudodefekte (D) werden auf die Oberfläche aufgebracht
  • Die Anregung erfolgt mit einem sinusförmigen Burst mit einer Frequenz f={40,80,100,.. kHz}

    • PE Aktuator (A), PE Sensor (S)
  • Eine Messung ist charaktersiert durch (T:Temperatur der Platte) :

X=(x,y)A,(x,y)S,(x,y)D,T,f,A(t),S(t)

34 / 37

Zeitaufgelöste Signale PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

6 (Links) CFK Platte in einer Klimakammer mit Aktuator, Sensor, und Defektpositionen (Rechts) Geometrische Anordnung

35 / 37

Zeitaufgelöste Signale PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Praktische Übungen

  • Übungen und Tutorials finden mit dem WEB Browser und dem interaktiven WorkBook (ähnlich Jupyter Notebooks) statt
  • Ein WorkBook besteht aus Snippets
    • Code (hier i.A. durch überlagerte Bedienoberflächen verdeckt)
    • Text, Tabellen, Plots, ...

36 / 37

Referenzen PD Stefan Bosse - Maschinelles Lernen in der Ultraschallmesstechnik

Referenzen

  1. R. Hwasser, “Machine learning classification based on ultrasonic analog data - Evaluation of using raw ultrasonic sensor data for classifying various objects.,” Chalmers University of Technology, 2020.
  2. D. Foster, Generative Deep Learning: Teaching Machines to Paint, Write, Compose, and Play
  3. E. Alpaydın, Introduction to Machine Learning. MIT Press, 2010.
  4. https://joelouismarino.github.io/posts/2018/04/evaluating_probabilities
  5. N. J. Nilsson, Introduction To Machine Learning. 1996.
  6. J. Moll et al., “Open Guided Waves: online platform for ultrasonic guided wave measurements,” SHM, vol. 18, no. 5–6, 2019.
37 / 37