In der Mess- und Prüftechnik PD Stefan Bosse
Universität Bremen - FB Mathematik und Informatik
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens -
Zielvariablen: Kategorische Klassifikation, Numerische Prädiktorfunktionen, Gruppierung
Modellfunktionen: Mit welchen Daten- und Programmarchitekturen können Eingabevariablen auf Zielvariablen abgebildet werden?
Training und Algorithmen: Wie können die Modellfunktionen an das Problem angepasst werden?
Überwachtes, nicht überwachtes und Agentenlernen
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Datenverarbeitung
6 Maschinelles Lernen ist ein Werkzeug der Datenanalyse und des Data Minings
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Die Modellfunktion
F(→X):→X→→Y,X={diskrete kategorische Werte Cnumerische Werte N,R,Y=⎧⎪⎨⎪⎩diskrete kategorische Werte Cnumerische Werte N,RGruppen(X), Netzwerke Q
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Die Modellfunktion
100 Kausale vs. Prädiktive Modellbildung und Physikalische Modelle versa algorithmisch bestimmte Modelle (Hypothesen)
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Die Modellfunktion
100 Kausale vs. Prädiktive Modellbildung und Soziale Netzwerkmodelle versa algorithmisch bestimmte Modelle (Hypothesen)
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Lernen
Lernen bedeutet die unbekannte Modellfunktion M möglichst genau durch F aus Daten so zu approximieren dass min error(|Y0-Y|) für alle (X,Y0) Paare gilt (Y0: Referenzdaten).
I.a. ist F eine parametrisierbare Funktion f(P) oder eine parametrisierbare Datenstruktur
Es gibt nicht eine Modellfunktion F, sondern eine große Menge möglicher Funktionen, genannt Hypothesen ℍ={F1,F2,..}.
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Lernen
Lernen bedeutet also die bestmögliche Anpassung der Parametersätze P um den Fehler zu minimieren und eine geeignet Hypothesenfunktion zu finden.
H(→X):→X→→Y,H∈H={FP11,FP22,..,FPkk},error(X,Y0,F)=|F(X)−Y0|
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Lernen
Verschiedene Modellfunktionen M die die (Trainings) Daten repräsentieren
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Kreuzvalidierung
13
Durch Kreuzvalidierung (CV) werden ungeeignete Hypothesenmodelle erkannt
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Fehler (Verlust)
Jede Hypothesenfunktion F ∈ ℍ führt zu einem Informationsverlust durch Approximation der tatsächlichen und unbekannten Modellfunktion M.
M(x):x→y=F(x)+E(x)+S
mit E als eine Fehlerfunktion (i.A. zufälliger Fehler) und ^E als mittlerer Prädiktionsfehler und S als systematischer Fehler.
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Fehler (Verlust)
Die Hypothesenmenge ℍ ist also tatsächlich eine Approximation eines unbekannten "exakten" Modells (Modellfunktion) MF, die z.B. mittels physikalischer oder soziologischer Modelle ableitbar wäre.
Genauso wie eine Sensor eine physikalische Größe nur approximieren kann, der tatsächliche Wert der zu messenden Größe ist nicht bekannt
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Fehler (Verlust)
11 Training als Anpassung von Hypothesen für die Abbildungsfunktion X → Y mit Trainingsdaten
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Parametrisierung
Die Paramater in dem Parametersatz P bestehen aus zwei Klassen:
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Parametrisierung
f(T):T→S=a+bT+cT2+dT3,Ps={degr:3},Pd={a,b,c,d},S=[0,1]f(T):T→S=a+bT+cTd+eTf,Ps={terms:4,lin:2,exp:2},Pd={a,b,c,d,e,f},S=[0,1]
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Parametrisierung
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Daten
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Daten
Es gilt: Dtrain ⊆ Dall, Dtest ⊆ Dall, Dinf ⊆ Dall aber Dtrain ∩ Dtest = ∅ und Dtrain ∩ Dtest ∩ Dinf ≠ ∅ (Idealfall!)
Die großen Probleme beim Modellieren aus Daten:
Die Trainingsdaten sind nicht repräsentativ (Umfang, Varianz, Qualität)
Die Testdaten sind nicht repräsentativ (Umfang, Varianz, Qualität)
Die Trainingsdaten enthalten schwache Variablen die nicht entfernt wurden (Inkonsistenz und geringer Informationsgewinn)
Generalisierung. Das gelernte Modell F bildet alle drei Datenmengen gleichermaßen gut ab!
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Daten
D.h. bei der Anwendung des Modells können somit auch neue Trainingsdaten gewonnen werden, z.B. im Rahmen eines Produktlebenszyklusmanagements!
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Lernverfahren
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Lernverfahren
6 Ablauf Überwachtes Lernen mit Trainings- (Induktion) und Applikationsphasen (Deduktion)
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Taxonomie der Verfahren
Abdul Rahid,www.wordstream.com
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Überwachte Lernverfahren - Unterklassen
4 Zwei wichtige Unterklassen von überwachten Lernen: Regression (Numerische Zielvariablen) und Klassifikation (Kategorische Zielvariablen)
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Dimensionalitätsreduktion
4 Abbildung von hochdimensionale Daten Xn auf niederdimensionale Xm mit m < n
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Unüberwachtes Lernen - Unterklassen
4 Zwei wichtige Unterklassen von nicht überwachten Lernen: Clustering (Gruppenbildung) und Ausreißerdetektion
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Training
Es gibt beim Training eine Fehlerfunktion (Cost or Loss Function). Der Fehler ergibt sich aus der Anwendung der Trainingsdaten auf das bisherigen Modell. Der Fehler dient zur Korrektur der dynamischen Parameter. Der Fehler kann dann aus einzelnen ("on-line") oder einer Gruppe ("batch") von Trainingsdaten berechnet werden.
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Training
Inkrementelle Trainings- und Anpassungsverfahren können alte Datensätze verwerfen → Stromdatenlernen!
Nicht jede Modellimplementierung ist geeignet:
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Modellimplementierungen
Es gibt im wesentlichen vier verschiedene Architekturen die Modelle M zu implementieren:
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Modellimplementierungen
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Modellimplementierungen
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Modellimplementierungen
Verschiedene Modellimplementierungen
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Hybride Modelle
M(→X):→X→→Y=Φ({M1(X),M2(X),..,Mn(X)})
Die einzelnen Modellinstanzen arbeiten mit gleichen oder verschiedenen Dateninstanzen
Es gibt eine Split- und eine Join Schicht (Kombinierer, Modellfusion)
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Hybride Modelle
Jay Budzik, www.thetalkingmachines.com
Verschiedene Architekturen für Multiinstanz Lernen und Inferenz
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Instanzklassifikation
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Ablauf und Phasen von ML
Statistische Analyse und Bewertung der Daten
Merkmalsselektion
Aufteilung der Daten in Trainings- und Testdaten (i.A. randomisiert) D=Dtrain ∪Dtest
Training einer Modellfunktion F mit bekannten (markierten bei ÜL) Trainingsdaten Dtrain unter Bewertung des Modellfehlers E(X)
Test und Bewertung von F mit bekannten Daten Dtest
Applikation (Inferenz) von F auf unbekannten Daten D
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - ML in der Soziologie
Qualitative und quantitative Sozialwissenschaften wollen aus Daten erklärbare Modelle ableiten
Datenwissenschaften wollen aus Daten (ggfs. Black-Box) Modelle ableiten
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Qualitative Kodierung
Qualitative Kodierung ist eine der wichtigsten Techniken, die in der qualitativen Analyse in den Sozialwissenschaften verwendet werden.
Im Allgemeinen bezieht sich die Kodierung auf den Prozess der Zuweisung beschreibender oder inferentieller Annotierungen zu Datenblöcken, die die Entwicklung von Konzepten oder Theorien unterstützen können.
Kodierung ist in der Regel eine sehr arbeitsintensive und zeitaufwendige Aufgabe.
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Qualitative Kodierung
ML in der Soziologie findet sich vor allem in den ersten Stufen der "Wertschöpfungskette" → Werkzeuge der Datenverarbeitung und Merkmalsselektion
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Soziale Analysen aus Texten
Rückschlüsse auf soziales Verhalten und Netzwerkbildung können u.A. aus textuellen Quellen gewonnen werden:
Häufig ist Mustererkennung und Klassifikation zentrale Merkmalsselektion (mit Natural Language Processing NLP)
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Soziologische und naturwissenschaftliche Modellinferenz
Neben der kausalen Modellinferenz können auch prädiktive Modellinferenzverfahren - also ML - eingesetzt werden
Spannende Frage: Wie ist die Korrelation von kausal und prädiktiv gewonnenen Modellen?
Kernfrage ist die Erklärbarkeit von algorithmisch erzeugten Modellen mit ML Verfahren, auch in der Mess- und Prüftechnik!
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - ML in den Fertigungs- und Materialwissenschaften
ML ist auch hier ein Werkzeug um analytisch und physikalisch nicht mathematisch modellierbare Zusammenhänge zu approximieren (quasi ein vorläufiger Modellersatz)
Auch hier kann es Probleme grundsätzlicher Art geben:
Inverse ML Modellierung ist von großer Bedeutung (z.B. welche Prozessparameter müssen gewählt werden wenn bestimmte Materialparameter als Ergebnis einer Fertigung gegeben sind)
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Vorwärts- und Rückwärtsmodellierung
Eine Funktion F(X): X → Y bildet i.A. einen hochdimensionalen Eingaberaum n=|X| auf einen niederdimensionalen Ausgabe/Ergebnisraum m=|Y| mit m ≪ n ab
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Vorwärts- und Rückwärtsmodellierung
Bei der Rückwärtsmodellierung möchte man von den System- und Aggregatvariablen auf die Sensordaten schließen: G(Y):Y → X
Die Modellfunktion G kann durch Invertierung des Vorwärtsmodells F gewonnen werden, d.h., G=F-1
Kann F noch durch ein vollständig bestimmtes mathematisches Problem beschrieben werden (d.h. Abbildung X → Y ist eindeutig), so ist die Inversion i.A. ein unterbestimmtes Problem (Mehrdeutigkeit aufgrund der Dimensionalitätserhöhung)
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Big Data Analysen
Big Data bedeutet nicht groß (wenn auch meistens), sondern die Eingabevariablen sind scheinbar schwach korreliert, gekennzeichnete durch hohes Rauschen und Verzerrung!
Aber mit ML kann auch solch schwachen Daten Informationen abgeleitet werden:
Kritik: Die Datenvoreverarbeitung und ML Datenkette kann (ungewollt) zu Verzerrung und Offset führen.
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Big Data Analysen
Daher: Die "Fehler" in der ML Verarbeitungskette bezüglich sozialer Eigenschaften können nicht technisch gelöst und korrigiert werden. Dazu müssen wiederum Modelle der Soziologie verwendet werden. Der "Theorie Rein - Theorie Raus" Ansatz [102]!!
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Zusammenfassung Unterschiede Soziologische und naturwissenschaftliche Verfahren vs ML
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Zusammenfassung Unterschiede Soziologische und naturwissenschaftliche Verfahren vs ML
Beim maschinellen Lernen glaubt man nicht, dass das Modell richtig ist, dh. es wird nicht angenommen, dass das Modell der datengenerierende Mechanismus ist.
Modelle werden nur danach ausgewertet, wie gut Sie anhand von Daten Vorhersagen machen, aus denen Sie selber nicht erstellt wurden, und nicht erklären wie sie zu Stande kommen.
In der Soziologie betrachtet man allgemein, ob ein Koeffizient eines linearen Modells von null unterscheidbar ist; dies macht starke Annahmen über den datengenerierenden Mechanismus, den maschinelle Lerner nicht für gültig halten würden.
Der Fokus des maschinellen Lernens lag traditionell nicht auf kausalen Effekten, obwohl Maschinelles lernen bei kausalen inferenzproblemen nützlich sein kann.
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Zusammenfassung
Maschinelles Lernen besteht aus:
Modellimplementierungen:
Aufgaben
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Zusammenfassung
Methoden und Verfahren
ML besteht aus mehreren Phasen:
Stefan Bosse - Maschinelles Lernen - Taxonomie des Maschinellen Lernens - Zusammenfassung