PD Stefan Bosse
Universität Bremen - FB Mathematik und Informatik / AG 0
Universität Siegen - FB Maschinenbau / LMW
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN ::
Bisher wurden vor allem kategorische Zielvariablen betrachtet. Nun soll ein Schwerpunkt auf numerischen Variablen liegen.
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN ::
Bisher wurden vor allem kategorische Zielvariablen betrachtet. Nun soll ein Schwerpunkt auf numerischen Variablen liegen.
Regressionsverfahren passen eine parametrisierte mathematische Funktion an Messdaten an.
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN ::
Bisher wurden vor allem kategorische Zielvariablen betrachtet. Nun soll ein Schwerpunkt auf numerischen Variablen liegen.
Regressionsverfahren passen eine parametrisierte mathematische Funktion an Messdaten an.
Neben den "klassischen" Regressionsverfahren wie Least Square Fit gehören grundsätzlich auch Support Vector Machines (SVM) und Künstliche Neuronale Netzwerke dazu!
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN ::
SVM gehören zu den Regressionsverfahren
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN ::
SVM gehören zu den Regressionsverfahren
SVM nutzen aber bei der Parameteranpassung (Training) eine andere Fehlerfunktion (Loss) als bei anderen gängigen Regressionsverfahren (z.B. Least-Square Minimierung)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN ::
SVM gehören zu den Regressionsverfahren
SVM nutzen aber bei der Parameteranpassung (Training) eine andere Fehlerfunktion (Loss) als bei anderen gängigen Regressionsverfahren (z.B. Least-Square Minimierung)
SVM können primär kategorische und weniger numerische Zielvariablen abbilden
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN ::
SVM gehören zu den Regressionsverfahren
SVM nutzen aber bei der Parameteranpassung (Training) eine andere Fehlerfunktion (Loss) als bei anderen gängigen Regressionsverfahren (z.B. Least-Square Minimierung)
SVM können primär kategorische und weniger numerische Zielvariablen abbilden
SVM sind aber (zunächst) lineare Klassifikatoren!
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Regressionsverfahren
Klassifikationsprobleme sind durch Booleschen Ausgabevariablen gekennzeichnet (Klasse ci={true,false})
Bei Regressionproblemen findet hingegen eine Ausgabe mit kontinuierlichen Variablen statt, idealerweise y ∈ [0,1]
D.h. es gibt Trainingsdaten mit:
D=Xt={→xt,rt}Nt=1
wobei r ∈ ℝ. Wenn Rauschen vernachlässigt wird handelt es sich um ein reines Interpolationsproblem.
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Regressionsverfahren
19
Lineare Gerade, Polynome zweiter Ordnung und sechster Ordnung werden an denselben Satz von Punkten angepasst. Die höchste Ordnung ergibt eine perfekte Passform, aber angesichts dieser vielen Daten ist es sehr unwahrscheinlich, dass die reale Kurve so geformt ist. Die zweite Ordnung scheint besser zu sein als die lineare Anpassung bei der Erfassung des Trends in den Trainingsdaten (Extrapolation).
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Regressionsverfahren
Es wird immer einen Fehler ε geben (Rauschen in den "Trainingsdaten" r):
y(→xt)=rt=f(→xt)+ϵ
arg minθ ϵ→E(g∣X)=1N∑(rt−g(→xt))2
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Regressionsverfahren
yp(→x)=g(→x)=w1x1+w2x2+..+wdxd+w0=d∑j=1wdxd+w0
Schon dieses Problem kann unterbestimmt sein, d.h., es kann unendlich viele Hypothesen g von der unbekannten Funktion f geben!
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Regressionsverfahren
g(x)=w0+w1x+w2x2+..+wkxk=k∑j=1wjxj+w0
g(x)=w1x+w0E(w1,w0∣Xt)=1NN∑t=1(rt−(w1xt+w0))2
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Regressionsverfahren
w1=∑txtrt−¯¯¯x¯¯¯rN∑t(xt)2−N¯¯¯x2w0=¯¯¯r−w1¯¯¯x¯¯¯x=∑txtN,¯¯¯r=∑trtN
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Regressionsverfahren
g(→x)=d∑i=1k∑j=1wi,jxji+w0
Es können auch exponentielle, logarithmische, und sinusoidale Terme hinzukommen!
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Regressionsverfahren
Warum können hochdimensionale Polynome nicht mehr mit gradientenbasierten Verfahren numerisch auf einem Computer (gut oder überhaupt) lösbar sein? Hinweis: Wie entwickeln sich Gradienten bei Polynomen sehr hoher Ordnung oder gar Exponentialterme wie bn?
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Direkte Lösungsverfahren
4
Erweiterung der Eigenwertanalyse und verwendet Matrixalgebra und Inversionsmethoden
Ansatz: Dekomposition einer (nichtlinearen) Funktion f(x,Θ) mit b Basisfunktionen ϕ, z.B. sin oder ähnlich, mit Parametersatz Θ:
fΘ(→x)=b∑j=1Θjϕj(x)fΘ(→x)=→ΘT→ϕ(x)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Direkte Lösungsverfahren
^Φ=⎛⎜⎝ϕ1(→x1)..ϕb(→x1)………ϕ1(→xn)..ϕb(→xn)⎞⎟⎠
Die Größe der Design Matrix als Ausgangspunkt für SVD/LS Verfahren wächst quadratisch mit der Anzahl der Trainingsdateninstanzen!
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Direkte Lösungsverfahren
^ΘLS=(ΦTΦ)−1ΦTy^ΘLS=ΦGy
mit ΦG als generalisierte Inverse der Matrix Φ
Die generalisierte Inverse wird dann mit dem SVD Verfahren mit sogenannten links- und rechtssingulären Vektoren bestimmt.
Vertiefung: M. Sugiyama, Introduction to Statistical Machine Learning. 2016, Kapitel 22.2
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Support Vector Machines (SVM)
Obwohl die SVM zu den linearen (oder nichtlinearen) Regressionsverfahren gehören, wird die SVM primär für die binäre Klassifikation eingesetzt!
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Binärer Klassifikator
f(→x):→x→y=→wT→x+γ
Dabei sind w und γ die Parameter des Modells die durch das Training an das Problem angepasst werden müssen.
w ist ein Normalenvektor der bei einem binären Klassifikationsproblem die beiden Instanzklassen trennt
y kann tatsächlich auch außerhalb der Grenzen [-1,1] liegen (klar: Polynome haben keine Grenzen)!
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Binärer Klassifikator
4 (Oben) w ist der Normalenvektor und γ die Verschiebung der Trennungsgrenze für zwei Klasseninstanzen (Unten) Verschiedene w/γ Varianten der Trennungsgrenze mit unterschiedlichen Rändern (Sicherheitsbereichen)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Training
f(→xi)yi=(→wT→xi+γ)yi>0,∀i
für alle Dateninstanzen D={(xi,yi)}n.
Da w und γ beliebig gewählt werden können, kann die Randbedingung auch mit (..)yi ≥ 1 gewählt werden.
Weiterhin kann es sinnvoll sein alle Dateninstanzen um den Ursprung des Koordinatensystems zu zentrieren
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Training
Wichtig: Die Werte für y liegen im Intervall [-1,1]!
Alle Probleme die (..)yi ≥ 1 erfüllen mit einem (w,γ) sind linear separierbar.
Es gibt unendlich viele Lösungen (also Entscheidungsgrenzen)
Man wählt das (w,γ) aus bei der alle Dateninstanzen die größte Trennung besitzen (breitester Trennbereich, siehe Abb.)
Der Abstand der Dateninstanzen D ist definiert als das Minimum des normalisierten Abstandes:
mi=(→wT→xi+γ)yi/||→w||
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Training
mini(→wT→xi+γ)yi||w||=1||w||
Vertiefung: M. Sugiyama, Introduction to Statistical Machine Learning. 2016., Kapitel 27
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Training
mini1/2||w||2,(→wT→xi+γ)yi⩾1,∀i
Hier wird aber keine Lösung für w und γ gefunden wenn das Problem nicht strikt linear separierbar ist (also keine einzige Gerade die Klassen trennen kann)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Training
Die SVM mit harten Trennungsbereich erfordert lineare Separierbarkeit der Dateninstanzen
Die weiche Trennung durch eine SVM führt einen Fehlerparametervektor ξ={ξi}n für die Bestimmung des Trennbereichs ein:
min∀i:w,ξ,γ[1/2||w||2+C∑iξi],(→wT→xi+γ)yi⩾1−ξi,ξi⩾0,∀i
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Training
4 Weicher Trennbereich einer SVM (Soft margin SVM). Durch ξ werden kleine Klassifikationsfehlerbereiche erlaubt.
Die Ausreißer können durch Rauschen und Messunsicherheit (random. und systematischer Fehler) aber auch aufgrund eines nichtlinear separierbaren Problems entstehen!
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Training
Dabei ist C ein einstellbarer Parameter der den Fehler steuert und für den gilt:
C=αi+βi
Größere C Werte machen den Abstandsfehler kleiner und für große C geht die weiche in eine harte SVM über
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Multiklassen SVM
Jedes Multiklassenproblem mit m verschiedenen (diskreten) Klassenwerten kann auf m binäre Klassifikationsprobleme transformiert werden
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: R SVM (custom)
model <- svm( x = data.frame, y? = vector, # scaled to [-1,1]? formula? = y ~ x, # threshold function on output? highest value of multi-svms is winner threshold = boolean, # default : 1.0. C in SVM. C = number, # default : 1e-4. Higher tolerance --> Higher precision tol = number, # default : 20. Higher max_passes --> Higher precision max_passes = number, # default : 1e-5. Higher alpha_tolerance --> Higher precision alpha_tol = number, kernel = string|list, # linear, rbf, .. list(type= 'rbf', sigma= 0.5) .. # list( type = "polynomial", c = 1, d = 5=)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Beispiel
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Künstliche Neuronale Netze
Ein KNN ist eine Komposition aus einer Vielzahl von Abbildungsfunktionen G=(g1,g2,..,gm). Es gibt Parallelen zu Regressionsverfahren mit Funktionen.
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Künstliche Neuronale Netze
M(X):X→Y,X={xi},Y={yj}KNN=⟨Nx,Nd,Ny,E⟩Nx={ni:ni↔{xj}},Nd={nd},Ny={nk:nk↔yk}n=g(→p,→w,b):→p→o=f(∑iwipi+b)E={eij:ni↦njwij}
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Künstliche Neuronale Netze
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Das Neuron
15 Ein einzelnes Neuron mit einem einzelnen Eingang p und einem Ausgang o. w ist ein Gewichtungsfaktor (ein Gewicht für eingehendes p) und b ist ein Bias (Offset)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Das Mehreingangsneuron
15 Ein einzelnes Neuron mit einem Eingangsvektor p und einem skalaren Ausgang o. w ist ein Gewichtungsfaktorvektor (ein Gewicht für eingehendes p) und b ist ein Bias (Offset)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Neuronale Netze und Matrizen
15 Ein einzelnes Neuron mit einem Eingangsvektor p und einem skalaren Ausgang o. w ist ein Gewichtungsfaktorvektor (ein Gewicht für eingehendes p) und b ist ein Bias (Offset); jetzt in Matrizenform (Annotation)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Schichten von Neuronalen Netzen
15
Neuronales Netzwerk mit Neuronen in einer Schicht angeordnet
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Struktur eines KNN
15 Grundlegende Struktur eines KNN mit Matrizen (blaue Ellipse=1 Neuron)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Vereinfachte Form eines KNN
15 Vereinfachte Struktur eines KNN mit Matrizen
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Klassen von KNN
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Klassen von KNN
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Rückgekoppelte Netzwerke
15 Rückgekoppeltes und zustandsbehaftetes KNN mit einer Verzögerungsfunktion (Speicher)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Transferfunktion
Auch Aktivierungsfunktion genannt (in Anlehnung an biologische Vorbild mit stark nichtlinearer Übertragungskennline)
Es gibt eine Vielzahl verschiedener Funktionen
Warum ist eine solche Übertragungsfunktion ungeeignet bzw. problematisch?
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Transferfunktion
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Transferfunktion
Transferfunktionen besitzen häufig begrenzende Eigenschaften (Sättigungsverhalten), und nicht lineares Übertragungsverhalten
15 Verschiedene gebräuchliche Transferfunktionen f(a)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Ein einfaches Neuron - Funktional
fsigmoid(a)=11+e−ag(x1,x2,x3)=fsigmoid(b+∑wixi)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Parametersatz des KNN
Anzahl der Eingangsneuronen (verbunden mit x), abhängig von der Anzahl der Eingabevariablen |x| und der Kodierung (numerisch vs. kategorisch)
Anzahl der Ausgangsneuronen (abhängig von der Kodierung). Bei numerischen Zielvariablen y gilt also: |Ny|=|y|
Anzahl der inneren verdeckten Neuronen |Nd| und deren Anordnung in Schichten
D.h. die Konfiguration des Netwerks ist [c1,c2,..,cm] bei m Schichten und ci Neuronen pro Schicht
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Parametersatz des KNN
Wi=⎡⎢ ⎢ ⎢ ⎢ ⎢⎣w1,1w1,2⋯w1,Rw2,1w2,2⋯w2,R⋮⋮⋮wS,1wS,2⋯wS,R⎤⎥ ⎥ ⎥ ⎥ ⎥⎦,Bi=⎡⎢ ⎢⎣b1⋮bS⎤⎥ ⎥⎦
Mit S: Anzahl der Neuronen in der Schicht, R: Anzahl der Eingangsvariablen (oder Neuronen der vorherigen Schicht)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Parametersatz des KNN
o(→p)=f(jWT→p+bi)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Training von KNN
M(→x):→x→→yargminWerr(M)=|y(→x)−y0(→x)|,∀(x,y0)∈D
Ziel ist die Minimierung des Fehlers unserer Modellhypothese M(x) durch Anpassung der Gewichtematrix W und evtl. (wenn vorhanden) des Offsetvektors B
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Fehler
LS1
err=y−y0err=|y−y0|
LS2
err=(y−y0)2
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Fehler
Es ist leicht zu erkennen dass das Training einen hochdimensionalen Parametersatz anpassen muss. Es ist nicht unmittelbar klar wie ein optimales W abgeleitet werden kann!
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Fehler
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Nichtlineare Probleme
SLP können nur lineare Probleme separieren.
15 Nichtlinear separierbare Probleme - nur mit MLP klassifizierbar
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Nichtlineare Probleme
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Error Backpropagation Verfahren
https://hmkcode.com/ai/backpropagation-step-by-step
Baut auf dem Minimierungsansatz "Gradient Descent" (GD) auf (Absteigender Gradient)
Beim GD Verfahren wird eine Funktion, z.B. f(x,w): x → y derart über den Parameter w angepasst so dass der Fehler err=|y-y0| minimal wird
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Error Backpropagation Verfahren
w′=w−α∂err∂w
Zur Berechnung des Fehlergradientens wird die Ableitung der Transferfunktion benötigt.
∂err∂w∼x(y−y0)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Error Backpropagation Verfahren
hmkcode.com/ai/backpropagation-step-by-step Beispiel eines ANN mit Kantengewichten und dem Ansatz der Backpropagation
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Error Backpropagation Verfahren
hmkcode.com/ai/backpropagation-step-by-step Backpropagation des Fehlers zu den Eingängen des Beispielnetzwerkes
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Error Backpropagation Verfahren
Der Einfluss des Ausgabefehlers bei der Rüchpropagation nimmt von Schicht zu Schicht ab. Daher sind mehrschichtige Netzwerke zunächst schwer/langsam (bis gar nicht) trainierbar.
Bei Transferfunktionen mit Sättigung (Clipping) kann es zu "toten" Netzwerknoten kommen,
Ausweg: Randomisiertes Drop-out (Abschalten von Neuronen) und Suche nach gesättigten Neuronen mit anschließender Parameterkorrektur so dass der Ausgang der Transferfunktion in den Arbeitsbereich verlegt wird!
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Kategorische Multiklassen Probleme
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Numerische Prädiktorfunktionen
Neben der Klassifikation lassen sich mit ANN auch numerische (kontinuierliche) Funktionen lernen
Damit wird Funktionsapproximation wie bei den Regressionsverfahren möglich
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Numerische Prädiktorfunktionen
Die Wahl der Transferfunktion muss sorgfältig geschehen. Nichtlinearitäten der Transferfunktionen in den Randbereichen des Übertragungsbereichs muss berücksichtigt oder genutzt werden.
Die Sigmoid (Log Rregression) Funktion ist abschnittsweise linear - ähnlich einem elektronischen Operationsverstärker ⇒ Analoge Rechner!!
Begrenzung/Sättigung schränkt den Lösungsraum ein (gewollt!)
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Literatur zur Vertiefung
[1] M. T. Hagan, howard B. Demuth, M. H. Beale, and O. D. Jesus, Neural Network Design. https://hagan.okstate.edu/nnd.html
Sugiyama, ItSML, pp 303
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Zusammenfassung
Regressionsverfahren werden auf kontinuierliche Zielvariablen angewendet (der Hypothesenraum kann bei nichtlinearen Problemen sehr groß werden)
Eine SVM wird als binärer Klassifikator verwendet und wird i.A. durch eine lineare Funktion (Kernel) repräsentiert
Multiklassenprobleme werden auf Multi-SVMs zurückgeführt
Das Training einer SVM ist ein Minimierungsproblem dass den Trennbereich maximiert und den Fehler minimiert
PD Stefan Bosse - Automatische Schadensdiagnostik - Modul E Regressionsverfahren, SVM und KNN :: Zusammenfassung
Neuronale Netze bestehen aus Neuronen
Neuronen sind zusammengesetzte Funktionen: Produktsummation und Transferfunktion
Die Kanten verbinden Ausgänge von Neuronen mit den Eingängen nachfolgender Neuronen mit einer Multiplikation eines Gewichtfaktors
Alle Eingänge eines Neurons werden summiert, das Ergebnis einer Transfer/Aktivierungsfunktion übergeben (reduktion eines Vektors auf Skalar)
Training ist ein Minimierungsproblem und bedeutet Anpassung der Gewichte um den Ausgangsfehler zu minimieren