PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise...

60
PG 520 Supervised Clustering with SVM Alexander Viefhues Universit ¨ at Dortmund 2007 Supervised Clustering with SVM Cover PG 520 1 / 31

Transcript of PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise...

Page 1: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

PG 520

Supervised Clustering with SVM

Alexander Viefhues

Universitat Dortmund 2007

Supervised Clustering with SVM Cover PG 520 1 / 31

Page 2: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Gliederung

1 Supervised Clustering with SVMDie IdeeSupervised ClusteringPaarweise KlassifikationDas ModellDer AlgorithmusApproximationVerlustfunktionenExperimenteZusammenfassungFragen

Supervised Clustering with SVM Cover PG 520 2 / 31

Page 3: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Quelle

Thomas FinleyThorsten JoachimsSupervised Clustering with Support Vector MachinesDepartment of Computer Science, Cornell University, Ithaca, NY14853 USA

Supervised Clustering with SVM Cover PG 520 3 / 31

Page 4: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Motivation

Problemgegeben: Itemsets fertig in Cluster unterteilt.

gesucht: Fahigkeit, alle folgenden Itemsets automatisch richtig inCluster zu unterteilen.

Problem: Welche Objekte sind ”ahnlich“ und kommen in ein Cluster?

LosungsideeMan benutz die SVM zum Trainieren des Cluster-Algorithmus.

Supervised Clustering with SVM Die Idee PG 520 4 / 31

Page 5: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Motivation

Problemgegeben: Itemsets fertig in Cluster unterteilt.

gesucht: Fahigkeit, alle folgenden Itemsets automatisch richtig inCluster zu unterteilen.

Problem: Welche Objekte sind ”ahnlich“ und kommen in ein Cluster?

LosungsideeMan benutz die SVM zum Trainieren des Cluster-Algorithmus.

Supervised Clustering with SVM Die Idee PG 520 4 / 31

Page 6: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Supervised Clustering

Formal

gegeben: n Trainingssets : (xi , yi)...(xn, yn) ∈ X × YX sind alle Items.Y alle moglichen Partitionen von X .

gesucht: Clusterfunktion: h:X → Y

Hilfsmittel

Verlustfunktion: ∆ : Y × Y → Rvergleicht zwei Clusterings

Trainingserror: ∆(h(x), y)fur ein Beispiel (x,y) und Clusterfunktion h

Supervised Clustering with SVM Supervised Clustering PG 520 5 / 31

Page 7: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Supervised Clustering

Formal

gegeben: n Trainingssets : (xi , yi)...(xn, yn) ∈ X × YX sind alle Items.Y alle moglichen Partitionen von X .

gesucht: Clusterfunktion: h:X → Y

Hilfsmittel

Verlustfunktion: ∆ : Y × Y → Rvergleicht zwei Clusterings

Trainingserror: ∆(h(x), y)fur ein Beispiel (x,y) und Clusterfunktion h

Supervised Clustering with SVM Supervised Clustering PG 520 5 / 31

Page 8: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Paarweise Klassifikation

FunktionsweisePaarweiser Vergleich der Items,beschreiben der Paare durch einen Eigenschaftsvektor

Positive Beispiele sind die in einem Cluster.Negative die, die nicht in einem Cluster sind.

Der Ausgabewert gibt an, ob die Items im selben Cluster sind odernicht.

Supervised Clustering with SVM Paarweise Klassifikation PG 520 6 / 31

Page 9: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Paarweise Klassifikation

Probleme• Wenn nicht eindeutig klar ist, ob ein Paar im gleichen Cluster ist

oder nicht, kann der paarweise Klassifizierer nicht nach demgeforderten Leistungsmaß optimieren.

• Paare in einem Cluster oft sehr gering,deshalb Unterbewertung des Ergebnisses moglich

• Der Vorteil von Abhangigkeiten der einzelnen Paarekann nicht genutzt werden

Supervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31

Page 10: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Paarweise Klassifikation

Probleme• Wenn nicht eindeutig klar ist, ob ein Paar im gleichen Cluster ist

oder nicht, kann der paarweise Klassifizierer nicht nach demgeforderten Leistungsmaß optimieren.

• Paare in einem Cluster oft sehr gering,deshalb Unterbewertung des Ergebnisses moglich

• Der Vorteil von Abhangigkeiten der einzelnen Paarekann nicht genutzt werden

Supervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31

Page 11: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Paarweise Klassifikation

Probleme• Wenn nicht eindeutig klar ist, ob ein Paar im gleichen Cluster ist

oder nicht, kann der paarweise Klassifizierer nicht nach demgeforderten Leistungsmaß optimieren.

• Paare in einem Cluster oft sehr gering,deshalb Unterbewertung des Ergebnisses moglich

• Der Vorteil von Abhangigkeiten der einzelnen Paarekann nicht genutzt werden

Supervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31

Page 12: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Paarweise Klassifikation

Problemlosungsansatze

Nur Heuristiken!Cohen & Cardie: lernen nur auf Paaren, die sich ahnlich sind.

Ng & Cardie: basiert auf Zusammenhangen von Ausdrucken:xb + xa werden pos. Paar,xa ist der Ausdruck,der am nachsten vor xb auftauchtund mit xb in Verbindung steht.Alle Ausdrucke zwischen xa und xbwerden mit xb zu negativen Paaren

Supervised Clustering with SVM Paarweise Klassifikation PG 520 8 / 31

Page 13: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Das Modell

GrundsatzAn der Methode fur das Supervides Clustering wird nichts geandert.Wir modifizieren nur das Ahnlichkeitsmaß, so dass der Algorithmus dieerwunschten Ergebnisse liefert.

Ahnlichkeitsmaß

Das Ahnlichkeitsmaß Simw bildet Itempaare auf Werte abPositiv = Ahnlich; Negativ = Unahnlich∀ : (xa, xb); xa, xb ∈ x; xa 6= xb ∃ : ∅(xa, xb) ≡ ∅a,b

Ahnlichkeitsmaß: Simw(xa, xb) = wT ∅a,b∅: Eigenschaftsvektor der Paare.w: Parameter fur das Ahnlichkeitsmaß.

Supervised Clustering with SVM Das Modell PG 520 9 / 31

Page 14: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Das Modell

GrundsatzAn der Methode fur das Supervides Clustering wird nichts geandert.Wir modifizieren nur das Ahnlichkeitsmaß, so dass der Algorithmus dieerwunschten Ergebnisse liefert.

Ahnlichkeitsmaß

Das Ahnlichkeitsmaß Simw bildet Itempaare auf Werte abPositiv = Ahnlich; Negativ = Unahnlich∀ : (xa, xb); xa, xb ∈ x; xa 6= xb ∃ : ∅(xa, xb) ≡ ∅a,b

Ahnlichkeitsmaß: Simw(xa, xb) = wT ∅a,b∅: Eigenschaftsvektor der Paare.w: Parameter fur das Ahnlichkeitsmaß.

Supervised Clustering with SVM Das Modell PG 520 9 / 31

Page 15: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Das Modell

MethodeFur unsere Cluster Methode benutzen wir:Corellation Clustering(Bansal 2002)

Fur ein Itemset x wird das Clustering y gesucht,so dass die Summe der Ahnlichkeitswerte maximal ist.

argmaxy∑

y∈y∑

xa,xb∈y Simw(xa, xb)

HinweisDurch dieses Vorgehen kann es vorkommen,dass Paare, die eigentlich nicht in ein Cluster gehoren,zusammengefasst werden,da der Netzeffekt einen Gesamtvorteil liefert.

Supervised Clustering with SVM Das Modell PG 520 10 / 31

Page 16: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Das Modell

MethodeFur unsere Cluster Methode benutzen wir:Corellation Clustering(Bansal 2002)

Fur ein Itemset x wird das Clustering y gesucht,so dass die Summe der Ahnlichkeitswerte maximal ist.

argmaxy∑

y∈y∑

xa,xb∈y Simw(xa, xb)

HinweisDurch dieses Vorgehen kann es vorkommen,dass Paare, die eigentlich nicht in ein Cluster gehoren,zusammengefasst werden,da der Netzeffekt einen Gesamtvorteil liefert.

Supervised Clustering with SVM Das Modell PG 520 10 / 31

Page 17: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Das Modell

Umformung∑y∈y

∑xa,xb∈y Simw(xa, xb)

=∑

y∈y∑

xa,xb∈y wT ∅a,b

= wT (∑

y∈y∑

xa,xb∈y ∅a,b)

BemerkungDie Zielfunktion ist ein linear Produktvon w und einer Summe von ∅ Vektroren.

Auch wenn wir Corellation Clustering benutzen,ist jede Zielfunktion, die ein linear Produkt von w ist, erlaubt.

Supervised Clustering with SVM Das Modell PG 520 11 / 31

Page 18: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Das Modell

Umformung∑y∈y

∑xa,xb∈y Simw(xa, xb)

=∑

y∈y∑

xa,xb∈y wT ∅a,b

= wT (∑

y∈y∑

xa,xb∈y ∅a,b)

BemerkungDie Zielfunktion ist ein linear Produktvon w und einer Summe von ∅ Vektroren.

Auch wenn wir Corellation Clustering benutzen,ist jede Zielfunktion, die ein linear Produkt von w ist, erlaubt.

Supervised Clustering with SVM Das Modell PG 520 11 / 31

Page 19: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Das Modell

Umformung∑y∈y

∑xa,xb∈y Simw(xa, xb)

=∑

y∈y∑

xa,xb∈y wT ∅a,b

= wT (∑

y∈y∑

xa,xb∈y ∅a,b)

BemerkungDie Zielfunktion ist ein linear Produktvon w und einer Summe von ∅ Vektroren.

Auch wenn wir Corellation Clustering benutzen,ist jede Zielfunktion, die ein linear Produkt von w ist, erlaubt.

Supervised Clustering with SVM Das Modell PG 520 11 / 31

Page 20: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Das Modell

Umformung∑y∈y

∑xa,xb∈y Simw(xa, xb)

=∑

y∈y∑

xa,xb∈y wT ∅a,b

= wT (∑

y∈y∑

xa,xb∈y ∅a,b)

BemerkungDie Zielfunktion ist ein linear Produktvon w und einer Summe von ∅ Vektroren.

Auch wenn wir Corellation Clustering benutzen,ist jede Zielfunktion, die ein linear Produkt von w ist, erlaubt.

Supervised Clustering with SVM Das Modell PG 520 11 / 31

Page 21: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Der Algorithmus

SVMstruct

lost das quadratische Programm:minw,ξ

12 ||w||

2 + C∑n

i=1 ξi , s.t .∀ : ξi ≥ 0

∀i ,∀y ∈ Y\yi : wT Ψ(xi , yi) ≥ wT Ψ(xi , y) + ∆(yi , y)− ξi

Erklarung

∆(y , y) ist der Wertverlust zwischen dem wirklichen Cluster y unddem Vorhergesagten y

∆(y , y) = 0 wenn die Cluster gleich sind, ∆ steigt, je unterschiedlicherdie Cluster werden.

Erklarung

Ψ(xi , y) = 1|xi |2

∑y∈y

∑xa,xb∈y ∅(xa, xb)

Supervised Clustering with SVM Der Algorithmus PG 520 12 / 31

Page 22: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Der Algorithmus

SVMstruct

lost das quadratische Programm:minw,ξ

12 ||w||

2 + C∑n

i=1 ξi , s.t .∀ : ξi ≥ 0

∀i ,∀y ∈ Y\yi : wT Ψ(xi , yi) ≥ wT Ψ(xi , y) + ∆(yi , y)− ξi

Erklarung

∆(y , y) ist der Wertverlust zwischen dem wirklichen Cluster y unddem Vorhergesagten y

∆(y , y) = 0 wenn die Cluster gleich sind, ∆ steigt, je unterschiedlicherdie Cluster werden.

Erklarung

Ψ(xi , y) = 1|xi |2

∑y∈y

∑xa,xb∈y ∅(xa, xb)

Supervised Clustering with SVM Der Algorithmus PG 520 12 / 31

Page 23: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Der Algorithmus

SVMstruct

lost das quadratische Programm:minw,ξ

12 ||w||

2 + C∑n

i=1 ξi , s.t .∀ : ξi ≥ 0

∀i ,∀y ∈ Y\yi : wT Ψ(xi , yi) ≥ wT Ψ(xi , y) + ∆(yi , y)− ξi

Erklarung

∆(y , y) ist der Wertverlust zwischen dem wirklichen Cluster y unddem Vorhergesagten y

∆(y , y) = 0 wenn die Cluster gleich sind, ∆ steigt, je unterschiedlicherdie Cluster werden.

Erklarung

Ψ(xi , y) = 1|xi |2

∑y∈y

∑xa,xb∈y ∅(xa, xb)

Supervised Clustering with SVM Der Algorithmus PG 520 12 / 31

Page 24: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Der Algorithmus

BemerkungDas QP fuhrt fur jedes falsche Clustering eine Nebenbedingung ein.

Jedoch wachst die Anzahl der falschen Clusterings mehr alsexponentiell mit der Anzahl der Items.

LosungsansatzDie SVM beginnt mit keiner Nebenbedingungund findet dann iterativ immer die Nebenbedingung, die am meistenverletzt wird.

Supervised Clustering with SVM Der Algorithmus PG 520 13 / 31

Page 25: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Der Algorithmus

BemerkungDas QP fuhrt fur jedes falsche Clustering eine Nebenbedingung ein.

Jedoch wachst die Anzahl der falschen Clusterings mehr alsexponentiell mit der Anzahl der Items.

LosungsansatzDie SVM beginnt mit keiner Nebenbedingungund findet dann iterativ immer die Nebenbedingung, die am meistenverletzt wird.

Supervised Clustering with SVM Der Algorithmus PG 520 13 / 31

Page 26: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Der Algorithmus fur SVM∆m1

1: Imput: (x1, y1), ..., (xn, yn), C, ε

2: Si ← ∅ fur alle i = 1, ..., n3: repeat4: for i = 1, ..., n do5: H(y) ≡ ∆(yi , y) + wT Ψ(xi , y)−wT Ψ(xi , yi)

6: berechne: y = argmaxy∈Y H(y)

7: berechne: ξi = max{0, maxy∈Si H(y)}8: if H(y) > ξi + ε then9: Si ← Si ∪ {y}

10: w← Optimiere uber S =⋃

i SI

11: end if12: end for13: until kein Si hat sich wahrend des Duchlaufs geandert

Supervised Clustering with SVM Der Algorithmus PG 520 14 / 31

Page 27: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Der AlgorithmusDer Algorithmus

1: Imput: (x1, y1), ..., (xn, yn), C, ε2: Si ← ∅ fur alle i = 1, ..., n3: repeat4: for i = 1, ..., n do5: H(y) ≡ ∆(yi , y) + wT Ψ(xi , y)− wT Ψ(xi , yi )6: berechne: y = argmaxy∈Y H(y)

7: berechne: ξi = max{0, maxy∈SiH(y)}

8: if H(y) > ξi + ε then9: Si ← Si ∪ {y}

10: w← Optimiere uber S =⋃

i SI11: end if12: end for13: until kein Si hat sich wahrend des Duchlaufs geandert

Erlauterungargmaxy∈Y H(y) liefert die am meisten verletze Nebenbedingung.Wenn die Nebenbedingung mehr als ε verletzt wird, wird sieubernommenund es wird neu optimiert.Wiederholung solange, bis keine Nebenbedingung mehr hinzukommt.

Supervised Clustering with SVM Der Algorithmus PG 520 15 / 31

Page 28: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Der AlgorithmusDer Algorithmus

1: Imput: (x1, y1), ..., (xn, yn), C, ε2: Si ← ∅ fur alle i = 1, ..., n3: repeat4: for i = 1, ..., n do5: H(y) ≡ ∆(yi , y) + wT Ψ(xi , y)− wT Ψ(xi , yi )6: berechne: y = argmaxy∈Y H(y)

7: berechne: ξi = max{0, maxy∈SiH(y)}

8: if H(y) > ξi + ε then9: Si ← Si ∪ {y}

10: w← Optimiere uber S =⋃

i SI11: end if12: end for13: until kein Si hat sich wahrend des Duchlaufs geandert

Erlauterungargmaxy∈Y H(y) liefert die am meisten verletze Nebenbedingung.Wenn die Nebenbedingung mehr als ε verletzt wird, wird sieubernommenund es wird neu optimiert.Wiederholung solange, bis keine Nebenbedingung mehr hinzukommt.

Supervised Clustering with SVM Der Algorithmus PG 520 15 / 31

Page 29: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Der AlgorithmusDer Algorithmus

1: Imput: (x1, y1), ..., (xn, yn), C, ε2: Si ← ∅ fur alle i = 1, ..., n3: repeat4: for i = 1, ..., n do5: H(y) ≡ ∆(yi , y) + wT Ψ(xi , y)− wT Ψ(xi , yi )6: berechne: y = argmaxy∈Y H(y)

7: berechne: ξi = max{0, maxy∈SiH(y)}

8: if H(y) > ξi + ε then9: Si ← Si ∪ {y}

10: w← Optimiere uber S =⋃

i SI11: end if12: end for13: until kein Si hat sich wahrend des Duchlaufs geandert

Erlauterungargmaxy∈Y H(y) liefert die am meisten verletze Nebenbedingung.Wenn die Nebenbedingung mehr als ε verletzt wird, wird sieubernommenund es wird neu optimiert.Wiederholung solange, bis keine Nebenbedingung mehr hinzukommt.

Supervised Clustering with SVM Der Algorithmus PG 520 15 / 31

Page 30: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Der AlgorithmusDer Algorithmus

1: Imput: (x1, y1), ..., (xn, yn), C, ε2: Si ← ∅ fur alle i = 1, ..., n3: repeat4: for i = 1, ..., n do5: H(y) ≡ ∆(yi , y) + wT Ψ(xi , y)− wT Ψ(xi , yi )6: berechne: y = argmaxy∈Y H(y)

7: berechne: ξi = max{0, maxy∈SiH(y)}

8: if H(y) > ξi + ε then9: Si ← Si ∪ {y}

10: w← Optimiere uber S =⋃

i SI11: end if12: end for13: until kein Si hat sich wahrend des Duchlaufs geandert

Erlauterungargmaxy∈Y H(y) liefert die am meisten verletze Nebenbedingung.Wenn die Nebenbedingung mehr als ε verletzt wird, wird sieubernommenund es wird neu optimiert.Wiederholung solange, bis keine Nebenbedingung mehr hinzukommt.

Supervised Clustering with SVM Der Algorithmus PG 520 15 / 31

Page 31: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Der AlgorithmusDer Algorithmus

1: Imput: (x1, y1), ..., (xn, yn), C, ε2: Si ← ∅ fur alle i = 1, ..., n3: repeat4: for i = 1, ..., n do5: H(y) ≡ ∆(yi , y) + wT Ψ(xi , y)− wT Ψ(xi , yi )6: berechne: y = argmaxy∈Y H(y)

7: berechne: ξi = max{0, maxy∈SiH(y)}

8: if H(y) > ξi + ε then9: Si ← Si ∪ {y}

10: w← Optimiere uber S =⋃

i SI11: end if12: end for13: until kein Si hat sich wahrend des Duchlaufs geandert

Erlauterungargmaxy∈Y H(y) liefert die am meisten verletze Nebenbedingung.Wenn die Nebenbedingung mehr als ε verletzt wird, wird sieubernommenund es wird neu optimiert.Wiederholung solange, bis keine Nebenbedingung mehr hinzukommt.

Supervised Clustering with SVM Der Algorithmus PG 520 15 / 31

Page 32: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Der Algorithmus

Theorem 1

Wenn ∆ = max(xi ,yi )∈S(maxy∆(yi , y))

und R = max(xi ,yi )∈S(maxy ||Ψ(xi , yi)−Ψ(xi , y)||)

dann konvergiert die SVMstruct nach max{2n∆ε , 8Cn∆R

2

ε2 }

Theorem 2Der Algorithmus liefert ein approximiertes Ergebnis, das kleiner odergleich dem QP ist.

Alle Nebenbedingungen sind im Rahmen von ε erfullt.

Supervised Clustering with SVM Der Algorithmus PG 520 16 / 31

Page 33: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Der Algorithmus

Theorem 1

Wenn ∆ = max(xi ,yi )∈S(maxy∆(yi , y))

und R = max(xi ,yi )∈S(maxy ||Ψ(xi , yi)−Ψ(xi , y)||)

dann konvergiert die SVMstruct nach max{2n∆ε , 8Cn∆R

2

ε2 }

Theorem 2Der Algorithmus liefert ein approximiertes Ergebnis, das kleiner odergleich dem QP ist.

Alle Nebenbedingungen sind im Rahmen von ε erfullt.

Supervised Clustering with SVM Der Algorithmus PG 520 16 / 31

Page 34: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Approximation

Das ProblemWie schwer ist es, die meist verletzte Nebenbedingung zu finden?H(y) ≡ ∆(yi , y) + wT Ψ(xi , y)−wT Ψ(xi , yi)

Der letzte Teil bleibt gleich, und kann vernachlassigt werden, so dasssich das Maximum nicht andert

Die Kostenfunktion: Verlust zwischen korrekten Clustering yi und demVorhergesagten y

plus die Zielfunktion des Correkation Clustering.

Das Finden des y fur die Zielfunktion ist NP-vollstandig(Bansal,2002)den Verlust zu Addieren bringt keinen Vorteil.

LosungsansatzApproximation der Clusterzielfunktion und von argmaxyH(y)

Supervised Clustering with SVM Approximation PG 520 17 / 31

Page 35: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Approximation

Das ProblemWie schwer ist es, die meist verletzte Nebenbedingung zu finden?H(y) ≡ ∆(yi , y) + wT Ψ(xi , y)−wT Ψ(xi , yi)

Der letzte Teil bleibt gleich, und kann vernachlassigt werden, so dasssich das Maximum nicht andert

Die Kostenfunktion: Verlust zwischen korrekten Clustering yi und demVorhergesagten y

plus die Zielfunktion des Correkation Clustering.

Das Finden des y fur die Zielfunktion ist NP-vollstandig(Bansal,2002)den Verlust zu Addieren bringt keinen Vorteil.

LosungsansatzApproximation der Clusterzielfunktion und von argmaxyH(y)

Supervised Clustering with SVM Approximation PG 520 17 / 31

Page 36: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Approximation

Greedy Approximation CG

Start: jedes Item in eigenem Cluster

Finde zwei Cluster und vereinige sie, so dass H(y) maximal erhohtwird.

Ende: wenn kein Zusammenfugen eine Erhohung bringt.

KorollarCG Zielwert nicht großer als der von QPwenn argmaxyH(y) = y , findet CG argmaxyH(y) = y∗ dann istH(y) ≥ H(y∗)

Supervised Clustering with SVM Approximation PG 520 18 / 31

Page 37: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Approximation

Greedy Approximation CG

Start: jedes Item in eigenem Cluster

Finde zwei Cluster und vereinige sie, so dass H(y) maximal erhohtwird.

Ende: wenn kein Zusammenfugen eine Erhohung bringt.

KorollarCG Zielwert nicht großer als der von QPwenn argmaxyH(y) = y , findet CG argmaxyH(y) = y∗ dann istH(y) ≥ H(y∗)

Supervised Clustering with SVM Approximation PG 520 18 / 31

Page 38: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Relaxation Approximation, CR

Jedes Paar xa, xb hat eine Variable ea,b die anzeigt, zu welchem Maßdie Items in das gleiche Cluster gehoren.ea,b ∈ [0, 1]

ea,b = eb,a

ea,b + eb,c ≥ ea,c

LP: maxe∑

ea,b∈e(ea,b) · (wT ∅a,b)

Ψ(x , e) = 1x

∑ea,b∈e(ea,b) ·∅a,b

Bemerkung: ist das Gleiche wieΨ(xi , y) = 1

|xi |2∑

y∈y∑

xa,xb∈y ∅(xa, xb),

wenn ea,b ganzzahlig ist.

KorollarCR Zielwert nicht kleiner als der von QPH(y) ≤ H(e)

Supervised Clustering with SVM Approximation PG 520 19 / 31

Page 39: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Relaxation Approximation, CR

Jedes Paar xa, xb hat eine Variable ea,b die anzeigt, zu welchem Maßdie Items in das gleiche Cluster gehoren.ea,b ∈ [0, 1]

ea,b = eb,a

ea,b + eb,c ≥ ea,c

LP: maxe∑

ea,b∈e(ea,b) · (wT ∅a,b)

Ψ(x , e) = 1x

∑ea,b∈e(ea,b) ·∅a,b

Bemerkung: ist das Gleiche wieΨ(xi , y) = 1

|xi |2∑

y∈y∑

xa,xb∈y ∅(xa, xb),

wenn ea,b ganzzahlig ist.

KorollarCR Zielwert nicht kleiner als der von QPH(y) ≤ H(e)

Supervised Clustering with SVM Approximation PG 520 19 / 31

Page 40: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Approximation

BemerkungFur die Experimente wurde C∗

R benutzt.

Start: jedes Item in eigenem Cluster

Iteriere uber alle xa ∈ x , wenn xa alleine im Cluster wahle es aus

Fur alle xb ∈ x die auch alleine in einem Cluster sind:

Cluster Vereinigen, wenn ea,b > 0, 7

Supervised Clustering with SVM Approximation PG 520 20 / 31

Page 41: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Die Verlustfunktionen

Paarweise ∆P

∆(y , y) = 100WT

T = Anzahl von Paaren im ItemsetW = Anzahl von Paaren, bei denen y und y nicht ubereinstimmen.Bei Relaxation Approximation: ea,b · (wT ∅a,b + 100

T )

MITRE Verlust∆M

∆M(y , y) = 100 2(1−R)(1−P)(1−R)+(1−P)

R = MITRE recallP = MITRE precision

Supervised Clustering with SVM Verlustfunktionen PG 520 21 / 31

Page 42: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Die Verlustfunktionen

Paarweise ∆P

∆(y , y) = 100WT

T = Anzahl von Paaren im ItemsetW = Anzahl von Paaren, bei denen y und y nicht ubereinstimmen.Bei Relaxation Approximation: ea,b · (wT ∅a,b + 100

T )

MITRE Verlust∆M

∆M(y , y) = 100 2(1−R)(1−P)(1−R)+(1−P)

R = MITRE recallP = MITRE precision

Supervised Clustering with SVM Verlustfunktionen PG 520 21 / 31

Page 43: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

TestmaterialTestmaterial 1:MUC-6 noun-phrase60 Dokumente(30 Training, 30 Test)Jedes Dokument im Schnitt 101 ClusterJedes Cluster im Schnitt 1,48 Worter,viele Einzelwort-ClusterEigenschaftsvektor der Paare hat 53 Dimensionen:gleicher Artikel? Satzabstand der Worte!...

Testmaterial 2: Google News30 Tage(15 Training, 15 Test) die Top 10 Themen der ”Welt“Kathegorie ausgewahltvon jeder Kathegorie meistens 15 Artikel ausgewahltjeder Artikel hat 30 TFIDF Vektoren fur: Unigramme, Bigramme....Der Eigenschaftsvektor der Paare besteht aus den 30 ”cosinesimilarities“ der Vektoren der Itemsplus einem Element, das immer 1 ist.

Supervised Clustering with SVM Experimente PG 520 22 / 31

Page 44: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

TestmaterialTestmaterial 1:MUC-6 noun-phrase60 Dokumente(30 Training, 30 Test)Jedes Dokument im Schnitt 101 ClusterJedes Cluster im Schnitt 1,48 Worter,viele Einzelwort-ClusterEigenschaftsvektor der Paare hat 53 Dimensionen:gleicher Artikel? Satzabstand der Worte!...

Testmaterial 2: Google News30 Tage(15 Training, 15 Test) die Top 10 Themen der ”Welt“Kathegorie ausgewahltvon jeder Kathegorie meistens 15 Artikel ausgewahltjeder Artikel hat 30 TFIDF Vektoren fur: Unigramme, Bigramme....Der Eigenschaftsvektor der Paare besteht aus den 30 ”cosinesimilarities“ der Vektoren der Itemsplus einem Element, das immer 1 ist.

Supervised Clustering with SVM Experimente PG 520 22 / 31

Page 45: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Testumgebung

TestumgebungMit den Daten wurden verschiedene Modelle getestet.

ein Modell:

Ahnlichkeitsgewicht w

Regulierungsparameter C, ausgesucht aus verschiedenen Wertenbasierent auf Kreutzvalidierung(bei TM1 k=10, bei TM2 k =5)

Als Vergleich PCC(pairwise classifikation clustering) durch SVMlightrealisiert

Supervised Clustering with SVM Experimente PG 520 23 / 31

Page 46: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Testergebnisse bei MUC-6CG PCC Default

Test mit CG,∆M 41,3 51,6 51,0Test mit CG,∆P 2,89 3,15 3,59

Spalte CG : - mit SVM-Cluster und Greedy Algorithmus gelerntSpalte PCC: - mit PCC gelerntSpalte Default: - in der ersten Zeile alle Items in einem Cluster

- in der zweiten jedes Item in eigenem Cluster

Zeile 1: getestet und optimiert mit MITRE VerlustfunktionZeile 2: getestet und optimiert mit paarweiser VerlustfunktionBeide Tests benutzen den Greedy Algorithmus auf der Testmenge

Die SVM ist deutlich besser als der Rest.Bei ∆M kann man das dadurch erklaren, dass die SVM fur eineVerlustfunktion optimiert werden kann, PCC nicht.

Bei ∆P lasst sich so nicht argumentieren, da PCC quasi gleichoptimiert, trotzdem ist die SVM besser.

Supervised Clustering with SVM Experimente PG 520 24 / 31

Page 47: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Testergebnisse bei MUC-6CG PCC Default

Test mit CG,∆M 41,3 51,6 51,0Test mit CG,∆P 2,89 3,15 3,59

Spalte CG : - mit SVM-Cluster und Greedy Algorithmus gelerntSpalte PCC: - mit PCC gelerntSpalte Default: - in der ersten Zeile alle Items in einem Cluster

- in der zweiten jedes Item in eigenem Cluster

Zeile 1: getestet und optimiert mit MITRE VerlustfunktionZeile 2: getestet und optimiert mit paarweiser VerlustfunktionBeide Tests benutzen den Greedy Algorithmus auf der Testmenge

Die SVM ist deutlich besser als der Rest.Bei ∆M kann man das dadurch erklaren, dass die SVM fur eineVerlustfunktion optimiert werden kann, PCC nicht.

Bei ∆P lasst sich so nicht argumentieren, da PCC quasi gleichoptimiert, trotzdem ist die SVM besser.

Supervised Clustering with SVM Experimente PG 520 24 / 31

Page 48: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Testergebnisse bei MUC-6CG PCC Default

Test mit CG,∆M 41,3 51,6 51,0Test mit CG,∆P 2,89 3,15 3,59

Spalte CG : - mit SVM-Cluster und Greedy Algorithmus gelerntSpalte PCC: - mit PCC gelerntSpalte Default: - in der ersten Zeile alle Items in einem Cluster

- in der zweiten jedes Item in eigenem Cluster

Zeile 1: getestet und optimiert mit MITRE VerlustfunktionZeile 2: getestet und optimiert mit paarweiser VerlustfunktionBeide Tests benutzen den Greedy Algorithmus auf der Testmenge

Die SVM ist deutlich besser als der Rest.Bei ∆M kann man das dadurch erklaren, dass die SVM fur eineVerlustfunktion optimiert werden kann, PCC nicht.

Bei ∆P lasst sich so nicht argumentieren, da PCC quasi gleichoptimiert, trotzdem ist die SVM besser.

Supervised Clustering with SVM Experimente PG 520 24 / 31

Page 49: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Testergebnisse bei Google News

CG CR PCC DefaultTest mit CG,∆P 2,36 2,43 2,45 9,45Test mit CR,∆P 2,04 2,08 1,96 9,45

Keine Mehtode ist deutlich besser als die andere.

Schlussfolgerung: Die SVM scheint besser zu sein, wenn die Datentransitive Abhangigkeiten haben, wenn nicht, sind beide Methodenannahernd gleich.

Supervised Clustering with SVM Experimente PG 520 25 / 31

Page 50: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Optimierung fur Verlustfunktionen

Opt. to ∆M Opt. to ∆PPerformance bei ∆M 41,3 42,8Performance bei ∆P 4,06 2,89

Kaum Unterschiede bei ∆M Performance.Große Unterschiede bei ∆P Performance.Die Werte des fur ∆M optimierten Modells sind nicht besser, als dieder Defaultwerte.Schlussfolgerung: Die Wahl der Verlustfunktion kann nachhaltig dieAccurracy des Modells beeinflussen.

Supervised Clustering with SVM Experimente PG 520 26 / 31

Page 51: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Verlust bei argmaxyH(y)

Muss die Verlustfunktion in argmaxyH(y) integriert sein, oder durfenwir sie hier vernachlassigen?

mit Verlusfunkt. ohne Verlustfunkt.MUC-6, ∆M 41,3 41,1MUC-6, ∆P 2,89 2,81

Google, train CG, test CG 2,36 2,42Google, train CR, test C∗

R 2,08 2,16

Es gibt keine signifikante Anderung in den Zeilen, bei keinem Modell.Schlussfolgerung: Verlust in argmaxyH(y) nicht zwingend erforderlich.

Supervised Clustering with SVM Experimente PG 520 27 / 31

Page 52: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Greedy vs. Relaxation

Welche Approximation ist besser?

Train CG Train CRTest CG 2,36 2,43Test CR 2,04 2,08

Kaum Unterschiede zu erkennen.Schlussfolgerung: Keine der Approximationen ist zu bevorzugen.

Supervised Clustering with SVM Experimente PG 520 28 / 31

Page 53: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Effizienz der SVMcluster

Auf dem MUC-6 Material werden uber 1000 Nebenbedingungenintegriert und es wird 50 mal neu optimiert.Mit CG wurde nur 1% der Zeit benotigt.Bei allen Experiementen hat keine SVMcluster langer als 3-4 Stundengebaucht,wobei der Durchschnitt eher unter einer Stunde lag.Als Vergleich der paarweise Klassifizierer:- eine knappe halbe Million Paare im Trainingsset- eine halbe Woche- eine halbe Million Nebenbedingungen

Supervised Clustering with SVM Experimente PG 520 29 / 31

Page 54: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

ZusammenfassungSVMcluster vs. PCCSVM je nach Material gleich oder besser als PCC.

Optimierung fur VerlustfunktionenWahl der Verlustfunktion entscheidend fur Accurracy, abhangig vomModell.

Verlust bei argmaxyH(y)

Verlust in argmaxyH(y) nicht zwingend erforderlich.

Greedy vs. RelaxationKeine Approximation eindeutig besser.

Effizienz der SVMcluster

SVMcluster mit Approximation fur die Geschwindigkeit die beste Wahl.

Supervised Clustering with SVM Zusammenfassung PG 520 30 / 31

Page 55: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

ZusammenfassungSVMcluster vs. PCCSVM je nach Material gleich oder besser als PCC.

Optimierung fur VerlustfunktionenWahl der Verlustfunktion entscheidend fur Accurracy, abhangig vomModell.

Verlust bei argmaxyH(y)

Verlust in argmaxyH(y) nicht zwingend erforderlich.

Greedy vs. RelaxationKeine Approximation eindeutig besser.

Effizienz der SVMcluster

SVMcluster mit Approximation fur die Geschwindigkeit die beste Wahl.

Supervised Clustering with SVM Zusammenfassung PG 520 30 / 31

Page 56: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

ZusammenfassungSVMcluster vs. PCCSVM je nach Material gleich oder besser als PCC.

Optimierung fur VerlustfunktionenWahl der Verlustfunktion entscheidend fur Accurracy, abhangig vomModell.

Verlust bei argmaxyH(y)

Verlust in argmaxyH(y) nicht zwingend erforderlich.

Greedy vs. RelaxationKeine Approximation eindeutig besser.

Effizienz der SVMcluster

SVMcluster mit Approximation fur die Geschwindigkeit die beste Wahl.

Supervised Clustering with SVM Zusammenfassung PG 520 30 / 31

Page 57: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

ZusammenfassungSVMcluster vs. PCCSVM je nach Material gleich oder besser als PCC.

Optimierung fur VerlustfunktionenWahl der Verlustfunktion entscheidend fur Accurracy, abhangig vomModell.

Verlust bei argmaxyH(y)

Verlust in argmaxyH(y) nicht zwingend erforderlich.

Greedy vs. RelaxationKeine Approximation eindeutig besser.

Effizienz der SVMcluster

SVMcluster mit Approximation fur die Geschwindigkeit die beste Wahl.

Supervised Clustering with SVM Zusammenfassung PG 520 30 / 31

Page 58: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

ZusammenfassungSVMcluster vs. PCCSVM je nach Material gleich oder besser als PCC.

Optimierung fur VerlustfunktionenWahl der Verlustfunktion entscheidend fur Accurracy, abhangig vomModell.

Verlust bei argmaxyH(y)

Verlust in argmaxyH(y) nicht zwingend erforderlich.

Greedy vs. RelaxationKeine Approximation eindeutig besser.

Effizienz der SVMcluster

SVMcluster mit Approximation fur die Geschwindigkeit die beste Wahl.

Supervised Clustering with SVM Zusammenfassung PG 520 30 / 31

Page 59: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Danke fur eure Aufmerksamkeit.Fragen?

Supervised Clustering with SVM Fragen PG 520 31 / 31

Page 60: PG 520 Supervised Clustering with SVM - ... fileSupervised Clustering with SVM Paarweise Klassifikation PG 520 7 / 31. Paarweise Klassifikation Probleme •Wenn nicht eindeutig klar

Danke fur eure Aufmerksamkeit.Fragen?

Supervised Clustering with SVM Fragen PG 520 31 / 31