Download Musikinstrumentenerkennung mit Hilfe der Hough-Transformation PDF

TitleMusikinstrumentenerkennung mit Hilfe der Hough-Transformation
Author
LanguageEnglish
File Size877.5 KB
Total Pages81
Document Text Contents
Page 1

Musikinstrumentenerkennung
mit Hilfe der Hough-Transformation

Diplomarbeit im Fach Statistik

an der Universität Dortmund

eingereicht bei

Prof. Dr. Claus Weihs

vorgelegt von

Christian Röver

Herderstraße 69

44147 Dortmund

Dortmund im Juli 2003

Page 2

Inhaltsverzeichnis

1 Einleitung 3

2 Zugrundeliegendes Datenmaterial 5

2.1 Die Audio-Rohdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.1.1 Schall und Klang . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.1.2 Klangdigitalisierung . . . . . . . . . . . . . . . . . . . . . . . . 6

2.1.3 Der Datensatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.2 Die Hough-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.2.1 Generelles Prinzip . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.2.2 Anwendung auf Audiodaten . . . . . . . . . . . . . . . . . . . . 12

2.2.3 Parametrisierung und Umsetzung . . . . . . . . . . . . . . . . . 13

2.3 Resultierendes Datenformat . . . . . . . . . . . . . . . . . . . . . . . . 16

3 Klassifikation 19

3.1 Das Klassifikationsproblem . . . . . . . . . . . . . . . . . . . . . . . . . 19

3.2 Datenaufbereitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3.2.1 Besetzungszahlen . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3.2.2 Hough-Charakteristika . . . . . . . . . . . . . . . . . . . . . . . 22

3.2.3 Clusteranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3.3 Kurzer Datenüberblick . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.4 Diskriminanzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.4.1 Lineare Diskriminanzanalyse (LDA) . . . . . . . . . . . . . . . . 29

3.4.2 Quadratische Diskriminanzanalyse (QDA) . . . . . . . . . . . . 32

3.4.3 Naive Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

1

Page 40

3 Klassifikation

Die Klassifikationsregeln lassen sich als ein Entscheidungsbaum darstellen (rechts).

Die Partitionierung entsteht dadurch, daß Schritt für Schritt jeweils eine Partition

entlang einer der Variablen in zwei Klassen aufgeteilt wird. Diese

Spaltpunkte“, an

denen die Partitionen getrennt werden, werden ermittelt, indem in jedem Schritt der


beste“ Spaltpunkt über alle Variablen bestimmt wird. Es kommt in jedem Schritt

jeweils nur eine begrenzte Anzahl neuer Partitionierungen in Frage, da das Partitio-

nieren nur zwischen zwei beobachteten Realisierungen einer Variablen sinnvoll ist, und

das für alle d Variablen. Für diese potentiellen Spaltpunkte wird jeweils eine Maßzahl

berechnet, die die Vermischung der verbleibenden Partitionen beschreibt und es wird

diejenige Spaltung gewählt, die zu den

reinsten“ Partitionen führt.

Vorteil der Klassifikationsbäume ist wiederum, daß keine Verteilungssannahmen ge-

macht werden müssen, die abgeleiteten Klassifikationsregeln sind einfach und leicht

interpretierbar, und die Variablenselektion (dazu mehr in Abschnitt 3.9) erübrigt sich.

Nachteil ist, daß die Klassengrenzen nur entlang der Hauptachsen gezogen werden —

das verkompliziert die Klassentrennung bei Klassen, die sich durch eine Gerade belie-

biger Orientierung möglicherweise einfach trennen ließen, durch einen Klassifikations-

baum allerdings nur durch viele Einzelschritte; dies kann insbesondere bei korrelierten

Variablen zum Problem werden.

Um eine Überanpassung (Overfltting, siehe auch Abschnitt 3.9, Seite 44) zu verhindern,

muß die Feinheit der Aufteilung reguliert werden. Überanpassung tritt auf, wenn die

Partitionierung zu genau an die Trainingsdaten angepaßt wird, so daß diese dann nicht

mehr repräsentativ für deren Grundgesamtheit ist. Bei den Daten in Abbildung 3.13

ließe sich durch weitere Partitionierung ein Baum konstruieren, der die Daten perfekt,

also ohne Fehler, klassifiziert. Dieser würde dann aber wahrscheinlich die Klassen neu-

er Daten aus derselben Grundgesamtheit schlechter vorhersagen.

Ausgehend von der (vermeintlich) perfekten Partitionierung wird der Klassifikations-

baum daher

zurückgeschnitten“ (Pruning), dies geschieht in der verwandten Imple-

mentation anhand der (durch Kreuzvalidierung) geschätzten Fehlerrate (Venables und

Ripley, 2002).

39

Page 41

3 Klassifikation

3.7 k-Nearest-Neighbour

Die Klassifikationsregel beim k-Nearest-Neighbour ist sehr einfach, es muß nur der

Parameter k 2 IN festgelegt werden. Beim 1-Nearest-Neighbour (k = 1) wird für
eine neue, zu klassifizierende Beobachtung die ähnlichste Beobachtung aus den Trai-

ningsdaten gesucht; diejenige, die den geringsten euklidischen Abstand zu der neuen

Beobachtung hat, das ist dann der

nächste Nachbar“. Deren Klasse wird festgestellt,

und der neuen Beobachtung wird dann dieselbe Klasse zugeordnet. Für k > 1 werden

die k nächstliegenden Beobachtungen bestimmt und festgestellt, welcher Klasse die

Mehrheit dieser k nächsten Nachbarn angehört, die Nachbarn dürfen sozusagen

ab-

stimmen“, und bei Stimmengleichheit wird zufällig zugewiesen.

Abbildung 3.14 zeigt die Diskriminanzfunktion beim k-Nearest-Neighbour für ein paar

Beispieldaten und variierendes k. Es gibt zwei Klassen

A“ und


B“; die Klassengren-

zen verlaufen sehr unregelmäßig.

k = 1

x1

x 2

0 2 4 6 8 10

0
2

4
6

8
1
0

A

A

A

A

A

A

A

AA

B

B

B

B

B

B

B

B

B
B

B

k = 3

x1

x 2

0 2 4 6 8 10

0
2

4
6

8
1
0

A

A

A

A

A

A

A

AA

B

B

B

B

B

B

B

B

B
B

B

k = 5

x1

x 2

0 2 4 6 8 10

0
2

4
6

8
1
0

A

A

A

A

A

A

A

AA

B

B

B

B

B

B

B

B

B
B

B

Abbildung 3.14: Diskriminanzfunktion beim k-Nearest-Neighbour für verschiedene

Werte von k.

Vorteil dieser Methode ist, daß sie ohne Modellannahmen (Normalverteilung oder ähn-

liches) auskommt und daher auch die Form der Klassengrenzen nicht restringiert ist,

die Klassen müssen nicht einmal zusammenhängend sein. Es muß lediglich der Wert

von k festgelegt werden.

Ein Nachteil ist, daß für diese Entscheidungsregel jeweils die gesamten Daten betrach-

tet werden müssen (es muss zu jedem einzelnen Datenpunkt die Entfernung bestimmt

werden). Bei anderen Verfahren beschränkt sich die zur Klassifikation notwendige In-

40

Page 80

Index

Abtastrate, 6

Amplitude (A), 13

a-priori-Verteilung, 30

ASIC, 3

Auflösung, 6

Besetzungszahlen, 21

Bildpunkte, 9

Bildraum, 9

Center-Frequency, 13

Clusteranalyse, 24

Diskriminanzanalyse, 29

Diskriminanzfunktion, 31

Fehlerrate, 47

Hough-Charakteristika, 22

Hough-Histogramm, 11

Hough-Transformation, 8

Klang, 5

Klassifikationsbaum, 38

Klassifikation, 19

k-Nearest-Neighbour, 40

Kreuzvalidierung, 45

Lineare Diskriminanzanalyse (LDA), 29

Maximum-Likelihood-Entscheidungsregel,

30

Naive Bayes, 33

Parameterraum, 9

Phasenverschiebung (’), 13

Pruning, 39

Quadratische Diskriminanzanalyse (QDA),

32

R, 46

Regularisierte Diskriminanzanalyse (RDA),

34

Sampling, 6

Signalflanke, 12

Stepwise Selection, 44

Support Vector Machine, 37

Überanpassung (Overfitting), 39, 44

Variablenselektion, 44

Verlust (-funktion), 30

79

Page 81

Hiermit erklãre ich an Eides statt, da… ich die vorliegende Arbeit selbstãndig verfa…t

und keine anderen als die im Literaturverzeichnis angegebenen Quellen verwendet

habe.

Dortmund im Juli 2003 (Christian Rõver)

80

Similer Documents