Mustererkennung statistik

In der Psychologie ist die Mustererkennung (sinnvollund und identifizierende Objekte) eng mit der Wahrnehmung verbunden, was erklärt, wie die sensorischen Inputs, die Menschen erhalten, sinnvoll gemacht werden. Die Mustererkennung kann auf zwei verschiedene Arten betrachtet werden: die erste ist vorlagenabgleich und die zweite ist die Feature-Erkennung. Eine Vorlage ist ein Muster, das zum Erstellen von Elementen mit den gleichen Proportionen verwendet wird. Die Hypothese des Vorlagenabgleichs legt nahe, dass eingehende Reize mit Vorlagen im Langzeitgedächtnis verglichen werden. Wenn es eine Übereinstimmung gibt, wird der Stimulus identifiziert. Feature-Erkennungsmodelle, wie das Pandemonium-System zur Klassifizierung von Buchstaben (Selfridge, 1959), deuten darauf hin, dass die Reize zur Identifizierung in ihre Komponenten unterteilt werden. Ein Großbuchstabe E hat z. B. drei horizontale Linien und eine vertikale Linie.

[23] Mustererkennungsalgorithmen zielen im Allgemeinen darauf ab, eine vernünftige Antwort für alle möglichen Eingaben zu geben und unter Berücksichtigung ihrer statistischen Variation einen “höchstwahrscheinlichen” Abgleich der Eingaben durchzuführen. Dies steht im Gegensatz zu Musterabgleichsalgorithmen, die nach genauen Übereinstimmungen in der Eingabe mit bereits vorhandenen Mustern suchen. Ein häufiges Beispiel für einen Musterabgleichsalgorithmus ist der Reguläre Ausdrucksabgleich, der nach Mustern einer bestimmten Sortierung in Textdaten sucht und in die Suchfunktionen vieler Texteditoren und Textverarbeitungsprogrammoren einbezogen wird. Im Gegensatz zur Mustererkennung ist die Musterabgleich im Allgemeinen keine Art von maschinellem Lernen, obwohl Musteranpassungsalgorithmen (insbesondere bei ziemlich allgemeinen, sorgfältig zugeschnittenen Mustern) manchmal eine vergleichbare Qualität der Art liefern können, die von Mustererkennungsalgorithmen bereitgestellt wird. Formal, Das Problem der überwachten Mustererkennung kann wie folgt angegeben werden: Angesichts einer unbekannten Funktion g : X – Y , Displaystyle g: , mathcal , X, Rechtspfeil, Mathcal , (die Grundwahrheit), die Eingabeinstanzen x ? X-Display-Stil, “Boldsymbol” in “Mathcal” in “Mathcal” (X) auf Ausgabeetiketten y ? Y-Displaystyle y,-in-Mathcal-“Y” , zusammen mit den Trainingsdaten D = ( x 1 , y 1 ) , , , ( x n , y n ) , ,,,,,,,,mathbf `D` = “Boldsymbol”-Symbol “x”-{1},y_{1}), “Dots” ,(“boldsymbol” ,(“fettsymbol” “x” , “y_” und “””””””” erstellen Sie eine Funktion h : X – Y , Displaystyle h: , mathcal , ,,,,,,mathcal” ,,Mathcal” ,,,Y” zu erstellen, die so nah wie möglich die richtige Zuordnung g -Displaystyle g ” annähert. (Wenn das Problem z. B. das Filtern von Spam ist, dann ist x i `displaystyle `boldsymbol `x`_`i` eine Darstellung einer E-Mail und y `displaystyle y` entweder “Spam” oder “Nicht-Spam”).

Damit dies ein klar definiertes Problem ist, müssen “ungefähre möglichst genau” definiert werden. In der Entscheidungstheorie wird dies durch die Angabe einer Verlustfunktion oder Kostenfunktion definiert, die einen bestimmten Wert dem “Verlust” zuweist, der sich aus der Erstellung einer falschen Bezeichnung ergibt. Das Ziel besteht dann darin, den erwarteten Verlust zu minimieren, wobei die Erwartung die Wahrscheinlichkeitsverteilung von X -Displaystyle , Mathcal, X, übernommen hat. In der Praxis sind weder die Verteilung von X -Displaystyle, “Mathcal” oder die Grundwahrheitsfunktion g: X, Y, “Displaystyle” g: “Mathcal” “X” , Rechtspfeil, “Mathcal” , genau bekannt, kann jedoch nur empirisch berechnet werden, indem eine große Anzahl von Beispielen von X -Displaystyle , Mathcal, X, gesammelt und mit dem richtigen Wert von Y -Displaystyle ,,Y” (ein zeitaufwändiger Prozess) von Hand beschriftet wird. , was in der Regel der begrenzende Faktor in der Datenmenge dieser Art ist, die gesammelt werden kann). Die funktionals bestimmte Verlustfunktion hängt von der Art der vorhergesagten Bezeichnung ab. Bei der Klassifizierung reicht beispielsweise oft die einfache Null-Eins-Verlust-Funktion aus. Dies entspricht lediglich dem Zuweisen eines Verlusts von 1 zu einer falschen Beschriftung und impliziert, dass der optimale Klassifier die Fehlerrate bei unabhängigen Testdaten minimiert (d. h. das Aufzählen des Bruchteils der Instanzen, den die erlernte Funktion h : X – Y – Displaystyle h: “Mathcal” “X” “Mathcal” “Mathcal” (Y” – falsch kennzeichnen , was der Maximierung der Anzahl korrekt klassifizierter Instanzen entspricht).

Share this post!
Categories: Uncategorized