Bild Muster erkennen

Meysman P, Zhou C, Cule B, Goethals B, Laukens K (2015) Mining der gesamten Protein DataBank für häufige räumlich kohäsive Aminosäuremuster. BioData mining 8(1):4 Ich begann dies, indem ich die Farbe des Quellbildes in ein Graustufenbild änderte und jede Zeile des Bildes nach zwei, drei längsten Linien (Pixel für Pixel) scanne. Das Ziel ist es, das Bild 5000 X 5000 px in weniger als 1-2s zu analysieren. Beim maschinellen Lernen ist die Mustererkennung die Zuordnung einer Beschriftung zu einem bestimmten Eingabewert. In der Statistik wurde 1936 zu diesem Zweck eine diskriminierende Analyse eingeführt. Ein Beispiel für die Mustererkennung ist die Klassifizierung, bei der versucht wird, jeden Eingabewert einer bestimmten Gruppe von Klassen zuzuweisen (z. B. bestimmen, ob eine bestimmte E-Mail “Spam” oder “Nicht-Spam” ist). Die Mustererkennung ist jedoch ein allgemeineres Problem, das auch andere Arten von Ausgaben umfasst. Andere Beispiele sind die Regression, die jeder Eingabe eine realwertige Ausgabe zuweist. [2] Sequenzbeschriftung, die jedem Element einer Sequenz von Werten [3] eine Klasse zuweist (z. B.

Teil der Sprachmarkierung, die jedem Wort in einem Eingabesatz einen Teil der Sprache zuweist); und Parsing, das einem Eingabesatz einen Analysebaum zuweist und die syntaktische Struktur des Satzes beschreibt. [4] Die überwachte Klassifizierung von Eingabedaten in der Mustererkennungsmethode verwendet überwachte Lernalgorithmen, die Klassifikatoren basierend auf Trainingsdaten aus verschiedenen Objektklassen erstellen. Der Klassifier akzeptiert dann Eingabedaten und weist die entsprechende Objekt- oder Klassenbezeichnung zu. Bei einer probabilistischen Mustererkennung besteht das Problem stattdessen darin, die Wahrscheinlichkeit jeder möglichen Ausgabebeschriftung bei einer bestimmten Eingabeinstanz zu schätzen, d.h. eine Funktion der Form Joulin A, Mikolov T (2015) zu schätzen, die algorithmische Muster mit stapelverstärkten wiederkehrenden Netzen ableitet. In: Fortschritte in neuronalen Informationsverarbeitungssystemen Techniken zur Transformation der Roh-Feature-Vektoren (Feature-Extraktion) werden manchmal vor der Anwendung des Musterübereinstimmungsalgorithmus verwendet. Beispielsweise versuchen Feature-Extraktionsalgorithmen, einen Feature-Vektor mit großer Dimensionalität in einen Vektor mit kleinerer Dimensionalität zu reduzieren, der einfacher zu handhaben ist, und kodiert weniger Redundanz mithilfe mathematischer Techniken wie der Hauptkomponentenanalyse (PCA). Der Unterschied zwischen Feature-Auswahl und Feature-Extraktion besteht darin, dass die resultierenden Features nach der Feature-Extraktion eine andere Art als die ursprünglichen Features haben und möglicherweise nicht leicht interpretierbar sind, während die Features, die nach der Feature-Auswahl übrig bleiben, einfach eine Teilmenge der ursprünglichen Features sind.

Mustererkennung und Matching sowie damit verbundene Probleme bei der optimalen Suche spielen eine Schlüsselrolle bei der Sprachverarbeitung. In diesem Unterabschnitt untersuchen wir einige kritische Algorithmen im Zusammenhang mit diesen Aufgaben. Das Hauptziel dieses Materials ist die Einführung des versteckten Markov-Modells (HMM), einer kritischen Technologie, die als Grundlage für viele Aspekte moderner Spracherkennungssysteme dient. Das HMM kann als eine stochastische Form der weit verbreiteten (über viele Disziplinen und Anwendungen hinweg) Suchmethode als dynamische Programmierung (DP) bekannt angesehen werden. Nachdem wir einige allgemeine Probleme bei der Mustererkennung behandelt haben, beginnen wir mit dem Studium der DP-Stiftung und gehen dann zu den spezifischen DP-basierten Sprachalgorithmen über. Mustererkennung ist die automatisierte Erkennung von Mustern und Regelmäßigkeiten in Daten. Es hat Anwendungen in der statistischen Datenanalyse, Signalverarbeitung, Bildanalyse, Informationsabruf, Bioinformatik, Datenkomprimierung, Computergrafik und maschinelles Lernen.