Dies sind die wichtigsten Algorithmen für Machine Learning in Python oder Infor Coleman AI
- XGBoost
- Linear Learner
- Random Forest
- Decision Tree
- Extra Trees
- Multi Perceptron
- K-Means
XGBoost
Verwenden Sie diesen Boosted-Tree-Algorithmus, einen Baumalgorithmus mit Gradient Boosting, um eine genaue Vorhersage einer Zielvariablen bereitzustellen, indem Sie die Schätzung einer Reihe einfacherer, schwächerer Modelle kombinieren. Darüber hinaus wird ein Gradientenabstiegsalgorithmus verwendet, um den Verlust beim Hinzufügen neuer Modelle zu minimieren.
XGBoost minimiert eine regulierte Zielfunktion, die eine konvexe Verlustfunktion basierend auf der Differenz zwischen den vorhergesagten und den Zielausgaben und einem Strafbegriff für die Modellkomplexität kombiniert. Dies wird auch als Regressionsbaumfunktion bezeichnet.
Linear Learner
Verwenden Sie den Algorithmus für linear Learner, um eine große Anzahl von Modellen zu untersuchen und das beste Modell auszuwählen, das entweder kontinuierliche Ziele wie den mittleren quadratischen Fehler, den Verlust der Kreuzentropie, den absoluten Fehler, oder diskrete Ziele, die für die Klassifizierung geeignet sind, wie z. B. F1-Messung, Präzision und Rückruf.
Im Vergleich zu Lösungen, die nur eine Lösung für kontinuierliche Ziele bieten, bietet die Implementierung eine signifikante Geschwindigkeitssteigerung gegenüber naiven Techniken zur Optimierung von Hyperparametern.
Random Forest
Verwenden Sie den Random Forest-Algorithmus, um mehrere Entscheidungsbäume zu erstellen und zu kombinieren, um eine genauere Vorhersage zu erhalten. Im Gegensatz zum Entscheidungsbaumalgorithmus wählt der Random Forest-Algorithmus Beobachtungen und Merkmale zufällig aus und erstellt mehrere Entscheidungsbäume, bevor die Ergebnisse gepostet werden.
Decision Tree
Verwenden Sie den Entscheidungsbaum-Algorithmus, um den Datensatz kontinuierlich nach einem bestimmten Parameter aufzuteilen und einen Entscheidungsbaum zu bilden. Der Baum hat zwei Hauptentitäten: Entscheidungsknoten und Blätter. Die Blätter sind die Ergebnisse, und die Entscheidungsknoten sind die Punkte, an denen die Daten aufgeteilt werden.
Extra Trees
Der Algorithmus für zusätzliche Bäume implementiert einen Schätzer, der viele zufällige Entscheidungsbäume, auch zusätzliche Bäume genannt, in verschiedene Teilstichproben des Datensatzes einfügt. Dieser Algorithmus verwendet die Mittelwertbildung, um die Vorhersagegenauigkeit zu verbessern und die Überanpassung zu steuern.
Multi Perceptron
Auch als MLP (Multilayer Perceptron) bekannt, steht im Zusammenhang mit der Entwicklung von „künstlichen neuronalen Netzen“, bei denen Rechenstrukturen die Grundlage für das Design eines menschlichen Gehirns bilden.
Der Perceptron-Algorithmus kategorisiert Muster und Gruppen, indem er die lineare Trennung zwischen verschiedenen Objekten und Mustern ermittelt, die durch numerische oder visuelle Eingabe empfangen werden.
In Perceptron nimmt der Algorithmus eine Reihe von Eingaben und gibt eine Reihe von Ausgaben zurück. Diagramme werden normalerweise verwendet, um diese für Benutzer darzustellen. In vielen Betriebssystemsprachen kann ein Perceptron-Algorithmus die Form einer “for” – oder einer “while” -Schleife annehmen, in der jede Eingabe verarbeitet wird, um eine Ausgabe zu generieren. Die Ergebnisse zeigen, wie fortgeschritten diese Arten von Algorithmen aus Daten lernen können.
K-Means
Als eine der beliebtesten unbeaufsichtigten Techniken des Machine Learning wird k-means für unbeschriftete numerische Daten (oder Daten, die nicht definiert sind) verwendet. Aufgrund seiner Simplizität hilft es Datenwissenschaftlern, wenn sie nicht über den am besten geordneten Datensatz verfügen.
Das k-Mittel ordnet Datenpunkte Kategorien oder Clustern zu, indem der mittlere Abstand zwischen Datenpunkten ermittelt wird.
Anschließend wird diese Technik durchlaufen, um im Laufe der Zeit genauere Klassifizierungen zu erzielen. Sobald wir unsere Daten zunächst in k Kategorien einteilen müssen, müssen wir unsere Daten gut verstehen, um dies zu tun.
Lesen Sie mehr in unserem Machine Learning Grundlagen Blog