Gradient Boosting
Ein Gradient Boosting Modell kann sowohl zur Klassifikation als auch zur Regression eingesetzt werden. Das Modell gehört, wie z.B. der Random Forest, zu den Ensemble Tree Methoden. Gegenüber einem einzelnen Decision Tree kann mit dem Gradient Boosting Modell die Accuracy der Prädiktion verbessert werden, zum Preis, dass das Modell nicht mehr einfach erklärbar ist. Random Forest und Gradient Boosting unterscheiden sich durch die Art wie die einzelnen Trees erzeugt werden.
Unterstützte Eigenschaften
ONNX-Support
- TreeEnsambleClassifier
- TreeEnsambleRegressor
Beispiele für den Export von Gradient Boosting Modellen finden Sie hier: ONNX-Export von Gradient Boosting.
Einschränkung bei Klassifikation Bei Klassifikationsmodellen wird nur der Ausgang der Labels in der SPS abgebildet. Die Scores/Probabilities sind in der SPS nicht verfügbar. |
Unterstützte Datentypen
Es ist zu unterscheiden zwischen „supported datatype“ und „preferred datatype“. Der preferred datatype entspricht der Präzision der Ausführungs-Engine.
Der preferred datatype ist floating point 64 (E_MLLDT_FP64-LREAL).
Bei Verwendung eines supported datatype wird eine effiziente Typ-Konvertierung automatisch in der Bibliothek durchgeführt. Durch die Typ-Konvertierung kann es zu minimalen Performance-Einbußen kommen.
Eine Liste der supported datatypes finden Sie unter ETcMllDataType.