Random Forest
Ein Random Forest kann sowohl zur Klassifikation als auch zur Regression eingesetzt werden. Der Algorithmus gehört zu den Ensemblemethoden, da eine vom Nutzer definierte Anzahl von unkorrelierten Entscheidungsbäumen aufgebaut und trainiert wird. Die Vorhersage des Ensembles ergibt sich beim Random Forest aus der gemittelten Vorhersage der einzelnen Bäume.
Ein Random Forest hat gegenüber einzelner Entscheidungsbäume oft eine bessere Accuracy, zu dem Preis, dass der Random Forest keine Transparenz bezüglich der getroffenen Vorhersagen zeigt.
Gegenüber einer SVM ist ein Random Forest gerade für hochdimensionale Daten bzgl. der Rechenzeit performanter.
Unterstützte Eigenschaften
ONNX-Support
- TreeEnsambleClassifier
- TreeEnsambleRegressor
Beispiele für den Export von Random Forest Modellen finden Sie hier: ONNX-Export eines Random Forest
Einschränkung bei Klassifikation Bei Klassifikationsmodellen wird nur der Ausgang der Labels in der SPS abgebildet. Die Scores/Probabilities sind in der SPS nicht verfügbar. |
Unterstützte Datentypen
Es ist zu unterscheiden zwischen „supported datatype“ und „preferred datatype“. Der preferred datatype entspricht der Präzision der Ausführungs-Engine.
Der preferred datatype ist floating point 64 (E_MLLDT_FP64-LREAL).
Bei Verwendung eines supported datatype wird eine effiziente Typ-Konvertierung automatisch in der Bibliothek durchgeführt. Durch die Typ-Konvertierung kann es zu minimalen Performance-Einbußen kommen.
Eine Liste der supported datatypes finden Sie unter ETcMllDataType.