PredictBatched()

Die Methode PredictBatched reicht einen asynchronen Batch-Inferenzauftrag beim TcMlServer ein.

Die Method erwartet die Bereitstellung eines Arrays von dem Input-Datentyp des Modelles gemäß der Spezifikation der ONNX-Datei, siehe ONNX für die Verwendung mit TwinCAT Machine Learning Server vorbereiten.

Der bereitgestellte Pointer auf die Outputdaten muss valide sein und auf eine Instanz eines Arrays von Output-Datentypen gemäß der erstellten PlcOpenXml zeigen. Nach erfolgreichem Abschluss der asynchronen Inferenz sind die Daten im übergeben Output-Speicherbereiches gültig und zur Weiterverarbeitung freigegeben.

Siehe auch KI-Modell ausführen.

 

Parameter

Typ

Default

Beschreibung

INPUT

pDataIn

PVOID

 

Pointer auf die Instanz eines Arrays der Eingangsdatentypen

INPUT

nDataInSize

UDINT

0

Größe des Eingangsdatentypen (Größe eines Elements, nicht des Arrays)

INPUT

nBatchSize

UINT

 

Größe des Batch

INPUT

pDataOut

PVOID

 

Pointer auf die Instanz eines Ausgangsdatentypen

INPUT

pDataOutSize

UDINT

 

Größe des Ausgangsdatentypen

INPUT

nTimeout

ULINT

 

Anzahl der SPS-Task-Zyklen, bevor der Zeitüberschreitungsfehler zurückgegeben wird.

INPUT

nPriority

UDINT

0

Priorität der Anfrage. Größer bedeutet höhere Priorität.

OUTPUT

PredictBatched

BOOL

 

Rückgabewert. TRUE, sobald das Ergebnis des asynchronen Aufrufs vorliegt. Das Ergebnis des Aufrufs kann dann mit den Properties 'bError' und 'nErrorCode' überprüft werden.