Batch Files zur Steuerung

Mit dem Konsolen-Client können Batch-Files zur Steuerung des Analytics Storage Providers erstellt werden. Dazu werden einige Parameter zur Verfügung gestellt:

-Help / -H / -?

Gibt eine Beschreibung von allen Parametern zurück

Parameter für die Konfigurationseinstellungen:

-CreateASPConfig

Erstelle eine neue Analytics Storage Provider Einstellungs-XML

-MainTopic <mainTopic>

Analytics Storage Provider Main Topic

-Comment <comment>

Analytics Storage Provider Kommentar

-EventLogTrace <True|False>

Trace zum Ereignisprotokoll

-DebugLog <True|False>

Zusätzlicher DebugLog

-StorageType <type>

Speichertyp (ANALYTICSFILE, AZURESQL, AZUREBLOB)

-StorageConnString <connString>

Connection String oder Pfad zum Speicher

-TlsType <Tls1.0|Tls1.1|Tls1.2>

Tls Typ (für AzureBlob)

-MaxDuration <duration (sec)>

Maximale Dauer eines TAY-File

-MaxWriteLen <writeLen (bytes)>

Maximale Länge eines Datenpakets

Konfigurationsparameter:

-LocalProvider

Verwende die Verbindungseinstellungen des lokal installierten Analytics Storage Provider

-ConfigFile <path>

Verwende alle Konfigurationen aus der Konfigurationsdatei eines Analytics Storage Provider Recorder Fenster

-ProviderGuid <guid>

Provider des Analytics Storage Providers, der verwendet werden soll

-ConfigCmdID <id>

ID-Nummer der vorkonfigurierten Aufnahme in der Konfigurationsdatei

-ConfigCmdAlias <alias>

Alias von der vorkonfigurierten Aufnahme in der Konfigurationsdatei

Verbindungsparameter:

-Broker /-Host <hostname>

Hostname oder IP-Adresse des verwendeten Brokers

-Port <port>

Port des Brokers (Standardwert: 1883)

-User <username>

Username für die Verbindung

-Password / -Pwd <password>

Passwort für die Verbindung

-CA <path>

Pfad zum CA-Zertifikat für die Verbindung

-Cert <path>

Pfad zum Zertifikat für die Verbindung

-Key_Cert <path>

Pfad zur Schlüssel-Datei für die Verbindung

-Key_Pwd <password>

Passwort für die Schlüsseldatei für die Verbindung

Funktionsparameter:

-StartRecord

Sendet ein StartRecord Kommando

-StopRecord

Sendet ein StopRecord Kommando

-IsRecordingActive

Prüft, ob eine Aufnahme aktuell läuft

-GetHistorical

Sendet ein GetHistoricalData Kommando

-StopHistorical

Sendet ein StopHistoricalData Kommando

-UpdateHistorical

Sendet ein HistoricalUpdate Kommando

-CancelAllRec

Sendet ein Cancel Kommando an alle aktiven Aufnahmen

-CancelAllHist

Sendet ein Cancel Kommando an alle aktiven historischen Datenstreams

-StartPipeline

Sendet ein StartRuleEngine-Pipeline-Kommando

-StopPipeline

Sendet ein StopRuleEngine-Pipeline-Kommando

-RestartRule

Sendet ein RestartRule-Kommando

-DeleteRecordingsOlderThan

Aufnahmen löschen, deren Endzeitpunkt älter als ein vorgegebener Zeitstempel sind. Optional kann zusätzlich das Topic des historischen Streams mit angegeben werden. Es werden nur die aktiven historischen Streams berücksichtigt.

Aufnahme Start/Stopp Parameter:

-Alias <alias>

Alias Name der Aufnahme

-RecName <record>

Alias Name der Datensatzes

-Topic <topic>

Topic, das aufgenommen werden soll

-DataFormat <Bin|Json>

Datenformat des Live-Datastream

-Duration <seconds>

Dauer der Aufnahme

-Ringbuffer <None|TimeBased|DataBased>

Ringpuffermodus (Standardwert: Default)

-RinbufferPara <minutes/MB>

Parameter für den Ringpuffer (in Sekunden oder Megabyte)

-Mode <All|Subset>

Modus der Aufnahme. Nimmt alle Symbole und eine Untermenge der Symbole auf.

-Symbols / -Sym <Symbol1,Symbol2>

Liste der Symbol-Untermenge als Komma-separierte Liste.

-RecorderGuid <guid>

Guid von dem Analytics Storage Provider Recorder Fenster.

-Storage <guid>

Guid vom Storage wo hineingeschrieben werden soll.

-SubBroker <guid>

Guid vom Sub Broker von dem die Daten aufgezeichnet werden sollen.

Historische Datenstream Start/Stop Parameter:

-SystemID <systemID guid>

System-ID des aufgenommenen Datensatzes.

-Topic <topic>

Topic des aufgenommenen Datensatzes.

-Layout <layout guid>

Layout von dem aufgenommenen Datensatz.

-RecordID <id>

ID von dem Datensatz, der gestreamt werden soll.

-StartTime <time ns>

Startzeitpunkt des Datensatzes, der gestreamt werden soll in Nanosekunden.

-EndTime <time ns>

Endzeitpunkt des Datensatzes, der gestreamt werden soll in Nanosekunden.

-MaxSamples <samples>

Maximale Anzahl Samples (Standardwert: 5000)

-UsrSampleTime <ms>

Abtastrate. (Standardwert: -1; Abtastrate der Aufnahme)

-DataFormat <Bin|Json>

Datenformat des Datenstreams.

-ResultTopic <topic>

Ergebnis-MQTT-Topic, auf welches die Daten gestreamt werden.

-Mode <All|Subset>

Streaming-Modus. Streamt alle oder eine Untermenge der Symbole.

-Symbols / -Sym <Symbol1,Symbol2>

Liste der Symbol-Untermenge als Komma-separierte Liste.

Historische Datenstream Update Parameter:

-MaxSamples <samples>

Maximale Anzahl Samples (Standardwert: 5000)

-UsrSampleTime <ms>

Abtastrate. (Standardwert: -1; Abtastrate der Aufnahme)

-MaxPackSize <samples>

Maximale Nachrichtengröße in Kilobyte

-SendDuration <ms>

Wartezeit zwischen dem Senden von Nachrichten in Millisekunden.

-ResultTopic <topic>

Ergebnis-MQTT-Topic, auf welches die Daten gestreamt werden.

RuleEngine-Pipeline Parameter:

- PipelineGuid <guid>

Guid der RuleEngine-Pipeline.

- RuleID <id>

ID der Rule innerhalb einer RuleEngine-Pipeline.

Aufnahmen löschen Parameter:

- DateTimeOlderThan <datetime>

Zeitstempel im Format “yyyy-MM-dd hh:mm“.

Alle Aufnahmen, deren Endzeitpunkt älter als dieser Zeitstempel ist, werden gelöscht.

- HistoricalStreamTopic <topic>

Topic des historischen Streams (optional).

Kommandozeilen Beispiele:

Konfiguration erstellen:

TwinCAT.Analytics.StorageProvider.Client
     -CreateASPConfig
          -MainTopic Beckhoff/ASPTest
          -Comment Analytics Storage Provider (Test)
          -EventLogTrace False
          -DebugLog False
          -StorageType ANALYTICSFILE
               -StorageConnString C:\TwinCAT\Functions\TF3520-Analytics-StorageProvider\Storage
               -MaxDuration 120
               -MaxWriteLen 2048
          -Broker 172.17.62.135
               -Port 1883
               -User tcanalytics
               -Pwd 123

Aufnahme mit lokalem Analytics Storage Provider starten:

TwinCAT.Analytics.StorageProvider.Client
     -localprovider
     -startrecord
          -alias cmdTest
          -recname cmdRec1
          -topic TestSignals/TestStream
          -dataformat Bin
          -Duration 30
          -mode Subset
          -Symbols Variables.fCosine,Variables.fSine

Konfigurationsdatei einer Aufnahme starten:

TwinCAT.Analytics.StorageProvider.Client
     -ConfigFile "C:\Users\User\AppData\Roaming\Beckhoff\TwinCAT Analytics Storage Provider\TcAnalyticsStorageProvider_Recorder.xml"
     -ProviderGuid 76141a7f-e580-4281-99d8-1b8a75ca014d
     -startrecord
     -ConfigCmdAlias cmdTest

Aufnahmestatus prüfen

TwinCAT.Analytics.StorageProvider.Client
     -Broker 172.17.62.135
          -Port 1883
          -User tcanalytics
          -Pwd 123
     -ProviderGuid 76141a7f-e580-4281-99d8-1b8a75ca014d
     -IsRecordingActive
          -alias cmdTest
          -recorderGuid a8e171d2-712d-bd8e-da15-7eef28b71ad2

Alle Aufnahmen stoppen:

TwinCAT.Analytics.StorageProvider.Client
     -Broker 172.17.62.135
          -Port 1883
          -User tcanalytics
          -Pwd 123
     -ProviderGuid 76141a7f-e580-4281-99d8-1b8a75ca014d
     -CancelAllRec

Historischen Datenstream starten:

TwinCAT.Analytics.StorageProvider.Client
     -localprovider
     -GetHistorical
          -systemID c29ac2d4-76ce-ff44-4d7f-355ffbcca6bf
          -layout 9a8e171d-712d-bd8e-da15-7eef28b71ad2
          -topic TestSignals/TestStream
          -recordID 1
          -startTime 132696863612730000
          -endTime 132696864177720000
          -maxSamples 5000
          -usrSampleTime -1
          -resultTopic _TestSignals/TestStream/123
          -dataformat Bin
          -mode Subset -symbols Variables.fSine

RuleEngine-Pipeline starten:

TwinCAT.Analytics.StorageProvider.Client
     -localprovider
     -StartPipeline
          -PipelineGuid d00c5366-4cf5-4d4e-a2f6-9dbe759e9dd2

RuleEngine-Pipeline stoppen:

TwinCAT.Analytics.StorageProvider.Client
     -localprovider
     -StopPipeline
          -PipelineGuid d00c5366-4cf5-4d4e-a2f6-9dbe759e9dd2

Spezielle Rule einer RuleEngine-Pipeline starten:

TwinCAT.Analytics.StorageProvider.Client
     -localprovider
     -RestartRule
          -PipelineGuid d00c5366-4cf5-4d4e-a2f6-9dbe759e9dd2
          -RuleID 2

Alte Aufnahmen löschen:

TwinCAT.Analytics.StorageProvider.Client
     -localprovider
     -DeleteRecordingsOlderThan
          -DateTimeOlderThan yyyy-MM-dd 00:00
          - HistoricalStreamTopic Beckhoff /TcAnalyticsStorageProvider/41cfa2be-ca72-4145-9e37-875851502aa6/Historical/Stream_65