Batch Files zur Steuerung
Mit dem Konsolen-Client können Batch-Files zur Steuerung des Analytics Storage Providers erstellt werden. Dazu werden einige Parameter zur Verfügung gestellt:
-Help / -H / -? | Gibt eine Beschreibung von allen Parametern zurück |
Parameter für die Konfigurationseinstellungen:
-CreateASPConfig | Erstelle eine neue Analytics Storage Provider Einstellungs-XML |
-MainTopic <mainTopic> | Analytics Storage Provider Main Topic |
-Comment <comment> | Analytics Storage Provider Kommentar |
-EventLogTrace <True|False> | Trace zum Ereignisprotokoll |
-DebugLog <True|False> | Zusätzlicher DebugLog |
-StorageType <type> | Speichertyp (ANALYTICSFILE, AZURESQL, AZUREBLOB) |
-StorageConnString <connString> | Connection String oder Pfad zum Speicher |
-TlsType <Tls1.0|Tls1.1|Tls1.2> | Tls Typ (für AzureBlob) |
-MaxDuration <duration (sec)> | Maximale Dauer eines TAY-File |
-MaxWriteLen <writeLen (bytes)> | Maximale Länge eines Datenpakets |
Konfigurationsparameter:
-LocalProvider | Verwende die Verbindungseinstellungen des lokal installierten Analytics Storage Provider |
-ConfigFile <path> | Verwende alle Konfigurationen aus der Konfigurationsdatei eines Analytics Storage Provider Recorder Fenster |
-ProviderGuid <guid> | Provider des Analytics Storage Providers, der verwendet werden soll |
-ConfigCmdID <id> | ID-Nummer der vorkonfigurierten Aufnahme in der Konfigurationsdatei |
-ConfigCmdAlias <alias> | Alias von der vorkonfigurierten Aufnahme in der Konfigurationsdatei |
Verbindungsparameter:
-Broker /-Host <hostname> | Hostname oder IP-Adresse des verwendeten Brokers |
-Port <port> | Port des Brokers (Standardwert: 1883) |
-User <username> | Username für die Verbindung |
-Password / -Pwd <password> | Passwort für die Verbindung |
-CA <path> | Pfad zum CA-Zertifikat für die Verbindung |
-Cert <path> | Pfad zum Zertifikat für die Verbindung |
-Key_Cert <path> | Pfad zur Schlüssel-Datei für die Verbindung |
-Key_Pwd <password> | Passwort für die Schlüsseldatei für die Verbindung |
Funktionsparameter:
-StartRecord | Sendet ein StartRecord Kommando |
-StopRecord | Sendet ein StopRecord Kommando |
-IsRecordingActive | Prüft, ob eine Aufnahme aktuell läuft |
-GetHistorical | Sendet ein GetHistoricalData Kommando |
-StopHistorical | Sendet ein StopHistoricalData Kommando |
-UpdateHistorical | Sendet ein HistoricalUpdate Kommando |
-CancelAllRec | Sendet ein Cancel Kommando an alle aktiven Aufnahmen |
-CancelAllHist | Sendet ein Cancel Kommando an alle aktiven historischen Datenstreams |
-StartPipeline | Sendet ein StartRuleEngine-Pipeline-Kommando |
-StopPipeline | Sendet ein StopRuleEngine-Pipeline-Kommando |
-RestartRule | Sendet ein RestartRule-Kommando |
-DeleteRecordingsOlderThan | Aufnahmen löschen, deren Endzeitpunkt älter als ein vorgegebener Zeitstempel sind. Optional kann zusätzlich das Topic des historischen Streams mit angegeben werden. Es werden nur die aktiven historischen Streams berücksichtigt. |
Aufnahme Start/Stopp Parameter:
-Alias <alias> | Alias Name der Aufnahme |
-RecName <record> | Alias Name der Datensatzes |
-Topic <topic> | Topic, das aufgenommen werden soll |
-DataFormat <Bin|Json> | Datenformat des Live-Datastream |
-Duration <seconds> | Dauer der Aufnahme |
-Ringbuffer <None|TimeBased|DataBased> | Ringpuffermodus (Standardwert: Default) |
-RinbufferPara <minutes/MB> | Parameter für den Ringpuffer (in Sekunden oder Megabyte) |
-Mode <All|Subset> | Modus der Aufnahme. Nimmt alle Symbole und eine Untermenge der Symbole auf. |
-Symbols / -Sym <Symbol1,Symbol2> | Liste der Symbol-Untermenge als Komma-separierte Liste. |
-RecorderGuid <guid> | Guid von dem Analytics Storage Provider Recorder Fenster. |
-Storage <guid> | Guid vom Storage wo hineingeschrieben werden soll. |
-SubBroker <guid> | Guid vom Sub Broker von dem die Daten aufgezeichnet werden sollen. |
Historische Datenstream Start/Stop Parameter:
-SystemID <systemID guid> | System-ID des aufgenommenen Datensatzes. |
-Topic <topic> | Topic des aufgenommenen Datensatzes. |
-Layout <layout guid> | Layout von dem aufgenommenen Datensatz. |
-RecordID <id> | ID von dem Datensatz, der gestreamt werden soll. |
-StartTime <time ns> | Startzeitpunkt des Datensatzes, der gestreamt werden soll in Nanosekunden. |
-EndTime <time ns> | Endzeitpunkt des Datensatzes, der gestreamt werden soll in Nanosekunden. |
-MaxSamples <samples> | Maximale Anzahl Samples (Standardwert: 5000) |
-UsrSampleTime <ms> | Abtastrate. (Standardwert: -1; Abtastrate der Aufnahme) |
-DataFormat <Bin|Json> | Datenformat des Datenstreams. |
-ResultTopic <topic> | Ergebnis-MQTT-Topic, auf welches die Daten gestreamt werden. |
-Mode <All|Subset> | Streaming-Modus. Streamt alle oder eine Untermenge der Symbole. |
-Symbols / -Sym <Symbol1,Symbol2> | Liste der Symbol-Untermenge als Komma-separierte Liste. |
Historische Datenstream Update Parameter:
-MaxSamples <samples> | Maximale Anzahl Samples (Standardwert: 5000) |
-UsrSampleTime <ms> | Abtastrate. (Standardwert: -1; Abtastrate der Aufnahme) |
-MaxPackSize <samples> | Maximale Nachrichtengröße in Kilobyte |
-SendDuration <ms> | Wartezeit zwischen dem Senden von Nachrichten in Millisekunden. |
-ResultTopic <topic> | Ergebnis-MQTT-Topic, auf welches die Daten gestreamt werden. |
RuleEngine-Pipeline Parameter:
- PipelineGuid <guid> | Guid der RuleEngine-Pipeline. |
- RuleID <id> | ID der Rule innerhalb einer RuleEngine-Pipeline. |
Aufnahmen löschen Parameter:
- DateTimeOlderThan <datetime> | Zeitstempel im Format “yyyy-MM-dd hh:mm“. Alle Aufnahmen, deren Endzeitpunkt älter als dieser Zeitstempel ist, werden gelöscht. |
- HistoricalStreamTopic <topic> | Topic des historischen Streams (optional). |
Kommandozeilen Beispiele:
Konfiguration erstellen:
TwinCAT.Analytics.StorageProvider.Client
-CreateASPConfig
-MainTopic Beckhoff/ASPTest
-Comment Analytics Storage Provider (Test)
-EventLogTrace False
-DebugLog False
-StorageType ANALYTICSFILE
-StorageConnString C:\TwinCAT\Functions\TF3520-Analytics-StorageProvider\Storage
-MaxDuration 120
-MaxWriteLen 2048
-Broker 172.17.62.135
-Port 1883
-User tcanalytics
-Pwd 123
Aufnahme mit lokalem Analytics Storage Provider starten:
TwinCAT.Analytics.StorageProvider.Client
-localprovider
-startrecord
-alias cmdTest
-recname cmdRec1
-topic TestSignals/TestStream
-dataformat Bin
-Duration 30
-mode Subset
-Symbols Variables.fCosine,Variables.fSine
Konfigurationsdatei einer Aufnahme starten:
TwinCAT.Analytics.StorageProvider.Client
-ConfigFile "C:\Users\User\AppData\Roaming\Beckhoff\TwinCAT Analytics Storage Provider\TcAnalyticsStorageProvider_Recorder.xml"
-ProviderGuid 76141a7f-e580-4281-99d8-1b8a75ca014d
-startrecord
-ConfigCmdAlias cmdTest
Aufnahmestatus prüfen
TwinCAT.Analytics.StorageProvider.Client
-Broker 172.17.62.135
-Port 1883
-User tcanalytics
-Pwd 123
-ProviderGuid 76141a7f-e580-4281-99d8-1b8a75ca014d
-IsRecordingActive
-alias cmdTest
-recorderGuid a8e171d2-712d-bd8e-da15-7eef28b71ad2
Alle Aufnahmen stoppen:
TwinCAT.Analytics.StorageProvider.Client
-Broker 172.17.62.135
-Port 1883
-User tcanalytics
-Pwd 123
-ProviderGuid 76141a7f-e580-4281-99d8-1b8a75ca014d
-CancelAllRec
Historischen Datenstream starten:
TwinCAT.Analytics.StorageProvider.Client
-localprovider
-GetHistorical
-systemID c29ac2d4-76ce-ff44-4d7f-355ffbcca6bf
-layout 9a8e171d-712d-bd8e-da15-7eef28b71ad2
-topic TestSignals/TestStream
-recordID 1
-startTime 132696863612730000
-endTime 132696864177720000
-maxSamples 5000
-usrSampleTime -1
-resultTopic _TestSignals/TestStream/123
-dataformat Bin
-mode Subset -symbols Variables.fSine
RuleEngine-Pipeline starten:
TwinCAT.Analytics.StorageProvider.Client
-localprovider
-StartPipeline
-PipelineGuid d00c5366-4cf5-4d4e-a2f6-9dbe759e9dd2
RuleEngine-Pipeline stoppen:
TwinCAT.Analytics.StorageProvider.Client
-localprovider
-StopPipeline
-PipelineGuid d00c5366-4cf5-4d4e-a2f6-9dbe759e9dd2
Spezielle Rule einer RuleEngine-Pipeline starten:
TwinCAT.Analytics.StorageProvider.Client
-localprovider
-RestartRule
-PipelineGuid d00c5366-4cf5-4d4e-a2f6-9dbe759e9dd2
-RuleID 2
Alte Aufnahmen löschen:
TwinCAT.Analytics.StorageProvider.Client
-localprovider
-DeleteRecordingsOlderThan
-DateTimeOlderThan yyyy-MM-dd 00:00
- HistoricalStreamTopic Beckhoff /TcAnalyticsStorageProvider/41cfa2be-ca72-4145-9e37-875851502aa6/Historical/Stream_65