Batch Files zur Steuerung
Mit dem Konsolen-Client können Batch-Files zur Steuerung des Analytics Storage Providers erstellt werden. Dazu werden einige Parameter zur Verfügung gestellt:
-Help / -H / -? | Gibt eine Beschreibung von allen Parametern zurück. |
Parameter für die Konfigurationseinstellungen:
-CreateASPConfig | Erstelle eine neue Analytics Storage Provider Einstellungs-XML. |
-MainTopic <mainTopic> | Analytics Storage Provider Main Topic. |
-Comment <comment> | Analytics Storage Provider Kommentar. |
-EventLogTrace <True|False> | Trace zum Ereignisprotokoll. |
-DebugLog <True|False> | Zusätzlicher DebugLog. |
-StorageType <type> | Speichertyp (ANALYTICSFILE, AZURESQL, AZUREBLOB). |
-StorageConnString <connString> | Connection String oder Pfad zum Speicher. |
-TlsType <Tls1.0|Tls1.1|Tls1.2> | Tls Typ (für AzureBlob). |
-MaxDuration <duration (sec)> | Maximale Dauer eines TAY-File. |
-MaxWriteLen <writeLen (bytes)> | Maximale Länge eines Datenpakets. |
Konfigurationsparameter:
-LocalProvider | Verwende die Verbindungseinstellungen des lokal installierten Analytics Storage Provider. |
-ConfigFile <path> | Verwende alle Konfigurationen aus der Konfigurationsdatei eines Analytics Storage Provider Recorder Fenster. |
-ProviderGuid <guid> | Provider des Analytics Storage Providers, der verwendet werden soll. |
-ConfigCmdID <id> | ID-Nummer der vorkonfigurierten Aufnahme in der Konfigurationsdatei. |
-ConfigCmdAlias <alias> | Alias von der vorkonfigurierten Aufnahme in der Konfigurationsdatei. |
Verbindungsparameter:
-Broker /-Host <hostname> | Hostname oder IP-Adresse des verwendeten Brokers. |
-Port <port> | Port des Brokers (Standardwert: 1883). |
-User <username> | Username für die Verbindung. |
-Password / -Pwd <password> | Passwort für die Verbindung. |
-CA <path> | Pfad zum CA-Zertifikat für die Verbindung. |
-Cert <path> | Pfad zum Zertifikat für die Verbindung. |
-Key_Cert <path> | Pfad zur Schlüssel-Datei für die Verbindung. |
-Key_Pwd <password> | Passwort für die Schlüsseldatei für die Verbindung. |
Funktionsparameter:
-StartRecord | Sendet ein StartRecord Kommando. |
-StopRecord | Sendet ein StopRecord Kommando. |
-IsRecordingActive | Prüft, ob eine Aufnahme aktuell läuft. |
-GetHistorical | Sendet ein GetHistoricalData Kommando. |
-StopHistorical | Sendet ein StopHistoricalData Kommando. |
-UpdateHistorical | Sendet ein HistoricalUpdate Kommando. |
-CancelAllRec | Sendet ein Cancel Kommando an alle aktiven Aufnahmen. |
-CancelAllHist | Sendet ein Cancel Kommando an alle aktiven historischen Datenstreams. |
-StartPipeline | Sendet ein StartRuleEngine-Pipeline-Kommando. |
-StopPipeline | Sendet ein StopRuleEngine-Pipeline-Kommando. |
-RestartRule | Sendet ein RestartRule-Kommando. |
-DeleteRecordingsOlderThan | Aufnahmen löschen, deren Endzeitpunkt älter als ein vorgegebener Zeitstempel sind. Optional kann zusätzlich das Topic des historischen Streams mit angegeben werden. Es werden nur die aktiven historischen Streams berücksichtigt. |
Aufnahme Start/Stopp Parameter:
-Alias <alias> | Alias Name der Aufnahme. |
-RecName <record> | Alias Name der Datensatzes. |
-Topic <topic> | Topic, das aufgenommen werden soll. |
-DataFormat <Bin|Json> | Datenformat des Live-Datastream. |
-Duration <seconds> | Dauer der Aufnahme . |
-Ringbuffer <None|TimeBased|DataBased> | Ringpuffermodus (Standardwert: Default). |
-RinbufferPara <minutes/MB> | Parameter für den Ringpuffer (in Sekunden oder Megabyte). |
-Mode <All|Subset> | Modus der Aufnahme. Nimmt alle Symbole und eine Untermenge der Symbole auf. |
-Symbols / -Sym <Symbol1,Symbol2> | Liste der Symbol-Untermenge als Komma-separierte Liste. |
-RecorderGuid <guid> | Guid von dem Analytics Storage Provider Recorder Fenster. |
-Storage <guid> | Guid vom Storage wo hineingeschrieben werden soll. |
-SubBroker <guid> | Guid vom Sub Broker von dem die Daten aufgezeichnet werden sollen. |
Historische Datenstream Start/Stop Parameter:
-SystemID <systemID guid> | System-ID des aufgenommenen Datensatzes. |
-Topic <topic> | Topic des aufgenommenen Datensatzes. |
-Layout <layout guid> | Layout von dem aufgenommenen Datensatz. |
-RecordID <id> | ID von dem Datensatz, der gestreamt werden soll. |
-StartTime <time ns> | Startzeitpunkt des Datensatzes, der gestreamt werden soll in Nanosekunden. |
-EndTime <time ns> | Endzeitpunkt des Datensatzes, der gestreamt werden soll in Nanosekunden. |
-MaxSamples <samples> | Maximale Anzahl Samples (Standardwert: 5000) |
-UsrSampleTime <ms> | Abtastrate. (Standardwert: -1; Abtastrate der Aufnahme) |
-DataFormat <Bin|Json> | Datenformat des Datenstreams. |
-ResultTopic <topic> | Ergebnis-MQTT-Topic, auf welches die Daten gestreamt werden. |
-Mode <All|Subset> | Streaming-Modus. Streamt alle oder eine Untermenge der Symbole. |
-Symbols / -Sym <Symbol1,Symbol2> | Liste der Symbol-Untermenge als Komma-separierte Liste. |
Historische Datenstream Update Parameter:
-MaxSamples <samples> | Maximale Anzahl Samples (Standardwert: 5000) |
-UsrSampleTime <ms> | Abtastrate. (Standardwert: -1; Abtastrate der Aufnahme) |
-MaxPackSize <samples> | Maximale Nachrichtengröße in Kilobyte |
-SendDuration <ms> | Wartezeit zwischen dem Senden von Nachrichten in Millisekunden. |
-ResultTopic <topic> | Ergebnis-MQTT-Topic, auf welches die Daten gestreamt werden. |
RuleEngine-Pipeline Parameter:
- PipelineGuid <guid> | Guid der RuleEngine-Pipeline. |
- RuleID <id> | ID der Rule innerhalb einer RuleEngine-Pipeline. |
Aufnahmen löschen Parameter:
- DateTimeOlderThan <datetime> | Zeitstempel im Format “yyyy-MM-dd hh:mm“. Alle Aufnahmen, deren Endzeitpunkt älter als dieser Zeitstempel ist, werden gelöscht. |
- HistoricalStreamTopic <topic> | Topic des historischen Streams (optional). |
Data Import Parameter:
-SourcePath <Path> | Pfad zum Ordner mit den zu importierenden Dateien. |
-StorageType <StorageType> | Auswahl des Storage-Types: AnalyticsFile Apache_IoTDB AzureBlob CSVFile InfluxDB_Plain MsSQL MsSQL_Plain PostgreSQL |
-Storage <StorageGuid> | Guid des Storage. |
-CopyData <true|false> | Kopieren oder verschieben der Daten. |
-Topic <string> | Topic-Name der zu importierenden Daten. |
-Alias <string> | Alias-Name der zu importierenden Daten. |
-RecName <string> | Record-Name der zu importierenden Daten |
-SystemID <Guid> | System ID der zu importierenden Daten. |
-SysIDAlias <string> | System-Alias der zu importierenden Daten. |
-Address <string> | Adresse der zu importierenden Daten. |
-Latitude <double> | Latitude der zu importierenden Daten. |
-Longitude <double> | Longitude der zu importierenden Daten. |
Kommandozeilen Beispiele:
Konfiguration erstellen:
TwinCAT.Analytics.StorageProvider.Client
-CreateASPConfig
-MainTopic Beckhoff/ASPTest
-Comment Analytics Storage Provider (Test)
-EventLogTrace False
-DebugLog False
-StorageType ANALYTICSFILE
-StorageConnString C:\TwinCAT\Functions\TF3520-Analytics-StorageProvider\Storage
-MaxDuration 120
-MaxWriteLen 2048
-Broker 172.17.62.135
-Port 1883
-User tcanalytics
-Pwd 123
Aufnahme mit lokalem Analytics Storage Provider starten:
TwinCAT.Analytics.StorageProvider.Client
-localprovider
-startrecord
-alias cmdTest
-recname cmdRec1
-topic TestSignals/TestStream
-dataformat Bin
-Duration 30
-mode Subset
-Symbols Variables.fCosine,Variables.fSine
Konfigurationsdatei einer Aufnahme starten:
TwinCAT.Analytics.StorageProvider.Client
-ConfigFile "C:\Users\User\AppData\Roaming\Beckhoff\TwinCAT Analytics Storage Provider\TcAnalyticsStorageProvider_Recorder.xml"
-ProviderGuid 76141a7f-e580-4281-99d8-1b8a75ca014d
-startrecord
-ConfigCmdAlias cmdTest
Aufnahmestatus prüfen
TwinCAT.Analytics.StorageProvider.Client
-Broker 172.17.62.135
-Port 1883
-User tcanalytics
-Pwd 123
-ProviderGuid 76141a7f-e580-4281-99d8-1b8a75ca014d
-IsRecordingActive
-alias cmdTest
-recorderGuid a8e171d2-712d-bd8e-da15-7eef28b71ad2
Alle Aufnahmen stoppen:
TwinCAT.Analytics.StorageProvider.Client
-Broker 172.17.62.135
-Port 1883
-User tcanalytics
-Pwd 123
-ProviderGuid 76141a7f-e580-4281-99d8-1b8a75ca014d
-CancelAllRec
Historischen Datenstream starten:
TwinCAT.Analytics.StorageProvider.Client
-localprovider
-GetHistorical
-systemID c29ac2d4-76ce-ff44-4d7f-355ffbcca6bf
-layout 9a8e171d-712d-bd8e-da15-7eef28b71ad2
-topic TestSignals/TestStream
-recordID 1
-startTime 132696863612730000
-endTime 132696864177720000
-maxSamples 5000
-usrSampleTime -1
-resultTopic _TestSignals/TestStream/123
-dataformat Bin
-mode Subset -symbols Variables.fSineRuleEngine-Pipeline starten:
TwinCAT.Analytics.StorageProvider.Client
-localprovider
-StartPipeline
-PipelineGuid d00c5366-4cf5-4d4e-a2f6-9dbe759e9dd2
RuleEngine-Pipeline stoppen:
TwinCAT.Analytics.StorageProvider.Client
-localprovider
-StopPipeline
-PipelineGuid d00c5366-4cf5-4d4e-a2f6-9dbe759e9dd2Spezielle Rule einer RuleEngine-Pipeline starten:
TwinCAT.Analytics.StorageProvider.Client
-localprovider
-RestartRule
-PipelineGuid d00c5366-4cf5-4d4e-a2f6-9dbe759e9dd2
-RuleID 2Alte Aufnahmen löschen:
TwinCAT.Analytics.StorageProvider.Client
-localprovider
-DeleteRecordingsOlderThan
-DateTimeOlderThan yyyy-MM-dd 00:00
- HistoricalStreamTopic Beckhoff /TcAnalyticsStorageProvider/41cfa2be-ca72-4145-9e37-875851502aa6/Historical/Stream_65Importieren von Daten
TwinCAT.Analytics.StorageProvider.Client
-DataImport
-SourcePath C:\\temp\\ED6A9F45-04D7-2D3A-7834-D3D1CF5EB21D
-StorageType CSVFile
-Storage e5a61c3d-dd98-40fc-a63f-4c41f6f19729
-CopyData true
-Topic AnalyticsStorageProvider/UnknownAnalyticsFile
-Alias Unknown
-RecName Record
-SystemID 53fae9bf-03fa-48ac-81e7-74f042eec6c2
-SysIDAlias Unknown AnalyticsFile
-Address TestAddress
-Latitude 1.0
-Longitude 5.0