Dieser Node überwacht alle KNX-Telegramme des ausgewählten KNX-Ultimate-Gateways, erstellt Verkehrsstatistiken, erkennt Anomalien und kann optional ein LLM befragen.
Ausgänge
- Zusammenfassung/Statistik (
msg.payloadJSON) - Anomalien (
msg.payloadJSON) - KI-Assistent (
msg.payloadText, mitmsg.summary)
Befehle (Eingang)
Sende msg.topic:
summary(oder leer): Summary sofort sendenreset: internen Verlauf/Zähler zurücksetzenask: Frage an das konfigurierte LLM senden
Für ask die Frage in msg.prompt (empfohlen) oder msg.payload (String) übergeben.
Konfigurationsfelder
Hier sind alle Felder aufgeführt, wie sie im KNX-AI-Editor sichtbar sind.
Allgemein
- Gateway: KNX-Ultimate Gateway/Config-Node als Telegrammquelle.
- Name: Node-Name und Dashboard-Titel.
- Topic: Basis-Topic der Node-Ausgänge.
- Button Open KNX AI Web: Öffnet das Web-Dashboard (
/knxUltimateAI/sidebar/page).
Capture
- Capture GroupValue_Write: Erfasst Write-Telegramme.
- Capture GroupValue_Response: Erfasst Response-Telegramme.
- Capture GroupValue_Read: Erfasst Read-Telegramme.
Analysis
- Analysis window (seconds): Hauptfenster für Summary/Rate-Berechnung.
- History window (seconds): Aufbewahrungsfenster der internen Telegramm-Historie.
- Max stored events: Maximale Anzahl Telegramme im Speicher.
- Auto emit summary (seconds, 0=off): Periodisches Summary-Intervall.
- Top list size: Anzahl Top-Gruppenadressen/Quellen in der Summary.
- Detect simple patterns (A -> B): Aktiviert Übergangs-/Pattern-Erkennung.
- Pattern max lag (ms): Maximaler Zeitabstand für Pattern-Korrelation.
- Pattern min occurrences: Mindestanzahl, bevor ein Pattern gemeldet wird.
Anomalies
- Rate window (seconds): Gleitendes Zeitfenster für Rate-Prüfungen.
- Max overall telegrams/sec (0=off): Schwellwert für gesamten Bus.
- Max telegrams/sec per GA (0=off): Schwellwert pro Gruppenadresse.
- Flap window (seconds): Zeitfenster für Flapping-/Wechselraten-Erkennung.
- Max changes per GA in window (0=off): Maximal erlaubte Änderungen im Fenster.
LLM Assistant
- Enable LLM assistant: Aktiviert Ask/Chat-Funktionen.
- Provider: LLM-Backend (OpenAI-compatible oder Ollama).
- Endpoint URL: URL des Chat/Completions-Endpunkts.
- API key: API-Schlüssel (für lokales Ollama nicht erforderlich).
- Model: Modell-ID/Name.
- System prompt: Globale Instruktion für KNX-Analyse.
- Temperature: Sampling-Temperatur.
- Max tokens: Maximalzahl Completion-Tokens.
- Timeout (ms): HTTP-Timeout für LLM-Anfragen.
- Recent events included: Max. Anzahl aktueller Events im Prompt.
- Include raw payload hex: Rohe Hex-Payload im Prompt einfügen.
- Include Node-RED KNX node inventory: Flow-Inventar im Prompt einfügen.
- Max flow nodes included: Limit der inkludierten Flow-Nodes.
- Include documentation snippets (help/README/examples): Doku-Kontext einfügen.
- Docs language: Bevorzugte Sprache der Doku-Snippets.
- Max docs snippets: Max. Anzahl Doku-Snippets.
- Max docs chars: Max. Gesamtzeichen aus Doku.
- Button Refresh: Provider abfragen und verfügbare Modelle laden.
Sicherheitshinweis
Bei aktiviertem LLM kann KNX-Traffic-Kontext an den konfigurierten Endpoint gesendet werden. Für striktes On-Premise lokale Provider verwenden.