Hallo zusammen,
melde mich mit meinem HistoryGraph-Problem zurück.
Symptom:
HistoryGraphen lauf in einen [object][Object] Fehler.
Steps-To-Repro:
Ich habe meine HGraphen inzwischen auf jeweils einen eigenen Tab ausgelagert, um besser testen zu können.
Tabs nacheinander ruhig aufrufen. Die Grafen werden normalerweise beim ersten Aufruf noch sauber erzeugt.
Ein wenig hin und her klicken - ohne große Hektik.
Dann passiert es.
Das spannende ist nun, dass ich das Datum im Fehler beinflussen kann,
indem ich beim InfluxDB Adapter die Vorhaltezeit ändere. (Daher ist das Datum auf den Bildern auch mal 12 und mal 6 Monate zurück.)
Hier die Daten ausm Debug, was mir komisch vorkommt:
# DEBUG-Log von Jarvis & InfluxDB2
2022-01-22 17:35:45.221 - [34mdebug[39m: influxdb.0 (1908) Measurement tado.0.667342.Rooms.4.sensorDataPoints.humidity.percentage is of type Boolean - skipping aggregation options
#
# Hier kommt die Stelle, die verdächtig aussieht.
# Offenbar fragt Jarvis nicht nur die letzten X Tage zurück ab, sondern auch noch den allerersten Datenpunkt vor X Monaten.
# Wenn ich die Vorhaltezeit im Adapter ändere, ändert es sich auch in dieser Fehlermledung.
#
2022-01-22 17:35:45.222 - [34mdebug[39m: influxdb.0 (1908) History-queries to execute:
from(bucket: "iobroker") |> range(start: 2021-07-09T16:35:39.880Z, stop: 2022-01-08T16:35:39.880Z) |> filter(fn: (r) => r["_measurement"] == "tado.0.667342.Rooms.4.sensorDataPoints.humidity.percentage") |> pivot(rowKey:["_time"], columnKey: ["_field"], valueColumn: "_value") |> sort(columns: ["_time"], desc: true) |> group() |> limit(n: 1),
from(bucket: "iobroker") |> range(start: 2022-01-08T16:35:39.880Z, stop: 2022-01-22T16:35:39.880Z) |> filter(fn: (r) => r["_measurement"] == "tado.0.667342.Rooms.4.sensorDataPoints.humidity.percentage") |> pivot(rowKey:["_time"], columnKey: ["_field"], valueColumn: "_value") |> group() |> limit(n: 9999999),
from(bucket: "iobroker") |> range(start: 2022-01-22T16:35:39.880Z) |> filter(fn: (r) => r["_measurement"] == "tado.0.667342.Rooms.4.sensorDataPoints.humidity.percentage") |> pivot(rowKey:["_time"], columnKey: ["_field"], valueColumn: "_value") |> sort(columns: ["_time"], desc: false) |> group() |> limit(n: 1)
# Ausführung Query-Teil I:
2022-01-22 17:35:45.222 - [34mdebug[39m: influxdb.0 (1908) Query to execute:
from(bucket: "iobroker") |> range(start: 2021-07-09T16:35:39.880Z, stop: 2022-01-08T16:35:39.880Z) |> filter(fn: (r) => r["_measurement"] == "tado.0.667342.Rooms.4.sensorDataPoints.humidity.percentage") |> pivot(rowKey:["_time"], columnKey: ["_field"], valueColumn: "_value") |> sort(columns: ["_time"], desc: true) |> group() |> limit(n: 1)
# Fehler bei Ausfürhung Teil I - klar DB existierte ja noch nicht.
2022-01-22 17:35:56.911 - [33mwarn[39m: influxdb.0 (1908) Error in query "
from(bucket: "iobroker") |> range(start: 2021-07-09T16:35:39.880Z, stop: 2022-01-08T16:35:39.880Z) |> filter(fn: (r) => r["_measurement"] == "tado.0.667342.Rooms.4.sensorDataPoints.humidity.percentage") |> pivot(rowKey:["_time"], columnKey: ["_field"], valueColumn: "_value") |> sort(columns: ["_time"], desc: true) |> group() |> limit(n: 1)": RequestTimedOutError: Request timed out
# Ausführung Query-Teil II:
2022-01-22 17:35:56.911 - [34mdebug[39m: influxdb.0 (1908) Query to execute:
from(bucket: "iobroker") |> range(start: 2022-01-08T16:35:39.880Z, stop: 2022-01-22T16:35:39.880Z) |> filter(fn: (r) => r["_measurement"] == "tado.0.667342.Rooms.4.sensorDataPoints.humidity.percentage") |> pivot(rowKey:["_time"], columnKey: ["_field"], valueColumn: "_value") |> group() |> limit(n: 9999999)
# Ausführung Query-Teil III:
2022-01-22 17:35:58.792 - [34mdebug[39m: influxdb.0 (1908) Query to execute: from(bucket: "iobroker") |> range(start: 2022-01-22T16:35:39.880Z) |> filter(fn: (r) => r["_measurement"] == "tado.0.667342.Rooms.4.sensorDataPoints.humidity.percentage") |> pivot(rowKey:["_time"], columnKey: ["_field"], valueColumn: "_value") |> sort(columns: ["_time"], desc: false) |> group() |> limit(n: 1)
2022-01-22 17:36:00.454 - [33mwarn[39m: jarvis.0 (1876) [object Object]
# Daten erhalten von Query-Teil II:
2022-01-22 17:35:59.614 - [34mdebug[39m: influxdb.0 (1908) Parsing retrieved rows:[
[],
[{"result":"_result","table":0,"_start":"2022-01-08T16:35:39.88Z","_stop":"2022-01-22T16:35:39.88Z","_time":"2022-01-08T16:35:50.919Z","_measurement":"tado.0.667342.Rooms.4.sensorDataPoints.humidity.percentage","ack":true,"from":"system.adapter.influxdb.0","q":0,"value":44.5,"time":"2022-01-08T16:35:50.919Z"},
{"result":"_result","table":0,"_start":"2022-01-08T16:35:39.88Z","_stop":"2022-01-22T16:35:39.88Z","_time":"2022-01-08T16:36:50.92Z","_measurement":"tado.0.667342.Rooms.4.sensorDataPoints.humidity.percentage","ack":true,"from":"system.adapter.influxdb.0","q":0,"value":44.5,"time":"2022-01-08T16:36:50.92Z"},
...
{"result":"_result","table":0,"_start":"2022-01-08T16:35:39.88Z","_stop":"2022-01-22T16:35:39.88Z","_time":"2022-01-22T16:29:11.726Z","_measurement":"tado.0.667342.Rooms.4.sensorDataPoints.humidity.percentage","ack":true,"from":"system.adapter.tado.0","q":0,"value":39.7,"time":"2022-01-22T16:29:11.726Z"}],[]]
# Daten Rückmeldung an Jarvis:
2022-01-22 17:35:59.936 - [34mdebug[39m: influxdb.0 (1908) sendTo "getHistory" to system.adapter.jarvis.0 from system.adapter.influxdb.0
.
Hat jemand eine Idee?
grüße