NEWS
influxdb 3.0.0 verfügbar - eine Zusammenfassung
-
Für die, die wie ich eine InfluxDB vor v1.8.3 einsetzen:
Die Option -lponly gibt es erst ab v1.8.3:
https://github.com/influxdata/influxdb/issues/19367
Mit den DDL und DML Daten im Export kann man aber nicht importieren. Also vor dem Export erst mal auf mindestens 1.8.3 updaten.
-
So, 2,5 Stunden später ist der Import auf einem betagten NAS offensichtlich erfolgreich verlaufen. Instanz entsprechend angepasst, scheint zu laufen.
Die Größe der InfluxDB2 ist sogar etwas kleiner.
@apollon77
Bei einem Datenpunkt erhalte ich die folgende Fehlermeldung:2022-05-20 00:07:43.832 - [31merror[39m: influxdb.0 (9531) HttpError: runtime error @4:12-4:136: filter: type conflict: bool != string
wenn ich den Verlauf angucken möchte.
Wo ist das Problem?
-
Ich habe den Datenpunkt nochmal deaktiviert und wieder aktiviert, nun geht es.
-
@ofbeqnpolkkl6mby5e13 auch wenn es geht: ein bissl mehr log - in dem Fall debug log damit man die query sieht - würde Sinn machen.
-
Wird das Editieren von Datenpunkten wie bei Influxdb1 im Admin noch hinzukommen?
-
@ofbeqnpolkkl6mby5e13 ... wenn es jemand einbaut ... InfluxDB 2 ist da speziell. leg gern ein Feature Request an dann sieht man das
-
Feature Request für den Admin Adapter? Dein Ernst?
-
@ofbeqnpolkkl6mby5e13 Nein InfluxDB Adapter. der kann updateState nur für InfluxDB 1 ...
-
-
Hallo,
ich hatte ja schon mal geschrieben, dass sich seit einiger Zeit Warnmeldungen bekomme, die mir dann das Log sprengen. Gestern habe mal den Adapter auf Debug gestellt, in der Hoffnung, dass der Fehler wieder auftritt. Er tat es. Anbei ein Ausschnitt des Log, das mittlerweile wieder auf eine Größe von über 2,6GB angewachsen ist. Ein Neustart des Adapter oder des InfluxDB Service behebt das Problem bis zum nächsten Auftreten, meistens irgendwann in der Nacht.
Während des Fehlers findet ein deutlich erhöhter Netzwerktraffic zwischen iobroker und dem Influx Container statt.
influxdb.0 2022-05-21 11:02:42.874 info Add point that had error for linkeddevices.0.Sensoren.EG.Küche.Küchenmaschine.ENERGIE_Strom to buffer again, error-count=9 influxdb.0 2022-05-21 11:02:42.874 warn Error on writePoint("{"value":0,"time":"2022-05-21T08:54:22.593Z","from":"system.adapter.linkeddevices.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout"" influxdb.0 2022-05-21 11:02:42.874 warn Point could not be written to database: iobroker influxdb.0 2022-05-21 11:02:42.861 debug Write Point: linkeddevices.0.Sensoren.OG.Thomas.Fernseher.ENERGIE_Spannung values:{"value":229,"time":"2022-05-21T08:58:52.780Z","from":"system.adapter.linkeddevices.0","q":0,"ack":true} options: null influxdb.0 2022-05-21 11:02:42.861 info Add point that had error for linkeddevices.0.Sensoren.OG.Thomas.Fernseher.ENERGIE_Spannung to buffer again, error-count=9 influxdb.0 2022-05-21 11:02:42.861 warn Error on writePoint("{"value":229,"time":"2022-05-21T08:58:52.780Z","from":"system.adapter.linkeddevices.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout"" influxdb.0 2022-05-21 11:02:42.861 warn Point could not be written to database: iobroker influxdb.0 2022-05-21 11:02:42.860 debug Write Point: linkeddevices.0.Sensoren.OG.Thomas.PC.ENERGIE_Strom values:{"value":0.733,"time":"2022-05-21T09:00:42.807Z","from":"system.adapter.linkeddevices.0","q":0,"ack":true} options: null influxdb.0 2022-05-21 11:02:42.860 info Add point that had error for linkeddevices.0.Sensoren.OG.Thomas.PC.ENERGIE_Strom to buffer again, error-count=8
PS: Ich glaube, ich habe eine Spur gefunden. Die vorausgehenden Kommunikationsfehler treten ab 4Uhr Früh auf und genau da starten Update-Tasks in Proxmox, speziell der von meiner Windows 11 VM, die bei mir als Datei und Multimedia Server läuft. Wieso stört dieser Vorgang die Container von iobroker und InfluxDB? Die laufen doch weiter und genug Resourcen sind im Server auch noch frei und davor hat es immer Problemlos funktioniert?
PPS: Problem gelöst. Es trat auf, nachdem ich eine 6TB HDD in den PVE integriert hatte und alle VMs und CTs dort hin verschoben hatte. Wenn dann nun ein Backup einer VM anspringt, scheint die Last auf der HDD so hoch zu werden, dass es zu starken Verzögerungen zu kommen scheint, die dann diese Kommunikationsfehler mit der InfluxDB auslösen. Ich habe nun die CTs auf ein anderes Laufwerk verschoben und nun klappt es endlich wieder wunderbar, inkl. automatischer Backups.
-
@palm_maniac Perfekt, genau das wäre auch meine Vermutung gewesen. Der Fehlert liegt bei der InfluxDB. Und die "erhöhle Neutzwerklast" entsteht übrigens das der Adapter bei einem "Massenschreib Fehler" darauf zurückfällt die Daten einzeln zu schreiben
-
@apollon77
Ein grundsätzliche Frage. Bei dem History DB Adapter gibt es die Möglichkeit die Retention Policy für jeden Datenpunkt festzulegen. Die "Datenverdichtung" im InfluxDB Jargon, die Continuous Queries, habe ich in meinen Javascripten selber gemacht. Keine Ahnung, ob das der von Dir angedachte Ansatz ist.Retention Policies habe ich bei dem Influx DB Adapter nicht gefunden.
Kommt das noch zu einem späteren Zeitpunkt, oder muss der Anwender seine Retention Policies und auch die Continuous Queries außerhalb des Adapters in der InfluxDB definieren?Ich fände es wünschenswert, dass zu mindestens die Retention Polices auch Teil des InfluxDB Adapters werden sollten. Dann wäre die Migration von historyDB nach InfluxDB bzgl. der Scripts einfacher.
Update: Habe gerade nochmal die Doc gelesen. Vermutlich kann man eine kompatible RP nicht realisieren, weil influxDB 2.0 die nur pro Bucket unterstützt und nicht mehr für die einzelnen Messungen. Und dann hat sich auch noch die Query Language geändert, was wiederum einen Effekt hat auf die Javascript. Ok, es bleibt nicht einfach.
Update 2: Ich habe jetzt doch die Retention Policy in den Adapter settings gefunden. Hatte aus "Gewohnheit" bei den Datenpunkten geschaut.
Vergiss die Anfrage. -
Jetzt habe aber doch noch eine Frage.
Die Retention Policies können jetzt ja nur noch für alle Measurements gleich festgelegt werden.
Was ist mit Daten, die ich über längere Zeit archivieren will?-
Das muss man jetzt wohl in einer separaten Bucket/DB machen.
-
Macht es Sinn eine zweite influxDB Adapter Instanz anzulegen, die auf eine "Langzeit" DB verweist und die dann eine RP von "unendlich" hat?
-
und allgemein ist es sinnvoll, dass man für Werte in dieser Langzeit DB auch wieder zugehörige Datenpunkte in iobroker anlegt?
-
-
moin @marty56,
ich habe zwar noch den 2.x-Adapter (verwende den sendto bzw. storeState, was wohl aktuell mit dem 3er noch nicht geht), aber so mache ich das schon seit ich die influxV2 eingerichtet habe.
@marty56 sagte in influxdb 3.0.0 verfügbar - eine Zusammenfassung:
Das muss man jetzt wohl in einer separaten Bucket/DB machen.
#jaMacht es Sinn eine zweite influxDB Adapter Instanz anzulegen, die auf eine "Langzeit" DB verweist und die dann eine RP von "unendlich" hat?
#ich habe je eine Instanz pro DB bzw. Bucket wo nie Daten gelöscht werden, eine mit einer Retention von ein paar Wochen und eine für schnelle Tests (eher ein Mülleimer)und allgemein ist es sinnvoll, dass man für Werte in dieser Langzeit DB auch wieder zugehörige Datenpunkte in iobroker anlegt?
#in den DPs kann man dann einfach die jeweilige Instanz wählen bzw. man könnte sogar mehrere Instanzen gleichzeitig auswählen (habe ich aber noch nicht probiert) -
@marty56 Ich mag wen sich Fragen schneller selbst beantworten als ich Sie beantworten kann
-
@marty56 Also wäre eine Idee das so zu machen. kannst dann auch beide Instanzen für einen Datenounkt konfigurieren ... dann werden ggf auch Daten doppelt geschrieben und hast Sie kurzfristig und langsfristig und kannst dann drauf zugreifen wie Du denkst. Oder was meinst du mit 2.?
-
@apollon77 "Oder was meinst du mit 2.?" Typo!
-
@marty56 Ja meine Deinen Punkt 3 oben ...
- und allgemein ist es sinnvoll, dass man für Werte in dieser Langzeit DB auch wieder zugehörige Datenpunkte in iobroker anlegt?
-
Ich denke, dass man die Retention und Continous Queries direkt in influxDB also unabhängig von iobroker implementieren könnte.
Und wenn man dann Grafana zur Darstellung dieser Daten benutzt, besteht keine Notwendigkeit mehr für die Langzeitwerte in iobroker Datenpunkte anzulegen. -
Ich bentzte das "sendto ....", um queries auf die influxdb durchzuführen.
Ich habe mir dazu eine async query funktion gebaut, bei der ich 1 Sekunde auf die Ausführung der Query warte, bis ich das Ergebnis zurückgeben.Ich hoffe dabei, dass alle meine Queries jeweils immer in einer Sekunde abgeschlossen sind.
async function influxDB_energy (db,id,start,sub_start,end) { end = "'" + end + "'" start = "'" + start + "'" + sub_start var query = 'SELECT difference(distinct("value")) FROM "'+ id +'" WHERE time >= '+ start + ' and time <= ' + end +' GROUP BY time(1d) fill(linear)' log(query) var sum sendTo(db, 'query', 'SELECT difference(distinct("value")) FROM "'+ id +'" WHERE time >= '+ start + ' and time <= ' + end +' GROUP BY time(1d) fill(linear)', function (result) { if (result.error) { console.error(result.error); } else { sum = 0 var res_element = result.result[0] for (var i = 0;i< res_element.length;i++) { sum = sum + res_element[i].difference } } }); const abfrage = new Promise(function(resolve, error) { setTimeout(function () {resolve(true);}, 1000); }) await abfrage; return sum; }; (async () => { ... var ergebnis = await influxDB_energy (db,id,start,sub_start,end) // mit "ergebnis" weiterarbeiten })();
Ich find den Ansatz grundsätzlich eher schlecht und hätte die Frage, ob man die Queries nicht asynchron, also auch mit Promises, bereitstellen könnte.