NEWS
Test Adapter sql 2.0.0
-
@feuersturm Bitte nochmal GitHub versuchen
-
@apollon77 Auch mit der neuen Version von github kommt die gleiche Fehlermeldung.
-
@feuersturm Haste bitte mal ein Debug log von dem Call?
-
@apollon77 Wenn ich auf den Button drücke kommen keine neuen Einträge im Log. So sieht es kurze Zeit vorher und nachher aus:
2022-05-03 19:50:56.773 - debug: sql.0 (1968) pushValueIntoDB called for proxmox.0.lxc_ioBrokerTestsystem.cpu (type: 0, ID: 3) and state: {"val":4.67,"ack":true,"ts":1651600256755,"q":0,"from":"system.adapter.proxmox.0","user":"system.user.admin","lc":1651600256755} 2022-05-03 19:50:56.773 - debug: sql.0 (1968) prepareTaskCheckTypeAndDbId CALLED for proxmox.0.lxc_ioBrokerTestsystem.cpu 2022-05-03 19:50:56.774 - debug: sql.0 (1968) pushValueIntoDB-prepareTaskCheckTypeAndDbId RESULT for proxmox.0.lxc_ioBrokerTestsystem.cpu (type: 0, ID: 3) and state: {"val":4.67,"ack":true,"ts":1651600256755,"q":0,"from":"system.adapter.proxmox.0","user":"system.user.admin","lc":1651600256755}: undefined 2022-05-03 19:51:56.992 - debug: sql.0 (1968) pushValueIntoDB called for proxmox.0.lxc_ioBrokerTestsystem.cpu (type: 0, ID: 3) and state: {"val":4.27,"ack":true,"ts":1651600316889,"q":0,"from":"system.adapter.proxmox.0","user":"system.user.admin","lc":1651600316889} 2022-05-03 19:51:56.993 - debug: sql.0 (1968) prepareTaskCheckTypeAndDbId CALLED for proxmox.0.lxc_ioBrokerTestsystem.cpu 2022-05-03 19:51:56.994 - debug: sql.0 (1968) pushValueIntoDB-prepareTaskCheckTypeAndDbId RESULT for proxmox.0.lxc_ioBrokerTestsystem.cpu (type: 0, ID: 3) and state: {"val":4.27,"ack":true,"ts":1651600316889,"q":0,"from":"system.adapter.proxmox.0","user":"system.user.admin","lc":1651600316889}: undefined
-
@feuersturm bitte nochmal versuchen. Habe den Fehler gefunden
-
@apollon77 Wohooo. Jetzt kommt ein Ok
-
@apollon77 sagte in Test Adapter sql 2.0.0:
Im Standard wird kein Buffering genutzt wie bisher auch.
Bedeutet das, dass man jeden aufzuzeichnenden Datenpunkt dafür öffnen (gegebenenfalls umstellen) und wieder speichern muss? Oder sind die 10 Änderungen (Standard) bereits aktiv?
Edit: Dürfte schon aktiv sein. Meine Disk-IO sieht auch gleich ganz anders aus. Alle 10 Minuten wird ein Pulk geschrieben. Auch für die SSD bzw. SD kein Nachteil. Bei CPU und RAM hat sich nicht wirklich was geändert.
-
@dr-bakterius Also wenn du in den Default-Settings 10 gesetzt hast wird das als Default Wert überall da angewendet wo sonst kein Wert konfiguriert ist. Kannst es aber auf Datenpunktbasis überschreiben
-
@apollon77
Hab mal ein wenig mit der 2.0 rumgespielt. Sieht bis jetzt ganz gut aus. Insbesondere die "Blockierfunktion" hilft mir bei meiner Zisterne ungemein.
Allerdings hab ich noch eine Frage zum Buffering. Wenn ich es richtig verstehe werden so oder so alle 10 Minuten die Daten geschrieben, sollten nicht vorher die definierte Anzahl im RAM überschritten werden. Sind das alle Werte die reinkommen, oder nur die durch die diversen Filter auch in der Datenbank landen sollen? Füllstand meiner Zisterne kommt via Shelly UNI rein. Der sendet quasi im Sekundentakt den Füllstand (ist mir bis jetzt nicht bekannt wie ich die Abtastrate verlängern kann). Bei 4000 L Volumen interessiert mich das natürlich nicht so genau, also werden mit der Blockierfunktion nur alle 30 s die Werte geschrieben. Wenn ich den Datapoint Count auf 10 setze, wird dann nach 10s oder nach 5 min geschrieben?
Und einen optischen Punkt habe ich noch. Kann man die Spaltenbreite irgendwo anpassen? Oder ist das ne Admin Sache?
-
@bommel_030 Er sammelt nur die Werte die in der DB landen sollen - und die kommen nach Erreichen von X oder spätestens nach 10 Mins dran.
Spaltenbreite -> Admin. Da gern Issue als Enhancement anlegen
-
@apollon77 Danke für das tolle Update. Läuft bei mir nun seit zwei Tagen ohne Probleme. Ich habe nichts groß konfiguriert nur das Buffering (reduziert die Disk IO deutlich). Es funktioniert bei mir alles out of the box.
-
So GitHub Verison 2.0.0 hat ein neues Feature bekommen (@Diginix) ... Die Retention time kann nun auch Custom in tagen definiert werden.
Bitte checken
-
Vielen Dank an alle tester. Die 2.09.1 geht gerade ins Beta/Latest Repo
--> https://forum.iobroker.net/topic/54833/sql-2-0-0-zusammenfassung -
Hallo.
Ich habe Datenpunkte gelöscht, zuvor aber das SQL-Logging nicht deaktiviert. Jetzt bekomme ich immer wieder folgendes im Log:
warn: sql.0 (774) Cannot get index of "web-speedy.0.Results.speeds.download_Mb": id not found
Die Datenpunkte kann ich leider nicht händisch anlegen und der Adapter funktioniert momentan nicht und die DPs werden somit nicht erstellt.
Was kann ich machen, damit ich die Meldungen wegbekomme?
Danke!
-
Und dann habe ich noch folgende Meldungen, obwohl ich hier das Logging vor dem Löschen deaktiviert habe:
2022-09-05 18:14:59.601 warn getOneCachedData: got null states 1 times for hs100.0.10_10_10_72.power
-
@neunteufels was hast du wie gelöscht? Direkt in de Datenbank? Oder in iobroker? Die meldung sagt das er Meta Daten in der sql dB nicht findet.
Mehr Details bitte
-
@neunteufels also da scheint wohl noch irgendwas Statistiken lesen zu wollen für den Datenpunkt. Noch irgendwo eine flot Grafik? Oder echarts?
-
Ich habe den Adapter web-speedy gelöscht, da er nicht mehr funktioniert.
In diesem Zuge wurden die DPs dazu auch gelöscht.
Zwei der DPs hatte ich im SQL-Logging (.download_MB und .upload_MB).
Ich habe das SQL-Logging vor dem Löschen des Adapters NICHT deaktiviert.
Seither bekomme ich die obige Fehlermeldung.Reicht das als Info?
-
@apollon77
Genau das wars --> Flot-Diagramm!DANKE!
-
@neunteufels mal sql Adapter restarted? Dann weg? Bzw bei was kommt es denn? Vllt auch noch irgendwo ein flot?