Skip to content
  • Home
  • Recent
  • Tags
  • 0 Unread 0
  • Categories
  • Unreplied
  • Popular
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Tester
  4. Test Adapter influxdb 2.0

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    16
    1
    1.9k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    906

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    2.2k

Test Adapter influxdb 2.0

Scheduled Pinned Locked Moved Tester
293 Posts 43 Posters 75.2k Views 43 Watching
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S sunny1081

    @robbsen
    Wenn ich die lokale InfluxDB nutzte läuft es gut. Habe auch einen eigenen TOKEN mit allen rechten für IOBroker gemacht.

    R Offline
    R Offline
    robbsen
    wrote on last edited by robbsen
    #149

    @sunny1081 vielleicht ist das unser Problem mit unseren Neustarts

    Authentication Token: You need to create an Authentication token that have sufficient rights to basically do all actions on the provided organization! Important: For now just use the initial owner auth token because we still struggle on how to create a token that has sufficient permissions. The Owner Token was generated on InfluxDB setup process. If you know how to create the right tokens let us now :-)
    

    Eigentlich sollte man ja den "Owner-Token" nutzen. Allerdings habe ich den bei mir nicht gefunden.

    By the way bei mir loggt sich das Frotend alle paar Sekunden aus, hat jemand ähnliches Problem?

    ExcodiburE apollon77A 2 Replies Last reply
    0
    • R robbsen

      @sunny1081 vielleicht ist das unser Problem mit unseren Neustarts

      Authentication Token: You need to create an Authentication token that have sufficient rights to basically do all actions on the provided organization! Important: For now just use the initial owner auth token because we still struggle on how to create a token that has sufficient permissions. The Owner Token was generated on InfluxDB setup process. If you know how to create the right tokens let us now :-)
      

      Eigentlich sollte man ja den "Owner-Token" nutzen. Allerdings habe ich den bei mir nicht gefunden.

      By the way bei mir loggt sich das Frotend alle paar Sekunden aus, hat jemand ähnliches Problem?

      ExcodiburE Offline
      ExcodiburE Offline
      Excodibur
      Developer
      wrote on last edited by
      #150

      @robbsen Nee, ich glaube ich hatte da ein Reconnect Verhalten eingebaut, falls es beim Anlegen der DB (und damit einhergehend dem Setzen der Retention Policy zu Problemen kommt, immer in der Annahme, dass Probleme so für nach dem Login auf Schwierigkeiten mit der Verbindung hindeuten. Die Annahme trifft in diesem Fall nicht zu, d.h. ich müsste mir den Adapter-Code nochmal anschauen und da was patchen.

      1 Reply Last reply
      0
      • S sunny1081

        @apollon77

        Habe es grade nochmal probiert. Dachte es geht gar nicht da ich keine Werte mehr hatte, die Verbindung wird aufgebaut und ein Wert geschrieben, die Updates dann aber nicht mehr. Erst wenn ich den Adapter wieder neu Starte ist der nächste Wert da.

        Alle 10s verbindet sich der Adapter neu, es werden aber keine Werte geschrieben.
        Anbei ein Ausschnitt aus dem log:

        Influx.log

        apollon77A Offline
        apollon77A Offline
        apollon77
        wrote on last edited by
        #151

        @sunny1081 Dann bitte GitHub Issue das er ein nen Fail bei Retention nur loggt aber komplett ignoriert ...

        Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

        • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
        • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
        S 1 Reply Last reply
        0
        • R robbsen

          @sunny1081 vielleicht ist das unser Problem mit unseren Neustarts

          Authentication Token: You need to create an Authentication token that have sufficient rights to basically do all actions on the provided organization! Important: For now just use the initial owner auth token because we still struggle on how to create a token that has sufficient permissions. The Owner Token was generated on InfluxDB setup process. If you know how to create the right tokens let us now :-)
          

          Eigentlich sollte man ja den "Owner-Token" nutzen. Allerdings habe ich den bei mir nicht gefunden.

          By the way bei mir loggt sich das Frotend alle paar Sekunden aus, hat jemand ähnliches Problem?

          apollon77A Offline
          apollon77A Offline
          apollon77
          wrote on last edited by
          #152

          @robbsen Das mit dem Owner Token war nur nötig bzw in der Readme wel wir es nicht hinbekommen hatten ein Token zu erzeugen mit dem der Adapter nach dem Anlegen der DB selbst darauf zugreifen durfte ...

          Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

          • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
          • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
          1 Reply Last reply
          0
          • apollon77A apollon77

            @sunny1081 Dann bitte GitHub Issue das er ein nen Fail bei Retention nur loggt aber komplett ignoriert ...

            S Offline
            S Offline
            sunny1081
            wrote on last edited by
            #153

            @apollon77 done

            1 Reply Last reply
            0
            • S Offline
              S Offline
              sebi85
              wrote on last edited by
              #154

              Hallo zusammen,

              ich habe heute Nachmittag ein Update von der Version 2.0.0 auf die 2.1.1 durchgeführt.

              Seit dem erhalte ich allerdings nur noch Influx-Protokollierungen mit ack == null und from == null für die jeweiligen Devices.

              In meiner Influx-DB habe ich nun jeweils zwei Messpunkte pro Device - Beispiel:

              f7f86c8f-021d-4dba-8f2d-76a73978a72e-image.png

              Vor dem Update wurden alle Werte in den alten DP geschrieben:
              e06eb752-5096-40ab-b6d1-17434cfa241d-image.png

              Um 14:02 Uhr wurde dann von mir das Update auf die neue Version eingespielt. Das influx-Token ging bei dem Update kaputt und musste neu gesetzt werden, das hatte ich dann erst gegen 15:00 Uhr aktualisiert, daher gibt es ca. 1 Std. keine weiteren Einträge.

              Nach der Aktualisierung des Tokens wurden die Daten allerdings in den neuen Datenpunkt geschrieben:
              f2e6581b-a92b-4053-9c33-25e19c4fd27a-image.png

              Somit passen nun leider sämtliche Grafana-Dashboards nicht mehr. Hatte sich hier zwischen den Versionen etwas geändert oder müssen zusätzliche Einstellungen vorgenommen werden?

              Danke und viele Grüße,
              Sebastian

              apollon77A 1 Reply Last reply
              0
              • S sebi85

                Hallo zusammen,

                ich habe heute Nachmittag ein Update von der Version 2.0.0 auf die 2.1.1 durchgeführt.

                Seit dem erhalte ich allerdings nur noch Influx-Protokollierungen mit ack == null und from == null für die jeweiligen Devices.

                In meiner Influx-DB habe ich nun jeweils zwei Messpunkte pro Device - Beispiel:

                f7f86c8f-021d-4dba-8f2d-76a73978a72e-image.png

                Vor dem Update wurden alle Werte in den alten DP geschrieben:
                e06eb752-5096-40ab-b6d1-17434cfa241d-image.png

                Um 14:02 Uhr wurde dann von mir das Update auf die neue Version eingespielt. Das influx-Token ging bei dem Update kaputt und musste neu gesetzt werden, das hatte ich dann erst gegen 15:00 Uhr aktualisiert, daher gibt es ca. 1 Std. keine weiteren Einträge.

                Nach der Aktualisierung des Tokens wurden die Daten allerdings in den neuen Datenpunkt geschrieben:
                f2e6581b-a92b-4053-9c33-25e19c4fd27a-image.png

                Somit passen nun leider sämtliche Grafana-Dashboards nicht mehr. Hatte sich hier zwischen den Versionen etwas geändert oder müssen zusätzliche Einstellungen vorgenommen werden?

                Danke und viele Grüße,
                Sebastian

                apollon77A Offline
                apollon77A Offline
                apollon77
                wrote on last edited by apollon77
                #155

                @sebi85 Du hast hier gelesen das das Logging Format zwischen 2.0 und 2.1 geändert wurde?? Scroll mal ein paar Tage hoch hier in diesem thread

                Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                S 1 Reply Last reply
                0
                • apollon77A apollon77

                  @sebi85 Du hast hier gelesen das das Logging Format zwischen 2.0 und 2.1 geändert wurde?? Scroll mal ein paar Tage hoch hier in diesem thread

                  S Offline
                  S Offline
                  sebi85
                  wrote on last edited by
                  #156

                  @apollon77 ich hatte "nur" die Changelog im Fokus, da hatte ich keinen Hinweis auf eine Änderung des Logformats gesehen.

                  Danke für den Hinweis, dann versuche ich mal die Daten irgendwie zu aggregieren.

                  1 Reply Last reply
                  1
                  • apollon77A Offline
                    apollon77A Offline
                    apollon77
                    wrote on last edited by
                    #157

                    Ok,

                    der wunderbare @Excodibur hat Euch @sebi85 und @sunny1081 erhört und für InfluxDB 2 eine Einstellung eingeführt mit der man wählen kann wie die Daten abgelegt werden sollen. Im GitHub Readme stehen auch Infos dazu.

                    Also könntet Ihr jetzt die Daten die euch die 2.1 "falsch" reingeschrieben hat wegwerfen oder irgendwie umstellen (sorry das macht der Adapter nicht für euch). Das neue mit der Einstellung müsste mit dem Format der 2.0 identisch sein.
                    Oder Ihr fangt nochmal mit einer leeren DB an und schaut wie Ihr die alten Daten reinbekommt.

                    Bitte versucht es mal. Das neue ist erstmal auf GitHub: Von dort installieren und danach manuell Adapter neu starten. Dann in die Settings und unter "Erweiterte Einstellungen" das neue aktivieren. Bitte Feedback geben. Der Adapter checks das Format der existierenden Daten und meckert gegebenenfalls.

                    Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                    • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                    • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                    ExcodiburE 1 Reply Last reply
                    1
                    • apollon77A apollon77

                      Ok,

                      der wunderbare @Excodibur hat Euch @sebi85 und @sunny1081 erhört und für InfluxDB 2 eine Einstellung eingeführt mit der man wählen kann wie die Daten abgelegt werden sollen. Im GitHub Readme stehen auch Infos dazu.

                      Also könntet Ihr jetzt die Daten die euch die 2.1 "falsch" reingeschrieben hat wegwerfen oder irgendwie umstellen (sorry das macht der Adapter nicht für euch). Das neue mit der Einstellung müsste mit dem Format der 2.0 identisch sein.
                      Oder Ihr fangt nochmal mit einer leeren DB an und schaut wie Ihr die alten Daten reinbekommt.

                      Bitte versucht es mal. Das neue ist erstmal auf GitHub: Von dort installieren und danach manuell Adapter neu starten. Dann in die Settings und unter "Erweiterte Einstellungen" das neue aktivieren. Bitte Feedback geben. Der Adapter checks das Format der existierenden Daten und meckert gegebenenfalls.

                      ExcodiburE Offline
                      ExcodiburE Offline
                      Excodibur
                      Developer
                      wrote on last edited by
                      #158

                      Die Doku zu dem Feature findet ihr hier: https://github.com/ioBroker/ioBroker.influxdb/blob/master/README.md#Store-metadata-information-as-tags-instead-of-fields

                      Das funktioniert nur bei Influx 2, d.h. ihr sollte dann in der Adapter Konfiguration die Verwendung von Tags per Checkbox aktivieren können. Wie von Apollon beschrieben, funktioniert das nicht mit alten DBs, die q, from und ack noch in fields speichern. Der Adapter gibt dann in dem Fall eine Fehlermeldung aus und stoppt. Am einfachsten mit einer neuen, leeren DB testen.

                      S 1 Reply Last reply
                      1
                      • ExcodiburE Excodibur

                        Die Doku zu dem Feature findet ihr hier: https://github.com/ioBroker/ioBroker.influxdb/blob/master/README.md#Store-metadata-information-as-tags-instead-of-fields

                        Das funktioniert nur bei Influx 2, d.h. ihr sollte dann in der Adapter Konfiguration die Verwendung von Tags per Checkbox aktivieren können. Wie von Apollon beschrieben, funktioniert das nicht mit alten DBs, die q, from und ack noch in fields speichern. Der Adapter gibt dann in dem Fall eine Fehlermeldung aus und stoppt. Am einfachsten mit einer neuen, leeren DB testen.

                        S Offline
                        S Offline
                        sunny1081
                        wrote on last edited by
                        #159

                        @excodibur Besten Dank dafür, es funktioniert.

                        Nur den alten Bucket konnte ich nicht nutzen. Wie wird den ausgemacht ob bereits TAGS genutzt wurden. Initial wurden den Daten mit TAGS geschrieben und dann einige wenige Tage mit Feldern, kann jetzt aber nicht mit TAGS weiter schreiben.

                        apollon77A 1 Reply Last reply
                        0
                        • S sunny1081

                          @excodibur Besten Dank dafür, es funktioniert.

                          Nur den alten Bucket konnte ich nicht nutzen. Wie wird den ausgemacht ob bereits TAGS genutzt wurden. Initial wurden den Daten mit TAGS geschrieben und dann einige wenige Tage mit Feldern, kann jetzt aber nicht mit TAGS weiter schreiben.

                          apollon77A Offline
                          apollon77A Offline
                          apollon77
                          wrote on last edited by
                          #160

                          @sunny1081 soweit ich weiß so:

                          Mit fieldKeys und tagKeys kann man das Schema untersuchen. Wenn der Adapter da sieht, das für q, from, ack tags oder fields benutzt wurden, gibt der ggf einen error aus

                          Reicht das? Sonst muss @Excodibur mehr sagen welche Magie er da gebaut hat.

                          Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                          • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                          • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                          ? 1 Reply Last reply
                          0
                          • apollon77A apollon77

                            @sunny1081 soweit ich weiß so:

                            Mit fieldKeys und tagKeys kann man das Schema untersuchen. Wenn der Adapter da sieht, das für q, from, ack tags oder fields benutzt wurden, gibt der ggf einen error aus

                            Reicht das? Sonst muss @Excodibur mehr sagen welche Magie er da gebaut hat.

                            ? Offline
                            ? Offline
                            A Former User
                            wrote on last edited by
                            #161

                            @apollon77

                            Hmm mit V2.2.20 ist irgendwie die Haltezeit der Daten verschwunden...???

                            0d4bd94b-af21-417d-a5c5-5a7fc8c84da6-grafik.png

                            apollon77A 1 Reply Last reply
                            0
                            • ? A Former User

                              @apollon77

                              Hmm mit V2.2.20 ist irgendwie die Haltezeit der Daten verschwunden...???

                              0d4bd94b-af21-417d-a5c5-5a7fc8c84da6-grafik.png

                              apollon77A Offline
                              apollon77A Offline
                              apollon77
                              wrote on last edited by
                              #162

                              @ilovegym dann ließ mal Changelog. Das tat noch nie auf Datenpunkt Ebene und daher haben wir es mit der 2.0 dort rausgeworfen. Geht nur auf dB Ebene - da tut es aber jetzt was auch vorher nie tat ;-)

                              Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                              • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                              • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                              ? 1 Reply Last reply
                              0
                              • apollon77A apollon77

                                @ilovegym dann ließ mal Changelog. Das tat noch nie auf Datenpunkt Ebene und daher haben wir es mit der 2.0 dort rausgeworfen. Geht nur auf dB Ebene - da tut es aber jetzt was auch vorher nie tat ;-)

                                ? Offline
                                ? Offline
                                A Former User
                                wrote on last edited by
                                #163

                                @apollon77 ach das war das.. :-D gelesen, vergessen, gewundert... :D

                                1 Reply Last reply
                                0
                                • apollon77A apollon77

                                  Ich sage jetzt mal frech: Versucht es doch mal ... und schreibt es for uns und die anderen auf. Ich denke "adapter stoppen, updaten, Konfig ändern (ip, port, settings) und starten sollte es sein ;-)

                                  S Offline
                                  S Offline
                                  Sputnik24
                                  wrote on last edited by
                                  #164

                                  @apollon77 said in Test Adapter influxdb 2.0:

                                  Ich sage jetzt mal frech: Versucht es doch mal ... und schreibt es for uns und die anderen auf. Ich denke "adapter stoppen, updaten, Konfig ändern (ip, port, settings) und starten sollte es sein ;-)

                                  Sorry für die späte Rückmeldung. Ich hab die Migration etwas hinausgezögert und wollte das in aller Ruhe machen. Das Mistwetter bietet sich nun dafür an.

                                  Lange Rede: Ich hab heute erfolgreich von v1 auf v2 manuell migriert. Bei mir läuft influxdb als Docker Container auf einer Synology. Hier meine Schritte:

                                  1. Docker Container v2 erstellen, aber noch nicht starten - Umgebungsvariablen passend für setup setzen, z.B.:
                                    DOCKER_INFLUXDB_INIT_MODE: setup
                                    DOCKER_INFLUXDB_INIT_BUCKET: iobroker
                                    DOCKER_INFLUXDB_INIT_ORG: iobroker
                                    DOCKER_INFLUXDB_INIT_USERNAME: iobroker
                                    DOCKER_INFLUXDB_INIT_PASSWORD: iobroker

                                  2. optional: Aktuelle v1 DB mit BackItUp sichern (optional, da wir sowieso einen neuen Docker Container für v2 anlegen und damit v1 als Backup vorhanden bleibt)

                                  3. influxDB Instanz stoppen

                                  4. Im Terminal von Docker Container v1 Datenbank exportieren:
                                    service influxdb stop
                                    influx_inspect export -waldir /var/lib/influxdb/wal -datadir /var/lib/influxdb/data -database "iobroker" -retention "autogen" -out /var/lib/influxdb/export.db -lponly

                                  5. Docker Container v1 stoppen

                                  6. Docker Container v2 starten und setup abwarten

                                  7. export.db in den gemounteten Data-Ordner Docker Container v2 verschieben

                                  8. Im Terminmal von Docker Containver v2 export db importieren:
                                    influx write --bucket iobroker --file /var/lib/influxdb2/export.db

                                  9. influxDB Instanz auf 2.x ändern, token eingeben und starten

                                  Die export.db war bei mir fast 10 GByte groß, entsprechend hat der Import gute 1,5 Stunden gedauert, der Export ging mit ca. 10 min deutlich schneller.

                                  Meine Motivation für die Migration war übrigens, dass flux nach Kalendermonaten und Jahren Daten aggregieren kann. Allerdings gibt es bereits einen ersten Wermutstropfen: flux kann aktuell keine Zeitzonen bei der Datenaggregierung. Damit sind die aggregierten Werte leicht falsch, was v.a. bei den Tageswerten deutlich spürbar ist, bei den Monatswerten weniger ins Gewicht fällt. Workaround wäre, für die Tageswerte mit influxql weiterzuarbeiten, allerdings bekomme ich grad die v1 Authentifizierung nicht hin, oder mit fixen timeshifts zu arbeiten, was aufgrund der Zeitumstellung blöd ist.

                                  Insgesamt bin ich aber froh, dass es dann doch so reibungslos funktioniert hat. Leider hat Grafana noch kein QueryBuilder für flux, aber gut.

                                  Danke für den tollen Support hier.

                                  apollon77A 1 Reply Last reply
                                  1
                                  • S Sputnik24

                                    @apollon77 said in Test Adapter influxdb 2.0:

                                    Ich sage jetzt mal frech: Versucht es doch mal ... und schreibt es for uns und die anderen auf. Ich denke "adapter stoppen, updaten, Konfig ändern (ip, port, settings) und starten sollte es sein ;-)

                                    Sorry für die späte Rückmeldung. Ich hab die Migration etwas hinausgezögert und wollte das in aller Ruhe machen. Das Mistwetter bietet sich nun dafür an.

                                    Lange Rede: Ich hab heute erfolgreich von v1 auf v2 manuell migriert. Bei mir läuft influxdb als Docker Container auf einer Synology. Hier meine Schritte:

                                    1. Docker Container v2 erstellen, aber noch nicht starten - Umgebungsvariablen passend für setup setzen, z.B.:
                                      DOCKER_INFLUXDB_INIT_MODE: setup
                                      DOCKER_INFLUXDB_INIT_BUCKET: iobroker
                                      DOCKER_INFLUXDB_INIT_ORG: iobroker
                                      DOCKER_INFLUXDB_INIT_USERNAME: iobroker
                                      DOCKER_INFLUXDB_INIT_PASSWORD: iobroker

                                    2. optional: Aktuelle v1 DB mit BackItUp sichern (optional, da wir sowieso einen neuen Docker Container für v2 anlegen und damit v1 als Backup vorhanden bleibt)

                                    3. influxDB Instanz stoppen

                                    4. Im Terminal von Docker Container v1 Datenbank exportieren:
                                      service influxdb stop
                                      influx_inspect export -waldir /var/lib/influxdb/wal -datadir /var/lib/influxdb/data -database "iobroker" -retention "autogen" -out /var/lib/influxdb/export.db -lponly

                                    5. Docker Container v1 stoppen

                                    6. Docker Container v2 starten und setup abwarten

                                    7. export.db in den gemounteten Data-Ordner Docker Container v2 verschieben

                                    8. Im Terminmal von Docker Containver v2 export db importieren:
                                      influx write --bucket iobroker --file /var/lib/influxdb2/export.db

                                    9. influxDB Instanz auf 2.x ändern, token eingeben und starten

                                    Die export.db war bei mir fast 10 GByte groß, entsprechend hat der Import gute 1,5 Stunden gedauert, der Export ging mit ca. 10 min deutlich schneller.

                                    Meine Motivation für die Migration war übrigens, dass flux nach Kalendermonaten und Jahren Daten aggregieren kann. Allerdings gibt es bereits einen ersten Wermutstropfen: flux kann aktuell keine Zeitzonen bei der Datenaggregierung. Damit sind die aggregierten Werte leicht falsch, was v.a. bei den Tageswerten deutlich spürbar ist, bei den Monatswerten weniger ins Gewicht fällt. Workaround wäre, für die Tageswerte mit influxql weiterzuarbeiten, allerdings bekomme ich grad die v1 Authentifizierung nicht hin, oder mit fixen timeshifts zu arbeiten, was aufgrund der Zeitumstellung blöd ist.

                                    Insgesamt bin ich aber froh, dass es dann doch so reibungslos funktioniert hat. Leider hat Grafana noch kein QueryBuilder für flux, aber gut.

                                    Danke für den tollen Support hier.

                                    apollon77A Offline
                                    apollon77A Offline
                                    apollon77
                                    wrote on last edited by
                                    #165

                                    @sputnik24 Vor der Umstellung graut mir noch ein bissl meine v1-db hat gerade auf der platte 54GB ... keine ahnung was das als export file wird. Was hatte deine denn auf der platte wo 10GB export drauf wurden? :)

                                    Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                    • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                    • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                    S ? 2 Replies Last reply
                                    0
                                    • apollon77A apollon77

                                      @sputnik24 Vor der Umstellung graut mir noch ein bissl meine v1-db hat gerade auf der platte 54GB ... keine ahnung was das als export file wird. Was hatte deine denn auf der platte wo 10GB export drauf wurden? :)

                                      S Offline
                                      S Offline
                                      Sputnik24
                                      wrote on last edited by
                                      #166

                                      @apollon77 Autsch. Bei mir hatte /var/lib/influxdb 658 MByte

                                      apollon77A 1 Reply Last reply
                                      0
                                      • S Sputnik24

                                        @apollon77 Autsch. Bei mir hatte /var/lib/influxdb 658 MByte

                                        apollon77A Offline
                                        apollon77A Offline
                                        apollon77
                                        wrote on last edited by apollon77
                                        #167

                                        @sputnik24 Krass ... Faktor fast 20? wtf

                                        Mein ioBroker hat 34GB ... mit faktor 20 also ca. 600GB
                                        Na dann überlege ich mal wie ich das storage technisch mache :-)) Oder ich muss zeitraummässig migrieren

                                        Wieviel ists eigentlich nach der Migration auf Platte? Auch grob die 658MB?

                                        aahh man kann das File auch compressen ... kannst du mal ein "gzip 10GBfile" machen und sagen was rauskommt?

                                        Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                        • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                        • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                        1 Reply Last reply
                                        0
                                        • apollon77A apollon77

                                          @sputnik24 Vor der Umstellung graut mir noch ein bissl meine v1-db hat gerade auf der platte 54GB ... keine ahnung was das als export file wird. Was hatte deine denn auf der platte wo 10GB export drauf wurden? :)

                                          ? Offline
                                          ? Offline
                                          A Former User
                                          wrote on last edited by
                                          #168

                                          @apollon77 hmpff bei mir sinds:

                                          64445168 /var/lib/influxdb/

                                          das bedeutet, Snickers...

                                          1 Reply Last reply
                                          0
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          556

                                          Online

                                          32.6k

                                          Users

                                          82.2k

                                          Topics

                                          1.3m

                                          Posts
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Login

                                          • Don't have an account? Register

                                          • Login or register to search.
                                          • First post
                                            Last post
                                          0
                                          • Home
                                          • Recent
                                          • Tags
                                          • Unread 0
                                          • Categories
                                          • Unreplied
                                          • Popular
                                          • GitHub
                                          • Docu
                                          • Hilfe