Skip to content
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo
  1. ioBroker Community Home
  2. Deutsch
  3. Tester
  4. Test Adapter influxdb 2.0

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.2k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    1.9k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    15
    1
    2.2k

Test Adapter influxdb 2.0

Geplant Angeheftet Gesperrt Verschoben Tester
293 Beiträge 43 Kommentatoren 70.5k Aufrufe 43 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • S sebi85

    Hallo zusammen,

    ich habe heute Nachmittag ein Update von der Version 2.0.0 auf die 2.1.1 durchgeführt.

    Seit dem erhalte ich allerdings nur noch Influx-Protokollierungen mit ack == null und from == null für die jeweiligen Devices.

    In meiner Influx-DB habe ich nun jeweils zwei Messpunkte pro Device - Beispiel:

    f7f86c8f-021d-4dba-8f2d-76a73978a72e-image.png

    Vor dem Update wurden alle Werte in den alten DP geschrieben:
    e06eb752-5096-40ab-b6d1-17434cfa241d-image.png

    Um 14:02 Uhr wurde dann von mir das Update auf die neue Version eingespielt. Das influx-Token ging bei dem Update kaputt und musste neu gesetzt werden, das hatte ich dann erst gegen 15:00 Uhr aktualisiert, daher gibt es ca. 1 Std. keine weiteren Einträge.

    Nach der Aktualisierung des Tokens wurden die Daten allerdings in den neuen Datenpunkt geschrieben:
    f2e6581b-a92b-4053-9c33-25e19c4fd27a-image.png

    Somit passen nun leider sämtliche Grafana-Dashboards nicht mehr. Hatte sich hier zwischen den Versionen etwas geändert oder müssen zusätzliche Einstellungen vorgenommen werden?

    Danke und viele Grüße,
    Sebastian

    apollon77A Online
    apollon77A Online
    apollon77
    schrieb am zuletzt editiert von apollon77
    #155

    @sebi85 Du hast hier gelesen das das Logging Format zwischen 2.0 und 2.1 geändert wurde?? Scroll mal ein paar Tage hoch hier in diesem thread

    Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

    • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
    • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
    S 1 Antwort Letzte Antwort
    0
    • apollon77A apollon77

      @sebi85 Du hast hier gelesen das das Logging Format zwischen 2.0 und 2.1 geändert wurde?? Scroll mal ein paar Tage hoch hier in diesem thread

      S Offline
      S Offline
      sebi85
      schrieb am zuletzt editiert von
      #156

      @apollon77 ich hatte "nur" die Changelog im Fokus, da hatte ich keinen Hinweis auf eine Änderung des Logformats gesehen.

      Danke für den Hinweis, dann versuche ich mal die Daten irgendwie zu aggregieren.

      1 Antwort Letzte Antwort
      1
      • apollon77A Online
        apollon77A Online
        apollon77
        schrieb am zuletzt editiert von
        #157

        Ok,

        der wunderbare @Excodibur hat Euch @sebi85 und @sunny1081 erhört und für InfluxDB 2 eine Einstellung eingeführt mit der man wählen kann wie die Daten abgelegt werden sollen. Im GitHub Readme stehen auch Infos dazu.

        Also könntet Ihr jetzt die Daten die euch die 2.1 "falsch" reingeschrieben hat wegwerfen oder irgendwie umstellen (sorry das macht der Adapter nicht für euch). Das neue mit der Einstellung müsste mit dem Format der 2.0 identisch sein.
        Oder Ihr fangt nochmal mit einer leeren DB an und schaut wie Ihr die alten Daten reinbekommt.

        Bitte versucht es mal. Das neue ist erstmal auf GitHub: Von dort installieren und danach manuell Adapter neu starten. Dann in die Settings und unter "Erweiterte Einstellungen" das neue aktivieren. Bitte Feedback geben. Der Adapter checks das Format der existierenden Daten und meckert gegebenenfalls.

        Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

        • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
        • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
        ExcodiburE 1 Antwort Letzte Antwort
        1
        • apollon77A apollon77

          Ok,

          der wunderbare @Excodibur hat Euch @sebi85 und @sunny1081 erhört und für InfluxDB 2 eine Einstellung eingeführt mit der man wählen kann wie die Daten abgelegt werden sollen. Im GitHub Readme stehen auch Infos dazu.

          Also könntet Ihr jetzt die Daten die euch die 2.1 "falsch" reingeschrieben hat wegwerfen oder irgendwie umstellen (sorry das macht der Adapter nicht für euch). Das neue mit der Einstellung müsste mit dem Format der 2.0 identisch sein.
          Oder Ihr fangt nochmal mit einer leeren DB an und schaut wie Ihr die alten Daten reinbekommt.

          Bitte versucht es mal. Das neue ist erstmal auf GitHub: Von dort installieren und danach manuell Adapter neu starten. Dann in die Settings und unter "Erweiterte Einstellungen" das neue aktivieren. Bitte Feedback geben. Der Adapter checks das Format der existierenden Daten und meckert gegebenenfalls.

          ExcodiburE Offline
          ExcodiburE Offline
          Excodibur
          Developer
          schrieb am zuletzt editiert von
          #158

          Die Doku zu dem Feature findet ihr hier: https://github.com/ioBroker/ioBroker.influxdb/blob/master/README.md#Store-metadata-information-as-tags-instead-of-fields

          Das funktioniert nur bei Influx 2, d.h. ihr sollte dann in der Adapter Konfiguration die Verwendung von Tags per Checkbox aktivieren können. Wie von Apollon beschrieben, funktioniert das nicht mit alten DBs, die q, from und ack noch in fields speichern. Der Adapter gibt dann in dem Fall eine Fehlermeldung aus und stoppt. Am einfachsten mit einer neuen, leeren DB testen.

          S 1 Antwort Letzte Antwort
          1
          • ExcodiburE Excodibur

            Die Doku zu dem Feature findet ihr hier: https://github.com/ioBroker/ioBroker.influxdb/blob/master/README.md#Store-metadata-information-as-tags-instead-of-fields

            Das funktioniert nur bei Influx 2, d.h. ihr sollte dann in der Adapter Konfiguration die Verwendung von Tags per Checkbox aktivieren können. Wie von Apollon beschrieben, funktioniert das nicht mit alten DBs, die q, from und ack noch in fields speichern. Der Adapter gibt dann in dem Fall eine Fehlermeldung aus und stoppt. Am einfachsten mit einer neuen, leeren DB testen.

            S Offline
            S Offline
            sunny1081
            schrieb am zuletzt editiert von
            #159

            @excodibur Besten Dank dafür, es funktioniert.

            Nur den alten Bucket konnte ich nicht nutzen. Wie wird den ausgemacht ob bereits TAGS genutzt wurden. Initial wurden den Daten mit TAGS geschrieben und dann einige wenige Tage mit Feldern, kann jetzt aber nicht mit TAGS weiter schreiben.

            apollon77A 1 Antwort Letzte Antwort
            0
            • S sunny1081

              @excodibur Besten Dank dafür, es funktioniert.

              Nur den alten Bucket konnte ich nicht nutzen. Wie wird den ausgemacht ob bereits TAGS genutzt wurden. Initial wurden den Daten mit TAGS geschrieben und dann einige wenige Tage mit Feldern, kann jetzt aber nicht mit TAGS weiter schreiben.

              apollon77A Online
              apollon77A Online
              apollon77
              schrieb am zuletzt editiert von
              #160

              @sunny1081 soweit ich weiß so:

              Mit fieldKeys und tagKeys kann man das Schema untersuchen. Wenn der Adapter da sieht, das für q, from, ack tags oder fields benutzt wurden, gibt der ggf einen error aus

              Reicht das? Sonst muss @Excodibur mehr sagen welche Magie er da gebaut hat.

              Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

              • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
              • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
              ? 1 Antwort Letzte Antwort
              0
              • apollon77A apollon77

                @sunny1081 soweit ich weiß so:

                Mit fieldKeys und tagKeys kann man das Schema untersuchen. Wenn der Adapter da sieht, das für q, from, ack tags oder fields benutzt wurden, gibt der ggf einen error aus

                Reicht das? Sonst muss @Excodibur mehr sagen welche Magie er da gebaut hat.

                ? Offline
                ? Offline
                Ein ehemaliger Benutzer
                schrieb am zuletzt editiert von
                #161

                @apollon77

                Hmm mit V2.2.20 ist irgendwie die Haltezeit der Daten verschwunden...???

                0d4bd94b-af21-417d-a5c5-5a7fc8c84da6-grafik.png

                apollon77A 1 Antwort Letzte Antwort
                0
                • ? Ein ehemaliger Benutzer

                  @apollon77

                  Hmm mit V2.2.20 ist irgendwie die Haltezeit der Daten verschwunden...???

                  0d4bd94b-af21-417d-a5c5-5a7fc8c84da6-grafik.png

                  apollon77A Online
                  apollon77A Online
                  apollon77
                  schrieb am zuletzt editiert von
                  #162

                  @ilovegym dann ließ mal Changelog. Das tat noch nie auf Datenpunkt Ebene und daher haben wir es mit der 2.0 dort rausgeworfen. Geht nur auf dB Ebene - da tut es aber jetzt was auch vorher nie tat 😉

                  Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                  • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                  • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                  ? 1 Antwort Letzte Antwort
                  0
                  • apollon77A apollon77

                    @ilovegym dann ließ mal Changelog. Das tat noch nie auf Datenpunkt Ebene und daher haben wir es mit der 2.0 dort rausgeworfen. Geht nur auf dB Ebene - da tut es aber jetzt was auch vorher nie tat 😉

                    ? Offline
                    ? Offline
                    Ein ehemaliger Benutzer
                    schrieb am zuletzt editiert von
                    #163

                    @apollon77 ach das war das.. 😄 gelesen, vergessen, gewundert... 😄

                    1 Antwort Letzte Antwort
                    0
                    • apollon77A apollon77

                      Ich sage jetzt mal frech: Versucht es doch mal ... und schreibt es for uns und die anderen auf. Ich denke "adapter stoppen, updaten, Konfig ändern (ip, port, settings) und starten sollte es sein 😉

                      S Offline
                      S Offline
                      Sputnik24
                      schrieb am zuletzt editiert von
                      #164

                      @apollon77 said in Test Adapter influxdb 2.0:

                      Ich sage jetzt mal frech: Versucht es doch mal ... und schreibt es for uns und die anderen auf. Ich denke "adapter stoppen, updaten, Konfig ändern (ip, port, settings) und starten sollte es sein 😉

                      Sorry für die späte Rückmeldung. Ich hab die Migration etwas hinausgezögert und wollte das in aller Ruhe machen. Das Mistwetter bietet sich nun dafür an.

                      Lange Rede: Ich hab heute erfolgreich von v1 auf v2 manuell migriert. Bei mir läuft influxdb als Docker Container auf einer Synology. Hier meine Schritte:

                      1. Docker Container v2 erstellen, aber noch nicht starten - Umgebungsvariablen passend für setup setzen, z.B.:
                        DOCKER_INFLUXDB_INIT_MODE: setup
                        DOCKER_INFLUXDB_INIT_BUCKET: iobroker
                        DOCKER_INFLUXDB_INIT_ORG: iobroker
                        DOCKER_INFLUXDB_INIT_USERNAME: iobroker
                        DOCKER_INFLUXDB_INIT_PASSWORD: iobroker

                      2. optional: Aktuelle v1 DB mit BackItUp sichern (optional, da wir sowieso einen neuen Docker Container für v2 anlegen und damit v1 als Backup vorhanden bleibt)

                      3. influxDB Instanz stoppen

                      4. Im Terminal von Docker Container v1 Datenbank exportieren:
                        service influxdb stop
                        influx_inspect export -waldir /var/lib/influxdb/wal -datadir /var/lib/influxdb/data -database "iobroker" -retention "autogen" -out /var/lib/influxdb/export.db -lponly

                      5. Docker Container v1 stoppen

                      6. Docker Container v2 starten und setup abwarten

                      7. export.db in den gemounteten Data-Ordner Docker Container v2 verschieben

                      8. Im Terminmal von Docker Containver v2 export db importieren:
                        influx write --bucket iobroker --file /var/lib/influxdb2/export.db

                      9. influxDB Instanz auf 2.x ändern, token eingeben und starten

                      Die export.db war bei mir fast 10 GByte groß, entsprechend hat der Import gute 1,5 Stunden gedauert, der Export ging mit ca. 10 min deutlich schneller.

                      Meine Motivation für die Migration war übrigens, dass flux nach Kalendermonaten und Jahren Daten aggregieren kann. Allerdings gibt es bereits einen ersten Wermutstropfen: flux kann aktuell keine Zeitzonen bei der Datenaggregierung. Damit sind die aggregierten Werte leicht falsch, was v.a. bei den Tageswerten deutlich spürbar ist, bei den Monatswerten weniger ins Gewicht fällt. Workaround wäre, für die Tageswerte mit influxql weiterzuarbeiten, allerdings bekomme ich grad die v1 Authentifizierung nicht hin, oder mit fixen timeshifts zu arbeiten, was aufgrund der Zeitumstellung blöd ist.

                      Insgesamt bin ich aber froh, dass es dann doch so reibungslos funktioniert hat. Leider hat Grafana noch kein QueryBuilder für flux, aber gut.

                      Danke für den tollen Support hier.

                      apollon77A 1 Antwort Letzte Antwort
                      1
                      • S Sputnik24

                        @apollon77 said in Test Adapter influxdb 2.0:

                        Ich sage jetzt mal frech: Versucht es doch mal ... und schreibt es for uns und die anderen auf. Ich denke "adapter stoppen, updaten, Konfig ändern (ip, port, settings) und starten sollte es sein 😉

                        Sorry für die späte Rückmeldung. Ich hab die Migration etwas hinausgezögert und wollte das in aller Ruhe machen. Das Mistwetter bietet sich nun dafür an.

                        Lange Rede: Ich hab heute erfolgreich von v1 auf v2 manuell migriert. Bei mir läuft influxdb als Docker Container auf einer Synology. Hier meine Schritte:

                        1. Docker Container v2 erstellen, aber noch nicht starten - Umgebungsvariablen passend für setup setzen, z.B.:
                          DOCKER_INFLUXDB_INIT_MODE: setup
                          DOCKER_INFLUXDB_INIT_BUCKET: iobroker
                          DOCKER_INFLUXDB_INIT_ORG: iobroker
                          DOCKER_INFLUXDB_INIT_USERNAME: iobroker
                          DOCKER_INFLUXDB_INIT_PASSWORD: iobroker

                        2. optional: Aktuelle v1 DB mit BackItUp sichern (optional, da wir sowieso einen neuen Docker Container für v2 anlegen und damit v1 als Backup vorhanden bleibt)

                        3. influxDB Instanz stoppen

                        4. Im Terminal von Docker Container v1 Datenbank exportieren:
                          service influxdb stop
                          influx_inspect export -waldir /var/lib/influxdb/wal -datadir /var/lib/influxdb/data -database "iobroker" -retention "autogen" -out /var/lib/influxdb/export.db -lponly

                        5. Docker Container v1 stoppen

                        6. Docker Container v2 starten und setup abwarten

                        7. export.db in den gemounteten Data-Ordner Docker Container v2 verschieben

                        8. Im Terminmal von Docker Containver v2 export db importieren:
                          influx write --bucket iobroker --file /var/lib/influxdb2/export.db

                        9. influxDB Instanz auf 2.x ändern, token eingeben und starten

                        Die export.db war bei mir fast 10 GByte groß, entsprechend hat der Import gute 1,5 Stunden gedauert, der Export ging mit ca. 10 min deutlich schneller.

                        Meine Motivation für die Migration war übrigens, dass flux nach Kalendermonaten und Jahren Daten aggregieren kann. Allerdings gibt es bereits einen ersten Wermutstropfen: flux kann aktuell keine Zeitzonen bei der Datenaggregierung. Damit sind die aggregierten Werte leicht falsch, was v.a. bei den Tageswerten deutlich spürbar ist, bei den Monatswerten weniger ins Gewicht fällt. Workaround wäre, für die Tageswerte mit influxql weiterzuarbeiten, allerdings bekomme ich grad die v1 Authentifizierung nicht hin, oder mit fixen timeshifts zu arbeiten, was aufgrund der Zeitumstellung blöd ist.

                        Insgesamt bin ich aber froh, dass es dann doch so reibungslos funktioniert hat. Leider hat Grafana noch kein QueryBuilder für flux, aber gut.

                        Danke für den tollen Support hier.

                        apollon77A Online
                        apollon77A Online
                        apollon77
                        schrieb am zuletzt editiert von
                        #165

                        @sputnik24 Vor der Umstellung graut mir noch ein bissl meine v1-db hat gerade auf der platte 54GB ... keine ahnung was das als export file wird. Was hatte deine denn auf der platte wo 10GB export drauf wurden? 🙂

                        Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                        • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                        • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                        S ? 2 Antworten Letzte Antwort
                        0
                        • apollon77A apollon77

                          @sputnik24 Vor der Umstellung graut mir noch ein bissl meine v1-db hat gerade auf der platte 54GB ... keine ahnung was das als export file wird. Was hatte deine denn auf der platte wo 10GB export drauf wurden? 🙂

                          S Offline
                          S Offline
                          Sputnik24
                          schrieb am zuletzt editiert von
                          #166

                          @apollon77 Autsch. Bei mir hatte /var/lib/influxdb 658 MByte

                          apollon77A 1 Antwort Letzte Antwort
                          0
                          • S Sputnik24

                            @apollon77 Autsch. Bei mir hatte /var/lib/influxdb 658 MByte

                            apollon77A Online
                            apollon77A Online
                            apollon77
                            schrieb am zuletzt editiert von apollon77
                            #167

                            @sputnik24 Krass ... Faktor fast 20? wtf

                            Mein ioBroker hat 34GB ... mit faktor 20 also ca. 600GB
                            Na dann überlege ich mal wie ich das storage technisch mache :-)) Oder ich muss zeitraummässig migrieren

                            Wieviel ists eigentlich nach der Migration auf Platte? Auch grob die 658MB?

                            aahh man kann das File auch compressen ... kannst du mal ein "gzip 10GBfile" machen und sagen was rauskommt?

                            Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                            • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                            • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                            1 Antwort Letzte Antwort
                            0
                            • apollon77A apollon77

                              @sputnik24 Vor der Umstellung graut mir noch ein bissl meine v1-db hat gerade auf der platte 54GB ... keine ahnung was das als export file wird. Was hatte deine denn auf der platte wo 10GB export drauf wurden? 🙂

                              ? Offline
                              ? Offline
                              Ein ehemaliger Benutzer
                              schrieb am zuletzt editiert von
                              #168

                              @apollon77 hmpff bei mir sinds:

                              64445168 /var/lib/influxdb/

                              das bedeutet, Snickers...

                              1 Antwort Letzte Antwort
                              0
                              • R Offline
                                R Offline
                                robbsen
                                schrieb am zuletzt editiert von
                                #169

                                Hallo Zusammen,

                                habe vor ca. 2-3 Wochen meine alte Influx DB 1.8.3 aufgegeben, Influx 2.x neu aufgesetzt (Proxmox Container) und den Adapter installiert.
                                Ich habe seitdem allerdings Probleme mit dem Adapter oder der Datenbank selber. Die Daten werden zwar geschrieben und sind in der Datenbank vorhanden, aber der Adapter verliert regelmäßig den Kontakt.

                                Ich hatte zuerst gehofft das Problem behebt sich von alleine durch die fleißigen Fehlerkorrekturen. Aber bisher leider nicht.

                                P.s. ich habe ergänzend das Problem, dass ich auch aus der Oberfläche von influxdb (siehe Bild) automatisch und schnell rausgeschmissen werde. ggf. liegt das Problem also auch bei Influx und nicht dem Adapter. Bin mir aber nicht sicher wie ich das überprüfen könnte.

                                Hat einer ähnliche Probleme oder eine Lösung?
                                cfbe4621-6c5c-4c46-a618-1c2f54111bd7-image.png

                                2021-09-02 06:13:56.095 - error: influxdb.0 (339) Error during ping: Error: connect ECONNREFUSED 192.168.2.209:8086. Attempting reconnect.
                                2021-09-02 06:14:06.095 - info: influxdb.0 (339) Connecting http://192.168.2.209:8086 ...
                                2021-09-02 06:14:06.095 - info: influxdb.0 (339) Influx DB Version used: 2.x
                                2021-09-02 06:14:06.097 - error: influxdb.0 (339) Error: connect ECONNREFUSED 192.168.2.209:8086
                                2021-09-02 06:14:16.097 - info: influxdb.0 (339) Connecting http://192.168.2.209:8086 ...
                                2021-09-02 06:14:16.098 - info: influxdb.0 (339) Influx DB Version used: 2.x
                                2021-09-02 06:14:16.099 - error: influxdb.0 (339) Error: connect ECONNREFUSED 192.168.2.209:8086
                                2021-09-02 06:14:26.099 - info: influxdb.0 (339) Connecting http://192.168.2.209:8086 ...
                                2021-09-02 06:14:26.099 - info: influxdb.0 (339) Influx DB Version used: 2.x
                                2021-09-02 06:14:26.107 - info: influxdb.0 (339) Applying retention policy for iobroker to 63072000 seconds. Shard Group Duration (calculated): 604800 seconds
                                2021-09-02 06:14:26.169 - info: influxdb.0 (339) Connected!
                                
                                apollon77A R 2 Antworten Letzte Antwort
                                0
                                • R robbsen

                                  Hallo Zusammen,

                                  habe vor ca. 2-3 Wochen meine alte Influx DB 1.8.3 aufgegeben, Influx 2.x neu aufgesetzt (Proxmox Container) und den Adapter installiert.
                                  Ich habe seitdem allerdings Probleme mit dem Adapter oder der Datenbank selber. Die Daten werden zwar geschrieben und sind in der Datenbank vorhanden, aber der Adapter verliert regelmäßig den Kontakt.

                                  Ich hatte zuerst gehofft das Problem behebt sich von alleine durch die fleißigen Fehlerkorrekturen. Aber bisher leider nicht.

                                  P.s. ich habe ergänzend das Problem, dass ich auch aus der Oberfläche von influxdb (siehe Bild) automatisch und schnell rausgeschmissen werde. ggf. liegt das Problem also auch bei Influx und nicht dem Adapter. Bin mir aber nicht sicher wie ich das überprüfen könnte.

                                  Hat einer ähnliche Probleme oder eine Lösung?
                                  cfbe4621-6c5c-4c46-a618-1c2f54111bd7-image.png

                                  2021-09-02 06:13:56.095 - error: influxdb.0 (339) Error during ping: Error: connect ECONNREFUSED 192.168.2.209:8086. Attempting reconnect.
                                  2021-09-02 06:14:06.095 - info: influxdb.0 (339) Connecting http://192.168.2.209:8086 ...
                                  2021-09-02 06:14:06.095 - info: influxdb.0 (339) Influx DB Version used: 2.x
                                  2021-09-02 06:14:06.097 - error: influxdb.0 (339) Error: connect ECONNREFUSED 192.168.2.209:8086
                                  2021-09-02 06:14:16.097 - info: influxdb.0 (339) Connecting http://192.168.2.209:8086 ...
                                  2021-09-02 06:14:16.098 - info: influxdb.0 (339) Influx DB Version used: 2.x
                                  2021-09-02 06:14:16.099 - error: influxdb.0 (339) Error: connect ECONNREFUSED 192.168.2.209:8086
                                  2021-09-02 06:14:26.099 - info: influxdb.0 (339) Connecting http://192.168.2.209:8086 ...
                                  2021-09-02 06:14:26.099 - info: influxdb.0 (339) Influx DB Version used: 2.x
                                  2021-09-02 06:14:26.107 - info: influxdb.0 (339) Applying retention policy for iobroker to 63072000 seconds. Shard Group Duration (calculated): 604800 seconds
                                  2021-09-02 06:14:26.169 - info: influxdb.0 (339) Connected!
                                  
                                  apollon77A Online
                                  apollon77A Online
                                  apollon77
                                  schrieb am zuletzt editiert von
                                  #170

                                  @robbsen Naja ich würde jetzt mal Fragen "Was steht denn im Influxdb log?" ECONNREFUSED heist dad Influxdb die Verbindung ablehnt

                                  Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                  • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                  • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                  1 Antwort Letzte Antwort
                                  0
                                  • ExcodiburE Excodibur

                                    @sunny1081

                                    Wir haben hier nichts geändert. Influx kann pro Datenpunkt nur ein Feld (field) speichern - by design, d.h. entweder value, ack, from, oder q. Da wir hier vier Felder nutzen, gibt es auch vier getrennte Tabellen in derInfluxDB.

                                    Siehe auch folgender Auszug aus der Doku: https://docs.influxdata.com/influxdb/v1.8/concepts/glossary/#point

                                    Each point:
                                    - has a measurement, a tag set, a field key, a field value, and a timestamp;
                                    - is uniquely identified by its series and timestamp.
                                    

                                    Dies hat sich auch nicht zwischen Influx 1.x und 2.x geändert, nur hast du es in Influx 1.x nicht gesehen, da die Darstellung mit SQL-Queries vereinfacht wurde und man Influx dann schnell mal eher wie eine relationale Datenbank verwenden konnte, d.h. mehrere Werte pro Measurement gespeichert hat. Intern wurde es aber immer anders abgebildet, halt wie in einer Time-Series DB verteilt auf mehrere Datenpunkte.

                                    Du kannst auch in deiner alten Influx 1.x DB schon Flux-Queries absetzen, die dir deine "echten" Datenunkte dann ebenfalls auf mehreren Tabellen ausgeben, z.B. mit

                                    influx -type=flux -path-prefix /api/v2/query -execute 'from(bucket: "iobroker/global") |> range(start: 2020-08-06T15:00:00.000Z, stop: 2022-08-07T15:39:34.350Z)'
                                    

                                    Bei Influx2 gehört InfluxQL nun nicht mehr zum Standard, wobei du wahrscheinlich die gewohnten SQL-Statements noch immer über Compatibility Endpoints absetzen kannst. Ich gehe aber davon aus, dass das irgendwann verschwinden wird.

                                    Bei Flux-Queries ist die pivot Funktion hier zum Zusammenfügen meines Wissens nach der offiziell von Influx vorgesehene Weg um an eine ähnliche Darstellung der Daten zu gelangen. D.h. wir können hier nicht viel mehr machen, als die Empfehlung weiter geben. Der Schlüssel ist immer Messungsname + Zeitstempel (Influx ist eine Time-Series-DB), somit sehe ich hier kein Problem mit Inkonsistenzen.

                                    Was Influx-seitig ginge, ist zu einem Measurement-Datenpunkt neben dem einen Feld "value" noch beliebig viele Tags dran zu hängen und so ack, from und q direkt dort abzubilden. Dann hat man ohne weiteren Query-Aufwand alles in einer Tabelle, allerdings würden bestehende Tabellen aus Influx 1.x nicht nach 2.x migriert und weiter verwendet werden können, da dort nur mit "fields", statt "tags" gearbeitet wird.

                                    S Nicht stören
                                    S Nicht stören
                                    stenmic
                                    schrieb am zuletzt editiert von
                                    #171

                                    @excodibur mir ist aufgefallen, dass bei mir die Einstellung "log changes intervals" nur greift wenn der Haken bei "Nur Änderungen aufzeichnen" aktiviert ist (was ja auch Sinn macht, wenn von euch so gewollt).
                                    Jedoch sollte dann das Feld inaktiv sein, wenn der Haken nicht gesetzt wurde.

                                    Image 052.jpg

                                    apollon77A 1 Antwort Letzte Antwort
                                    0
                                    • S stenmic

                                      @excodibur mir ist aufgefallen, dass bei mir die Einstellung "log changes intervals" nur greift wenn der Haken bei "Nur Änderungen aufzeichnen" aktiviert ist (was ja auch Sinn macht, wenn von euch so gewollt).
                                      Jedoch sollte dann das Feld inaktiv sein, wenn der Haken nicht gesetzt wurde.

                                      Image 052.jpg

                                      apollon77A Online
                                      apollon77A Online
                                      apollon77
                                      schrieb am zuletzt editiert von apollon77
                                      #172

                                      @stenmic beides Korrekt. Legst uns bitte ein GitHub issue an? Gleiches gilt auch für min Change Value und so

                                      Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                      • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                      • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                      S 1 Antwort Letzte Antwort
                                      0
                                      • apollon77A apollon77

                                        @stenmic beides Korrekt. Legst uns bitte ein GitHub issue an? Gleiches gilt auch für min Change Value und so

                                        S Nicht stören
                                        S Nicht stören
                                        stenmic
                                        schrieb am zuletzt editiert von
                                        #173

                                        @apollon77 eben gemacht

                                        1 Antwort Letzte Antwort
                                        1
                                        • apollon77A apollon77
                                          Aktuelle Test Version 2.0.0
                                          Veröffentlichungsdatum 29.06.2021
                                          Github Link https://github.com/ioBroker/ioBroker.influxdb

                                          Der InfluxDB Adapter kommt mit der InfluxDB 1.x sehr gut klar ... seit kurzem gibt es aber auch eine InfluxDB 2.0 als Nachfolger, wo einiges anders ist.

                                          Daher hat @Excodibur sich der Aufgabe angenommen den Influx-DB Adapter für InfluxDB 2.0 fit zu machen. Rausgekommen ist jetzt die erste Testversion der 2.0.0 des Adapters, der mit InfluxDB 1.x und auch mit 2.x klarkommt!

                                          Daher Bitte unterstützt uns beim Testen!

                                          Für InfluxDB 1.x Nutzer
                                          Hier sollte der Adapter auch in der neuen Version genau so funktionieren wie bisher auch.

                                          Für InfluxDB 2.x Nutzer
                                          Hier in der Konfiguration "2.x" als InfluxDB Version wählen. Angegeben werden müssen dann die zu nutzende "Organization" und ein "Token".

                                          • Als "Organization" sollte an sich der Name oder die ID funktionieren.
                                          • Als Token geht in jedem Fall der "Owner Token" der ganz zu Beginn des Influx-DB-Setup angelegt wird. Wir haben es bisher nicht geschafft einen weiteren Token anzulegen der dann Zugriffsrechte auf die Organization hatte selbst mit allen Rechten. Also hier nehmen wir gern Eure Erfahrungen 🙂

                                          Weiterhin sollte das Speichern von Daten soweit gehen - zumindestens zeigen das die Tests.

                                          Known Issues:

                                          • getHistory selektiert zelweise zuviele Daten. Wer weiss wie man mit Flux Queries mehrere Output-Tables verhindert oder so joinen kann das "limit"s greifen bitte melden 🙂
                                          • Wenn Buffered-Writes genutzt werden und hier Datentypunterschiede auftreten werden diese nicht als Fehler von der InfluxDB gemeldet und daher kann die automatische Typkorrektur nicht erfolgen im Adapter.

                                          Für Restliche Issues bitte GitHub Issues anlegen beim Adapter!

                                          Ingo & Excodibur

                                          T Offline
                                          T Offline
                                          tigiba
                                          schrieb am zuletzt editiert von tigiba
                                          #174

                                          Hallo Allerseits,

                                          Im Admin Interface bei den Objekten kann man sich ja die gespeicherten Daten hinter dem Tab "Verlaufsdaten" als Tabelle bzw. bei "Diagramm" als Linie mit Fläche anzeigen lassen.

                                          Bei diesem Diagramm hab ich beobachtet, dass die 2. Hälfte des Diagramms nicht als Teil der Linie und Fläche dargestellt werden, sondern nur bei Mouseover als Punkt mit Popup sichtbar werden:

                                          9db845d9-a0ce-47c1-9304-4e0ee7f054f4-image.png

                                          Ich dachte ursprünglich, die unsichtbaren Daten wären jener Teil, der noch nicht in die influxdb geschrieben wurden (Einstellungen Schreibintervall & "Schreibaktionen zusammenfassen") - Aber auch wenn ein deutlich in der Vergangenheit liegendes Intervall auswähle, fehlt die 2. Hälfte des Diagramms.

                                          apollon77A 1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          716

                                          Online

                                          32.4k

                                          Benutzer

                                          81.4k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe