Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. ioBroker Allgemein
  4. History Adapter - exportieren / migrieren nach InfluxDB

NEWS

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    11
    1
    334

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    24
    1
    1.6k

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    9.5k

History Adapter - exportieren / migrieren nach InfluxDB

Geplant Angeheftet Gesperrt Verschoben ioBroker Allgemein
influxdbhistoryexportierenmigrieren
52 Beiträge 15 Kommentatoren 7.5k Aufrufe 14 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • B Bambulko

    @bambulko Ja, es läuft jetzt, aber ich bekomme ständig Fehlermeldungen:

    Check: 20230530 / pos -1
      datapoints reduced from 202 --> 117
      type mismatch number vs. string: fixed=false --> null
      type mismatch number vs. string: fixed=false --> null
      type mismatch number vs. string: fixed=false --> null
      sorted out 3 values
    3 errors happened while storing data
    DONE
    
    
    apollon77A Offline
    apollon77A Offline
    apollon77
    schrieb am zuletzt editiert von
    #41

    @bambulko naja dann schau mal die rohdaten an was es sein kann. History Ost-Berlin Datentypen egal aber bei influxdb ist der wichtig.

    Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

    • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
    • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
    B 1 Antwort Letzte Antwort
    0
    • apollon77A apollon77

      @bambulko naja dann schau mal die rohdaten an was es sein kann. History Ost-Berlin Datentypen egal aber bei influxdb ist der wichtig.

      B Offline
      B Offline
      Bambulko
      schrieb am zuletzt editiert von Bambulko
      #42

      @apollon77 Irgendwie verstehe ich das immer noch nicht. Manchmal macht er ein paar Tage, meistens jedoch nur einen Tag. Das konvertieren scheint dann zu klappen. Aber das für jeden Tag neu starten ist doch etwas mühsam.

      Dies ist der Befehl, den ich verwende.

      /opt/iobroker/node_modules/iobroker.history/converter/history2db.js influxdb.0 info 20230513 /opt/iobroker/hist/ 2 --logChangesOnly 30 --processNonExistingValuesOnly
      
      
      apollon77A 1 Antwort Letzte Antwort
      0
      • B Bambulko

        @apollon77 Irgendwie verstehe ich das immer noch nicht. Manchmal macht er ein paar Tage, meistens jedoch nur einen Tag. Das konvertieren scheint dann zu klappen. Aber das für jeden Tag neu starten ist doch etwas mühsam.

        Dies ist der Befehl, den ich verwende.

        /opt/iobroker/node_modules/iobroker.history/converter/history2db.js influxdb.0 info 20230513 /opt/iobroker/hist/ 2 --logChangesOnly 30 --processNonExistingValuesOnly
        
        
        apollon77A Offline
        apollon77A Offline
        apollon77
        schrieb am zuletzt editiert von
        #43

        @bambulko am besten poste mal die ganze Ausgabe und Aufruf in eine GitHub issue. Kann ich mir nach dem Urlaub ansehen

        Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

        • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
        • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
        W 1 Antwort Letzte Antwort
        0
        • ? Ein ehemaliger Benutzer

          @spoeh-man

          Ich habe das noch nicht gemacht, oder gebraucht. Nur nach der von mir verlinkten Seite sind das ja mehrere Punkte, die Du machen musst.
          Wenn ich mir die Meldung von Dir, in Rot, anschaue dann hat er nur 16 Werte gefunden und mit einem Wert 1671646285896 Überschrieben, wenn das ein Unix Zeitstempel ist dann liegt der in der Zukunft.

          Kannst Du nach dem ersten Schritt, einmal in die erzeugten .json Files schauen was da so drin steht. Ansonsten müsste ich mir mal den history adapter installieren ein paar Stunden Daten sammeln und das dann auch mal versuchen.

          Schritt 1

          Empfohlene Vorgehensweise bei der Migration
          
          Zur Migration wird folgender Ablauf empfohlen:
          
              Zuerst die neue Logging Methode aktivieren und alle Datenpunkte richtig konfigurieren. Prüfen, dass alle Werte ankommen wie geplant. Logging erfolgt "doppelt" (in History und im neuen Ziel).
              Analyse-Skripte laufen lassen um den exakten Bereich zu ermitteln, welcher migriert werden soll.
              History Adapter stoppen un die Migration ausführen. Dies kann etwas dauern. Die alten Werte werden hinzugefügt.
              Wenn alles passt (und die Logfiles ausgewertet sind): History Daten löschen und Adapter deaktivieren.
          
          Schritt 1: Aufbereiten und analysieren von vorhandenen Daten
          
          Beim Konvertieren von Daten sollten nur die Daten übertragen werden, die noch nicht in der Zieldatenbank vorhanden sind. Dafür werden je nach gewünschter Zieldatenbank die Skripte analyzeinflux.js oder analyzesql.js genutzt. Hiermit wird zu Beginn einer Datenübernahme geprüft, welche Daten bereits vorhanden sind, um diese lokal in .json Dateien zu speichern. Die .json Dateien werden dann vom eigentlichen Konverter history2db.js Skript verwendet.
          
          Folgende .json Dateien werden erstellt:
          
              frühester Wert für Datenpunkt-ID Der Zeitstempel des allerersten Eintrags für jeden vorhandenen Datenpunkt wird gespeichert und beim Importieren verwendet, um standardmäßig alle neueren Werte zu ignorieren. Es wird davon ausgegangen, dass die Daten ab diesem ersten Eintrag vollständig ausgefüllt sind und alle früheren Werte ansonsten dupliziert würden. Diese Annahme kann beim Import durch Parameter überschrieben werden.
          
              vorhandene Werte pro Tag pro Datenpunkt-ID Die vorhandenen Daten werden pro Tag analysiert und an jedem Tag, an dem bereits Daten vorhanden sind, gespeichert. Dies kann alternativ zu den ersten Daten verwendet werden, um auch "Löcher" in die Daten füllen zu können.
          
          analyzeinflux.js
          
          Dieses Skript sammelt die oben genannten Daten für eine InfluxDB-Instanz.
          
          Verwendung:
          
          node analyzeinflux.js [InfluxDB-Instanz] [Loglevel] [--deepAnalyze]
          
          Beispiel:
          
          node analyzeinflux.js influxdb.0 info --deepAnalyze
          
          Parameter:
          
              Welche InfluxDB-Instanz soll verwendet werden? (Standard: influxdb.0) Wenn benutzt, muss dies der erste Parameter nach dem Skriptnamen sein.
              Loglevel für die Ausgabe (Standard: info). Wenn gesetzt, muss dies der zweite Parameter nach dem Skriptnamen sein.
              --deepAnalyze sammelt auch die vorhandenen Werte pro Tag, standardmäßig wird nur der früheste Wert abgefragt.
          
          Das Skript generiert dann eine oder drei .json-Dateien mit den gesammelten Daten. Diese Dateien werden dann vom eigentlichen Konverter Skript verwendet.
          

          Schritt 2

          History-Daten konvertieren
          
          Das Skript history2db.js verwendet die in Schritt 1 generierten .json Dateien um sie in die Zieldatenbank zu konvertieren. Dabei werden die generierten Dateien untersucht um nur nicht bereits vorhandene Daten zu konvertieren.
          
          Das Skript kann auch ohne vorherigen Analyseschritt 1 ausgeführt werden. Dann müssen jedoch die Startdaten [Date-to-start] als Parameter festgelegt werden und alle vor diesem Zeitpunkt liegende Daten werden konvertiert.
          
          Wenn zuvor eine Analyse ausgeführt wurde und die Datei earliestDBValues.json vorhanden ist, werden nur diese Datenpunkte konvertiert, außer es werden Parameter verwendet, um dies abzuändern.
          
          Wenn zuvor eine Analyse ausgeführt wurde und die Datendateien wurden verwendet, werden diese auch mit allen konvertierten Daten aktualisiert, sodass bei einer zweiten Ausführung normalerweise keine Duplikate generiert werden sollten.
          
          Um die Daten zurückzusetzen, sind die Dateien earliestDBValues.json, existingDBValues.json und/oder existingDBTypes.json zu löschen.
          
          Der Konverter durchläuft dann alle als Daten verfügbaren Tage in der Zeit rückwärts und bestimmt, welche Daten an InfluxDB übertragen werden sollen.
          
              Der Vorgang kann mit "x" oder "Strg-C" abgebrochen werden.
          
          Das Konverter Skript selbst sollte mit allen Verlaufs-Adaptern funktionieren, welche die storeState Methode unterstützen.
          
              Hinweis: Die Migration vieler Daten führt zu einer bestimmten Systemlast, insbesondere wenn Konverter und Zieldatenbankinstanz auf demselben Computer ausgeführt werden. Die Auslastung und Leistung des Systems während der Aktion sollte überwacht werden und möglicherweise der Parameter delayMultiplicator verwendet werden, um ein verzögertes Abarbeiten der Daten zu nutzen.
          
          Verwendung:
          
          node history2db.js [DB-Instanz] [Loglevel] [Date-to-start|0] [path-to-Data] [delayMultiplicator] [--logChangesOnly [relog-Interval(m)]] [--ignoreExistingDBValues] [--processNonExistingValuesOnly] [--processAllDPs] [--simulate]
          
          Beispiel:
          
          node history2db.js influxdb.0 info 20161001 /path/to/data 2 --logChangesOnly 30 --processNonExistingValuesOnly
          
          Mögliche Optionen und Parameter:
          
              DB-Instanz: Instanz an die die Daten gesendet werden. Erforderlicher Parameter. Muss direkt nach dem Skriptnamen angegeben werden sein.
              Loglevel: Loglevel für die Ausgabe (Default: info). Wenn gesetzt, muss dies der zweite Parameter nach dem Skriptnamen stehen.
              Date-to-start: Startdatum im Format yyyymmdd (z. B. 20191028). "0" verwenden um erkannte früheste Werte zu verwenden. Wenn gesetzt, muss dies der dritte Parameter nach dem Skriptnamen sein.
              path-to-Data Pfad zu den Datendateien. Standard iobroker-Installationsverzeichnis: /iobroker-data/history-data. Wenn gesetzt, muss dies der vierte Parameter nach dem Skriptnamen sein.
              delayMultiplicator: Ändert die Verzögerungen zwischen den Aktionen im Skript durch einen Multiplikator. "2" würde bedeuten, dass sich die Verzögerungen verdoppeln, die der Konverter berechnet hat. Wenn gesetzt, muss dies der fünfte Parameter nach dem Skriptnamen sein.
              --logChangesOnly [relog-Interval (m)] Wenn gesetzt, werden die Daten analysiert und reduziert, so dass nur geänderte Werte in InfluxDB gespeichert werden. Zusätzlich kann ein "relog-Interval" in Minuten eingestellt werden, um unveränderte Werte nach diesem Intervall neu zu protokollieren.
              --ignoreExistingDBValues: Mit diesem Parameter werden bereits vorhandene Daten ignoriert und alle Daten in den DB eingefügt. Bitte sicherstellen, dass keine Duplikate generiert werden. Diese Option ist nützlich, um unvollständige Daten zu vervollständigen. Standardmäßig werden nur alle Datenpunkte mit mindestens einem Eintrag in der Datenbank gefüllt. Dies kann von --processAllDPs überschrieben werden
              --processNonExistingValuesOnly: Mit diesem Parameter wird die Datei existingDBValues.json aus dem Analyseskript verwendet und für jeden Tag und Datenpunkt geprüft. In diesem Modus werden die vorhandenen Werte in der DB immer ignoriert und auch nicht aktualisiert. Nach Verwendung dieses Modus bitte einen weiteren Analyselauf durchführen!!!
              --processAllDPs Mit diesem Parameter wird sicher gestellt, dass alle vorhandenen Datenpunkte aus den History-Dateien in die DB übertragen werden, auch wenn diese in der DB noch nicht vorhanden sind.
              --simulate: Aktiviert den Simulationsmodus, d.h. es findet kein richtiges Schreiben statt und auch die Analysedatendateien werden beim Beenden nicht aktualisiert.
          

          VG
          Bernd

          W Offline
          W Offline
          wde
          schrieb am zuletzt editiert von
          #44

          @dp20eic
          da habe ich auch ein Problem:
          root@server2:/opt/iobroker# node analyzeinflux.js influxdb.0 info --deepAnalyze
          Do deep analysis to find holes in data
          InfluxDB-Configuration: {"debounce":1000,"retention":7948800,"dbname":"smarthome","host":"85.215.52.227","protocol":"http","path":"","port":8086,"user":"","organization":"Softwerk","round":4,"seriesBufferMax":0,"seriesBufferFlushInterval":600,"changesRelogInterval":0,"changesMinDelta":0,"reconnectInterval":10000,"pingInterval":15000,"requestTimeout":30000,"validateSSL":true,"dbversion":"2.x","usetags":true,"pingserver":true,"blockTime":0,"debounceTime":0,"disableSkippedValueLogging":false,"enableLogging":false,"customRetentionDuration":365,"relogLastValueOnStart":true}
          Query Data from instance "influxdb.0" (Version 2, Bucket smarthome)
          Datapoints found: 4
          This error originated either by throwing inside of an async function without a catch block, or by rejecting a promise which was not handled with .catch(). The promise rejected with the reason:
          TypeError: Cannot read properties of undefined (reading 'ts')
          at Object.cb (/opt/iobroker/analyzeinflux.js:143:73)
          at change (/opt/iobroker/node_modules/@iobroker/js-controller-adapter/src/lib/adapter/adapter.ts:11102:45)
          at Immediate.<anonymous> (/opt/iobroker/node_modules/@iobroker/db-states-redis/src/lib/states/statesInRedisClient.ts:379:37)
          at processImmediate (node:internal/timers:476:21)

          Thomas BraunT ? 2 Antworten Letzte Antwort
          0
          • apollon77A apollon77

            @bambulko am besten poste mal die ganze Ausgabe und Aufruf in eine GitHub issue. Kann ich mir nach dem Urlaub ansehen

            W Offline
            W Offline
            wde
            schrieb am zuletzt editiert von
            #45

            @apollon77
            da habe ich auch ein Problem:
            root@server2:/opt/iobroker# node analyzeinflux.js influxdb.0 info --deepAnalyze
            Do deep analysis to find holes in data
            InfluxDB-Configuration: {"debounce":1000,"retention":7948800,"dbname":"smarthome","host":"85.215.52.227","protocol":"http","path":"","port":8086,"user":"","organization":"Softwerk","round":4,"seriesBufferMax":0,"seriesBufferFlushInterval":600,"changesRelogInterval":0,"changesMinDelta":0,"reconnectInterval":10000,"pingInterval":15000,"requestTimeout":30000,"validateSSL":true,"dbversion":"2.x","usetags":true,"pingserver":true,"blockTime":0,"debounceTime":0,"disableSkippedValueLogging":false,"enableLogging":false,"customRetentionDuration":365,"relogLastValueOnStart":true}
            Query Data from instance "influxdb.0" (Version 2, Bucket smarthome)
            Datapoints found: 4
            This error originated either by throwing inside of an async function without a catch block, or by rejecting a promise which was not handled with .catch(). The promise rejected with the reason:
            TypeError: Cannot read properties of undefined (reading 'ts')
            at Object.cb (/opt/iobroker/analyzeinflux.js:143:73)
            at change (/opt/iobroker/node_modules/@iobroker/js-controller-adapter/src/lib/adapter/adapter.ts:11102:45)
            at Immediate.<anonymous> (/opt/iobroker/node_modules/@iobroker/db-states-redis/src/lib/states/statesInRedisClient.ts:379:37)
            at processImmediate (node:internal/timers:476:21)

            apollon77A 1 Antwort Letzte Antwort
            0
            • W wde

              @dp20eic
              da habe ich auch ein Problem:
              root@server2:/opt/iobroker# node analyzeinflux.js influxdb.0 info --deepAnalyze
              Do deep analysis to find holes in data
              InfluxDB-Configuration: {"debounce":1000,"retention":7948800,"dbname":"smarthome","host":"85.215.52.227","protocol":"http","path":"","port":8086,"user":"","organization":"Softwerk","round":4,"seriesBufferMax":0,"seriesBufferFlushInterval":600,"changesRelogInterval":0,"changesMinDelta":0,"reconnectInterval":10000,"pingInterval":15000,"requestTimeout":30000,"validateSSL":true,"dbversion":"2.x","usetags":true,"pingserver":true,"blockTime":0,"debounceTime":0,"disableSkippedValueLogging":false,"enableLogging":false,"customRetentionDuration":365,"relogLastValueOnStart":true}
              Query Data from instance "influxdb.0" (Version 2, Bucket smarthome)
              Datapoints found: 4
              This error originated either by throwing inside of an async function without a catch block, or by rejecting a promise which was not handled with .catch(). The promise rejected with the reason:
              TypeError: Cannot read properties of undefined (reading 'ts')
              at Object.cb (/opt/iobroker/analyzeinflux.js:143:73)
              at change (/opt/iobroker/node_modules/@iobroker/js-controller-adapter/src/lib/adapter/adapter.ts:11102:45)
              at Immediate.<anonymous> (/opt/iobroker/node_modules/@iobroker/db-states-redis/src/lib/states/statesInRedisClient.ts:379:37)
              at processImmediate (node:internal/timers:476:21)

              Thomas BraunT Online
              Thomas BraunT Online
              Thomas Braun
              Most Active
              schrieb am zuletzt editiert von
              #46

              @wde sagte in History Adapter - exportieren / migrieren nach InfluxDB:

              da habe ich auch ein Problem:
              root@server2

              Richtig. Warum machst du es denn dann?
              Nie als root herumhampeln, immer mit einem User.

              Linux-Werkzeugkasten:
              https://forum.iobroker.net/topic/42952/der-kleine-iobroker-linux-werkzeugkasten
              NodeJS Fixer Skript:
              https://forum.iobroker.net/topic/68035/iob-node-fix-skript
              iob_diag: curl -sLf -o diag.sh https://iobroker.net/diag.sh && bash diag.sh

              W 1 Antwort Letzte Antwort
              0
              • Thomas BraunT Thomas Braun

                @wde sagte in History Adapter - exportieren / migrieren nach InfluxDB:

                da habe ich auch ein Problem:
                root@server2

                Richtig. Warum machst du es denn dann?
                Nie als root herumhampeln, immer mit einem User.

                W Offline
                W Offline
                wde
                schrieb am zuletzt editiert von
                #47

                @thomas-braun
                Danke für die Unterstützung

                Thomas BraunT 1 Antwort Letzte Antwort
                0
                • W wde

                  @apollon77
                  da habe ich auch ein Problem:
                  root@server2:/opt/iobroker# node analyzeinflux.js influxdb.0 info --deepAnalyze
                  Do deep analysis to find holes in data
                  InfluxDB-Configuration: {"debounce":1000,"retention":7948800,"dbname":"smarthome","host":"85.215.52.227","protocol":"http","path":"","port":8086,"user":"","organization":"Softwerk","round":4,"seriesBufferMax":0,"seriesBufferFlushInterval":600,"changesRelogInterval":0,"changesMinDelta":0,"reconnectInterval":10000,"pingInterval":15000,"requestTimeout":30000,"validateSSL":true,"dbversion":"2.x","usetags":true,"pingserver":true,"blockTime":0,"debounceTime":0,"disableSkippedValueLogging":false,"enableLogging":false,"customRetentionDuration":365,"relogLastValueOnStart":true}
                  Query Data from instance "influxdb.0" (Version 2, Bucket smarthome)
                  Datapoints found: 4
                  This error originated either by throwing inside of an async function without a catch block, or by rejecting a promise which was not handled with .catch(). The promise rejected with the reason:
                  TypeError: Cannot read properties of undefined (reading 'ts')
                  at Object.cb (/opt/iobroker/analyzeinflux.js:143:73)
                  at change (/opt/iobroker/node_modules/@iobroker/js-controller-adapter/src/lib/adapter/adapter.ts:11102:45)
                  at Immediate.<anonymous> (/opt/iobroker/node_modules/@iobroker/db-states-redis/src/lib/states/statesInRedisClient.ts:379:37)
                  at processImmediate (node:internal/timers:476:21)

                  apollon77A Offline
                  apollon77A Offline
                  apollon77
                  schrieb am zuletzt editiert von
                  #48

                  @wde Puuh ... scheinbar kommen da die daten nicht so wie erwartet ...

                  Da müsste man mal über https://github.com/ioBroker/ioBroker.history/blob/master/converter/analyzeinflux.js#L143C33-L143C33 ein console.log einbauen um zu schauen was da genau zurückkommt. Das mit issue im history Adapter dann im GitHub melden

                  Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                  • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                  • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                  W 1 Antwort Letzte Antwort
                  0
                  • W wde

                    @thomas-braun
                    Danke für die Unterstützung

                    Thomas BraunT Online
                    Thomas BraunT Online
                    Thomas Braun
                    Most Active
                    schrieb am zuletzt editiert von
                    #49

                    @wde sagte in History Adapter - exportieren / migrieren nach InfluxDB:

                    Danke für die Unterstützung

                    Kein Problem, gerne.

                    Linux-Werkzeugkasten:
                    https://forum.iobroker.net/topic/42952/der-kleine-iobroker-linux-werkzeugkasten
                    NodeJS Fixer Skript:
                    https://forum.iobroker.net/topic/68035/iob-node-fix-skript
                    iob_diag: curl -sLf -o diag.sh https://iobroker.net/diag.sh && bash diag.sh

                    1 Antwort Letzte Antwort
                    0
                    • W wde

                      @dp20eic
                      da habe ich auch ein Problem:
                      root@server2:/opt/iobroker# node analyzeinflux.js influxdb.0 info --deepAnalyze
                      Do deep analysis to find holes in data
                      InfluxDB-Configuration: {"debounce":1000,"retention":7948800,"dbname":"smarthome","host":"85.215.52.227","protocol":"http","path":"","port":8086,"user":"","organization":"Softwerk","round":4,"seriesBufferMax":0,"seriesBufferFlushInterval":600,"changesRelogInterval":0,"changesMinDelta":0,"reconnectInterval":10000,"pingInterval":15000,"requestTimeout":30000,"validateSSL":true,"dbversion":"2.x","usetags":true,"pingserver":true,"blockTime":0,"debounceTime":0,"disableSkippedValueLogging":false,"enableLogging":false,"customRetentionDuration":365,"relogLastValueOnStart":true}
                      Query Data from instance "influxdb.0" (Version 2, Bucket smarthome)
                      Datapoints found: 4
                      This error originated either by throwing inside of an async function without a catch block, or by rejecting a promise which was not handled with .catch(). The promise rejected with the reason:
                      TypeError: Cannot read properties of undefined (reading 'ts')
                      at Object.cb (/opt/iobroker/analyzeinflux.js:143:73)
                      at change (/opt/iobroker/node_modules/@iobroker/js-controller-adapter/src/lib/adapter/adapter.ts:11102:45)
                      at Immediate.<anonymous> (/opt/iobroker/node_modules/@iobroker/db-states-redis/src/lib/states/statesInRedisClient.ts:379:37)
                      at processImmediate (node:internal/timers:476:21)

                      ? Offline
                      ? Offline
                      Ein ehemaliger Benutzer
                      schrieb am zuletzt editiert von
                      #50

                      @wde sagte in History Adapter - exportieren / migrieren nach InfluxDB:

                      da habe ich auch ein Problem:

                      Moin,

                      ich hätte da zwei wünsche,

                      1. setz Log Output bitte in Code Tags </>, es liest sich besser
                      2. dann hast Du eine PN von mir, da ich das hier nicht breit treten will.

                      VG
                      Bernd

                      1 Antwort Letzte Antwort
                      0
                      • apollon77A apollon77

                        @wde Puuh ... scheinbar kommen da die daten nicht so wie erwartet ...

                        Da müsste man mal über https://github.com/ioBroker/ioBroker.history/blob/master/converter/analyzeinflux.js#L143C33-L143C33 ein console.log einbauen um zu schauen was da genau zurückkommt. Das mit issue im history Adapter dann im GitHub melden

                        W Offline
                        W Offline
                        wde
                        schrieb am zuletzt editiert von
                        #51

                        @apollon77 said in History Adapter - exportieren / migrieren nach InfluxDB:

                        @wde Puuh ... scheinbar kommen da die daten nicht so wie erwartet ...

                        Da müsste man mal über https://github.com/ioBroker/ioBroker.history/blob/master/converter/analyzeinflux.js#L143C33-L143C33 ein console.log einbauen um zu schauen was da genau zurückkommt. Das mit issue im history Adapter dann im GitHub melden

                        das habe ich vor 2 Wochen gemacht, aber leider nichts weiteres erfahren.

                        apollon77A 1 Antwort Letzte Antwort
                        0
                        • W wde

                          @apollon77 said in History Adapter - exportieren / migrieren nach InfluxDB:

                          @wde Puuh ... scheinbar kommen da die daten nicht so wie erwartet ...

                          Da müsste man mal über https://github.com/ioBroker/ioBroker.history/blob/master/converter/analyzeinflux.js#L143C33-L143C33 ein console.log einbauen um zu schauen was da genau zurückkommt. Das mit issue im history Adapter dann im GitHub melden

                          das habe ich vor 2 Wochen gemacht, aber leider nichts weiteres erfahren.

                          apollon77A Offline
                          apollon77A Offline
                          apollon77
                          schrieb am zuletzt editiert von
                          #52

                          @wde Ja, weil scheinbar noch keiner Zeit hatte sich das anzusehen ... Bitte Geduld haben. Wenn du es jetzt geclosed hast machs bitte wieder auf. Closed issues heissen für mich das es erledigt ist.

                          Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                          • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                          • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                          1 Antwort Letzte Antwort
                          0
                          Antworten
                          • In einem neuen Thema antworten
                          Anmelden zum Antworten
                          • Älteste zuerst
                          • Neuste zuerst
                          • Meiste Stimmen


                          Support us

                          ioBroker
                          Community Adapters
                          Donate
                          FAQ Cloud / IOT
                          HowTo: Node.js-Update
                          HowTo: Backup/Restore
                          Downloads
                          BLOG

                          551

                          Online

                          32.5k

                          Benutzer

                          81.7k

                          Themen

                          1.3m

                          Beiträge
                          Community
                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                          ioBroker Community 2014-2025
                          logo
                          • Anmelden

                          • Du hast noch kein Konto? Registrieren

                          • Anmelden oder registrieren, um zu suchen
                          • Erster Beitrag
                            Letzter Beitrag
                          0
                          • Home
                          • Aktuell
                          • Tags
                          • Ungelesen 0
                          • Kategorien
                          • Unreplied
                          • Beliebt
                          • GitHub
                          • Docu
                          • Hilfe