Navigation

    Logo
    • Register
    • Login
    • Search
    • Recent
    • Tags
    • Unread
    • Categories
    • Unreplied
    • Popular
    • GitHub
    • Docu
    • Hilfe
    1. Home
    2. Deutsch
    3. ioBroker Allgemein
    4. History Adapter - exportieren / migrieren nach InfluxDB

    NEWS

    • Neuer Blog: Fotos und Eindrücke aus Solingen

    • ioBroker@Smart Living Forum Solingen, 14.06. - Agenda added

    • ioBroker goes Matter ... Matter Adapter in Stable

    History Adapter - exportieren / migrieren nach InfluxDB

    This topic has been deleted. Only users with topic management privileges can see it.
    • S
      spoeh-man @Guest last edited by

      @dp20eic said in History Adapter - exportieren / migrieren nach InfluxDB:

      node analyzeinflux.js influxdb.0 info --deepAnalyze

      Ja die Dateien sind nahezu leer das heisst dass er die Datenpunkte vom History schon nicht korrekt lesen kann aber im IObroker am Datenpunkt mit dem Zahnrad sehe ich werte ohne ende

      ? 1 Reply Last reply Reply Quote 0
      • ?
        A Former User @spoeh-man last edited by

        @spoeh-man

        Gibt es irgend ein Log-File, das du uns hier zeigen kannst, von den jeweiligen Kommandos?

        VG
        Bernd

        S 1 Reply Last reply Reply Quote 0
        • S
          spoeh-man @Guest last edited by

          @dp20eic

          Klaro

          root@ioBroker:/opt/iobroker/node_modules/iobroker.history/converter# node analyzeinflux.js influxdb.0 info --deepAnalyze
          Do deep analysis to find holes in data
          InfluxDB-Configuration: {"debounce":1000,"retention":0,"dbname":"iobroker","host":"192.168.179.66","protocol":"http","path":"","port":8086,"user":"","organization":"Privat","round":4,"seriesBufferMax":0,"seriesBufferFlushInterval":600,"changesRelogInterval":0,"changesMinDelta":0,"reconnectInterval":10000,"pingInterval":15000,"requestTimeout":30000,"validateSSL":true,"dbversion":"2.x","usetags":false,"pingserver":true,"blockTime":0,"debounceTime":0,"disableSkippedValueLogging":false,"enableLogging":false,"customRetentionDuration":365,"relogLastValueOnStart":true}
          Query Data from instance "influxdb.0" (Version 2, Bucket iobroker)
          Datapoints found: 16
          FirstVal ID: 0_userdata.0.Aquarium.PH_Sollwert, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:37.842243322Z","_time":"2022-12-21T12:42:50.907Z","_value":7.1,"_field":"value","_measurement":"0_userdata.0.Aquarium.PH_Sollwert","ts":1671626570907}] --> Wed Dec 21 2022 12:42:50 GMT+0000 (Coordinated Universal Time)
          DayVals ID: 0_userdata.0.Aquarium.PH_Sollwert: [20221222]
          ValType ID: 0_userdata.0.Aquarium.PH_Sollwert: "number"
          FirstVal ID: 0_userdata.0.Stromzähler.Jahresverbrauch, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:37.99657047Z","_time":"2022-12-21T12:44:03.749Z","_value":3776.586,"_field":"value","_measurement":"0_userdata.0.Stromzähler.Jahresverbrauch","ts":1671626643749}] --> Wed Dec 21 2022 12:44:03 GMT+0000 (Coordinated Universal Time)
          DayVals ID: 0_userdata.0.Stromzähler.Jahresverbrauch: [20221222,20221222]
          ValType ID: 0_userdata.0.Stromzähler.Jahresverbrauch: "number"
          FirstVal ID: 0_userdata.0.Stromzähler.Verbrauch_Abrechnungperiode, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:38.168296659Z","_time":"2022-12-21T12:45:03.386Z","_value":929.594,"_field":"value","_measurement":"0_userdata.0.Stromzähler.Verbrauch_Abrechnungperiode","ts":1671626703386}] --> Wed Dec 21 2022 12:45:03 GMT+0000 (Coordinated Universal Time)
          DayVals ID: 0_userdata.0.Stromzähler.Verbrauch_Abrechnungperiode: [20221222,20221222]
          ValType ID: 0_userdata.0.Stromzähler.Verbrauch_Abrechnungperiode: "number"
          FirstVal ID: Testdatenpunkt, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:38.325955045Z","_time":"2022-12-21T12:14:56.267Z","_value":40,"_field":"value","_measurement":"Testdatenpunkt","ts":1671624896267}] --> Wed Dec 21 2022 12:14:56 GMT+0000 (Coordinated Universal Time)
          DayVals ID: Testdatenpunkt: [20221222]
          ValType ID: Testdatenpunkt: "number"
          FirstVal ID: shelly.0.SHEM-3#84CCA8AD96DA#1.Total.ConsumedPower, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:38.480358464Z","_time":"2022-12-21T12:45:04.531Z","_value":7696383.1,"_field":"value","_measurement":"shelly.0.SHEM-3#84CCA8AD96DA#1.Total.ConsumedPower","ts":1671626704531}] --> Wed Dec 21 2022 12:45:04 GMT+0000 (Coordinated Universal Time)
          DayVals ID: shelly.0.SHEM-3#84CCA8AD96DA#1.Total.ConsumedPower: [20221222,20221222]
          ValType ID: shelly.0.SHEM-3#84CCA8AD96DA#1.Total.ConsumedPower: "number"
          FirstVal ID: shelly.0.SHEM-3#84CCA8AD96DA#1.Total.InstantPower, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:38.638267956Z","_time":"2022-12-21T12:45:24.458Z","_value":436.45,"_field":"value","_measurement":"shelly.0.SHEM-3#84CCA8AD96DA#1.Total.InstantPower","ts":1671626724458}] --> Wed Dec 21 2022 12:45:24 GMT+0000 (Coordinated Universal Time)
          DayVals ID: shelly.0.SHEM-3#84CCA8AD96DA#1.Total.InstantPower: [20221222,20221222]
          ValType ID: shelly.0.SHEM-3#84CCA8AD96DA#1.Total.InstantPower: "number"
          FirstVal ID: sonoff.0.Aquarium_PH.ANALOG_pH0, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:38.857229274Z","_time":"2022-12-21T12:50:25.252Z","_value":7.13,"_field":"value","_measurement":"sonoff.0.Aquarium_PH.ANALOG_pH0","ts":1671627025252}] --> Wed Dec 21 2022 12:50:25 GMT+0000 (Coordinated Universal Time)
          DayVals ID: sonoff.0.Aquarium_PH.ANALOG_pH0: [20221222,20221222]
          ValType ID: sonoff.0.Aquarium_PH.ANALOG_pH0: "number"
          FirstVal ID: sonoff.0.Solaranlage.ENERGY_Power, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:39.023154755Z","_time":"2022-12-21T12:50:42.816Z","_value":2,"_field":"value","_measurement":"sonoff.0.Solaranlage.ENERGY_Power","ts":1671627042816}] --> Wed Dec 21 2022 12:50:42 GMT+0000 (Coordinated Universal Time)
          DayVals ID: sonoff.0.Solaranlage.ENERGY_Power: [20221222,20221222]
          ValType ID: sonoff.0.Solaranlage.ENERGY_Power: "number"
          FirstVal ID: sonoff.0.Solaranlage.ENERGY_Total, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:39.193313178Z","_time":"2022-12-21T12:50:51.15Z","_value":604.922,"_field":"value","_measurement":"sonoff.0.Solaranlage.ENERGY_Total","ts":1671627051150}] --> Wed Dec 21 2022 12:50:51 GMT+0000 (Coordinated Universal Time)
          DayVals ID: sonoff.0.Solaranlage.ENERGY_Total: [20221222,20221222]
          ValType ID: sonoff.0.Solaranlage.ENERGY_Total: "number"
          FirstVal ID: stromzaeler, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:39.346660386Z","_time":"2022-12-21T12:43:52.117Z","_value":47082.578,"_field":"value","_measurement":"stromzaeler","ts":1671626632117}] --> Wed Dec 21 2022 12:43:52 GMT+0000 (Coordinated Universal Time)
          DayVals ID: stromzaeler: [20221222,20221222]
          ValType ID: stromzaeler: "number"
          FirstVal ID: zigbee.0.00158d0001e8a0af.humidity, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:39.50877007Z","_time":"2022-12-21T12:48:43.618Z","_value":51.51,"_field":"value","_measurement":"zigbee.0.00158d0001e8a0af.humidity","ts":1671626923618}] --> Wed Dec 21 2022 12:48:43 GMT+0000 (Coordinated Universal Time)
          DayVals ID: zigbee.0.00158d0001e8a0af.humidity: [20221222,20221222]
          ValType ID: zigbee.0.00158d0001e8a0af.humidity: "number"
          FirstVal ID: zigbee.0.00158d0001e8a0af.temperature, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:39.662470987Z","_time":"2022-12-21T12:48:50.792Z","_value":22.12,"_field":"value","_measurement":"zigbee.0.00158d0001e8a0af.temperature","ts":1671626930792}] --> Wed Dec 21 2022 12:48:50 GMT+0000 (Coordinated Universal Time)
          DayVals ID: zigbee.0.00158d0001e8a0af.temperature: [20221222,20221222]
          ValType ID: zigbee.0.00158d0001e8a0af.temperature: "number"
          FirstVal ID: zigbee.0.00158d00020245b3.humidity, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:39.815973012Z","_time":"2022-12-21T12:49:06.266Z","_value":50.31,"_field":"value","_measurement":"zigbee.0.00158d00020245b3.humidity","ts":1671626946266}] --> Wed Dec 21 2022 12:49:06 GMT+0000 (Coordinated Universal Time)
          DayVals ID: zigbee.0.00158d00020245b3.humidity: [20221222,20221222]
          ValType ID: zigbee.0.00158d00020245b3.humidity: "number"
          FirstVal ID: zigbee.0.00158d00020245b3.temperature, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:39.965729664Z","_time":"2022-12-21T12:49:13.932Z","_value":22.28,"_field":"value","_measurement":"zigbee.0.00158d00020245b3.temperature","ts":1671626953932}] --> Wed Dec 21 2022 12:49:13 GMT+0000 (Coordinated Universal Time)
          DayVals ID: zigbee.0.00158d00020245b3.temperature: [20221222,20221222]
          ValType ID: zigbee.0.00158d00020245b3.temperature: "number"
          FirstVal ID: zigbee.0.00158d00025ea014.humidity, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:40.114570292Z","_time":"2022-12-21T12:49:27.074Z","_value":92.81,"_field":"value","_measurement":"zigbee.0.00158d00025ea014.humidity","ts":1671626967074}] --> Wed Dec 21 2022 12:49:27 GMT+0000 (Coordinated Universal Time)
          DayVals ID: zigbee.0.00158d00025ea014.humidity: [20221222,20221222]
          ValType ID: zigbee.0.00158d00025ea014.humidity: "number"
          FirstVal ID: zigbee.0.00158d00025ea014.temperature, Rows: [{"result":"_result","table":0,"_start":"1970-01-01T00:00:00Z","_stop":"2022-12-22T13:18:40.264161074Z","_time":"2022-12-21T12:49:34.375Z","_value":8.42,"_field":"value","_measurement":"zigbee.0.00158d00025ea014.temperature","ts":1671626974375}] --> Wed Dec 21 2022 12:49:34 GMT+0000 (Coordinated Universal Time)
          DayVals ID: zigbee.0.00158d00025ea014.temperature: [20221222,20221222]
          ValType ID: zigbee.0.00158d00025ea014.temperature: "number"
          Writing files to /opt/iobroker/node_modules/iobroker.history/converter ...
              - saved /opt/iobroker/node_modules/iobroker.history/converter/existingDBValues.json
              - saved /opt/iobroker/node_modules/iobroker.history/converter/existingDBTypes.json
              - saved /opt/iobroker/node_modules/iobroker.history/converter/earliestDBValues.json
          
          ? 1 Reply Last reply Reply Quote 0
          • ?
            A Former User @spoeh-man last edited by

            @spoeh-man

            Ok, das war die Analyse. Soweit ich das jetzt verstehe, schaut die in die Influxdb Instanz, und Du hast dort nur diese 16 Datenpunkte, welche auch in den .json Files zu finden sein sollten.

            Jetzt wäre noch ein Log vom zweiten Schritt hilfreich, denn der sollte ja diese Information aus den drei Files nehmen und alles was noch nicht in der InfluxDB vorhanden ist reinkloppen, jedenfalls die Datenpunkte die dort in den .json Files vorhanden sind.
            Frage sind das die 16 Datenpunkte, die Du auch im History Adapter sicherst?

            Wie gesagt, ich habe mich nicht mit der Konvertierung beschäftigt, ich habe weggeschmissen und neu angefangen, daher vielleicht auch Dumme Fragen dabei!

            VG
            Bernd

            S 1 Reply Last reply Reply Quote 0
            • S
              spoeh-man @Guest last edited by

              @dp20eic

              Ja das sind die 16 Datenpunkte die ich Im History sichere. Das mit den Json dateien ist eben dass problem dort steht fast nichts drinnen ausser die Datenpunkte wenn ich aber dass 2. script laufen lassen kommt als Ausgabe: (ich habe es extra mal mit möglichst wenigen Parametern laufen lassen) 2. Ausgabe mal mit Datum von 1970

              node history2db.js influxdb.0 info 20211201 /opt/iobroker/iobroker-data/history/
              Send Data to influxdb.0
              Start at 20211201
              Use historyDir /opt/iobroker/iobroker-data/history/
              earliesDBValues initialized from cache 16
              ExistingDBTypes initialized from cache 16
              Started processFiles with 16 known db values
              We start earliest at 20211201
              DONE
              
              
              node history2db.js influxdb.0 info 19700101 /opt/iobroker/iobroker-data/history/
              Send Data to influxdb.0
              Start at 19700101
              Use historyDir /opt/iobroker/iobroker-data/history/
              earliesDBValues initialized from cache 16
              ExistingDBTypes initialized from cache 16
              Started processFiles with 16 known db values
              We start earliest at 19700101
              DONE
              

              aber übernommen wird leider nichts

              ? 1 Reply Last reply Reply Quote 0
              • ?
                A Former User @spoeh-man last edited by

                @spoeh-man

                Wenn da nicht mehr an output kommt, dann solltest Du mal auf Github ein Problem aufmachen.
                Oder evtl. wenn es gibt mit debug laufen lassen.

                VG
                Bernd

                S 1 Reply Last reply Reply Quote 0
                • S
                  spoeh-man @Guest last edited by

                  @dp20eic

                  Ja debug zeigt den gleichen Inhalt ich hab mal ein Problem in Github eröffnet

                  1 Reply Last reply Reply Quote 0
                  • apollon77
                    apollon77 @jensmaehn last edited by

                    @jensmaehn Das glaube ich eher ... es werden halt viele Daten an den "neuen" adapter gesendet ... das generiert durchaus CPU Last. mehr aber auch nicht

                    1 Reply Last reply Reply Quote 0
                    • apollon77
                      apollon77 @Davipet last edited by apollon77

                      @davipet Dann zeige bitte mal ein verzeichnislisting (bzw Auszug) von dem angegebenen History Datenverzeichnis. Sie da Verzeichnisse in "Datumsform" drin? yyyymmdd und am besten auch mal den Inhalt von einem davon und dann die zwei json Files die er in der vorbereitung angelegt hat.

                      Weil an sich sieht der Start des Skripts gut aus ... AM besten ruf es doch jetzt mal ohne einen Datumsparameter im Aufruf auf bzw dort eine 0. Was passiert dann?

                      PS: Die eine Logzeile "We start earliest at ..." ist am Ende genau falsch ... Die muss "We only process values before ...". Also mit 1970 kommt deshalb nix ...aber mit Datum von heute sollte mehr passieren 🙂 Am Ende ist da eine "0" aber das beste weil dann ermittelt er den "end wert" aus den gesammelten Daten

                      S 1 Reply Last reply Reply Quote 0
                      • S
                        spoeh-man @apollon77 last edited by

                        @apollon77

                        Verzeichnislisting vom Datenverzeichnis

                        root@ioBroker:/opt/iobroker/iobroker-data/history# ls -la
                        total 28
                        drwxrwxr-x+ 845 iobroker iobroker 20480 Dec 25 00:01 ' '
                        drwxrwxr-x+   3 iobroker iobroker  4096 Dec 21 09:17  .
                        drwxrwxr-x+  10 iobroker iobroker  4096 Dec 25 05:48  ..
                        root@ioBroker:/opt/iobroker/iobroker-data/history# 
                        
                        

                        ich glaube da könnte auch schon dass Problem sein aber im iobroker ist genau dieses verzeichnis im Adapter hinterlegtiobroker History.jpg

                        apollon77 1 Reply Last reply Reply Quote 0
                        • apollon77
                          apollon77 @spoeh-man last edited by

                          @spoeh-man was ist das denn für ein Verzeichnis da mit einem Leerzeichen? Ist vllt in der Konfiguration da auch ein Space am Ende?sind die files dort? Wenn ja setze beim Aufruf den Pfad mal in Anführungszeichen und hänge auch ein Leerzeichen noch an.

                          S 1 Reply Last reply Reply Quote 1
                          • S
                            spoeh-man @apollon77 last edited by

                            @apollon77

                            Ich glaube das war es woher auch immer dass Leerzeichen stammt hätte nur noch keine Zeit zur Migration musste zur Arbeit

                            apollon77 1 Reply Last reply Reply Quote 0
                            • apollon77
                              apollon77 @spoeh-man last edited by

                              @spoeh-man also alle Speiseöle oben sind ohne Anführungszeichen um den odad und ohne Leerzeichen am Ende beim Aufruf des convert Skripts.

                              S 1 Reply Last reply Reply Quote 0
                              • S
                                spoeh-man @apollon77 last edited by

                                @apollon77

                                Was für Speiseöle?. Irgendwie kann ich es trotz mehrmaligen Lesens nicht genau deuten was die frage ist aber das script tut gerade seinen dienst. Vielen Lieben dank für eure Hilfe

                                1 Reply Last reply Reply Quote 0
                                • apollon77
                                  apollon77 last edited by

                                  Ohje Handy mal wieder ... Screenshots war das wort :-)) Aber wenn es jetzt tut ist ja alles super

                                  1 Reply Last reply Reply Quote 0
                                  • S
                                    SaarlandUHU last edited by SaarlandUHU

                                    Hallo zusammen,
                                    ich wollte meine Datenbank auch zu Influx migrieren.
                                    Habe die Skripte soweit befolgt. Die laufen auch ohne Fehlermeldung durch. Allerdings werden keine Daten aus dem Datenbestand vom History Adapter kopiert.
                                    Meine Vermutung liegt im Timestamp der Daten im History Adapter.
                                    Beim Blick in die .json-Datei vom Analyse-Skript werden für die frühesten Datensätze allesamt Timestamps angezeigt, die weit in der Zukunft liegen. Beim Durchlaufen des Migriervorgangs kann er dann natürlich keine Daten finden, die zwischen dem frühesten Timestamp und heute liegen.

                                    Nachfolgend noch der Inhalt aus der earliestDBValues.json

                                    "0_userdata.0.Datenpunkte.Smartphones.A52.akkustand_a52": 1666880736920,
                                    "0_userdata.0.Datenpunkte.Smartphones.S21_Daniel.akkustand": 1666019090582,
                                    "0_userdata.0.Stromzähler_Haushalt.Day": 1668880485755,
                                    "0_userdata.0.Stromzähler_Haushalt.Hour": 1668880491552,
                                    "0_userdata.0.Stromzähler_Haushalt.Month": 1668880495366,
                                    "0_userdata.0.Stromzähler_Haushalt.Week": 1668880499441,
                                    "0_userdata.0.Stromzähler_Wärme.Day": 1668856754022,
                                    "0_userdata.0.Stromzähler_Wärme.Hour": 1668856759361,
                                    "0_userdata.0.Stromzähler_Wärme.Month": 1668856763564,
                                    "0_userdata.0.Stromzähler_Wärme.Week": 1668856767983,
                                    "fb-checkpresence.0.Elisabeth": 1665517455635,
                                    "fb-checkpresence.0.Galaxy-A52s-5G": 1666880013945,
                                    "fb-checkpresence.0.S21-von-Daniel": 1665517455635,
                                    "hm-rpc.1.000A9F298FCC7E.1.ACTUAL_TEMPERATURE": 1670432616118,
                                    "hm-rpc.1.000A9F298FCC7E.1.HUMIDITY": 1670432604334,
                                    "hm-rpc.1.000A9F298FCCA1.1.ACTUAL_TEMPERATURE": 1669310916637,
                                    "hm-rpc.1.000A9F298FCCA1.1.HUMIDITY": 1669310929119,
                                    "hm-rpc.1.000E9D89BB7599.1.ACTUAL_TEMPERATURE": 1670435485571,
                                    "hm-rpc.1.000E9D89BB7599.1.HUMIDITY": 1670435492677,
                                    "hm-rpc.1.000E9D89BB75F0.1.ACTUAL_TEMPERATURE": 1670436739498,
                                    "hm-rpc.1.000E9D89BB75F0.1.HUMIDITY": 1670436745120,
                                    "hm-rpc.1.000E9D89BB7A94.1.ACTUAL_TEMPERATURE": 1670564492102,
                                    "hm-rpc.1.000E9D89BB7A94.1.HUMIDITY": 1670564499583,
                                    "hm-rpc.1.000E9D89BB7A99.1.ACTUAL_TEMPERATURE": 1670564520552,
                                    "hm-rpc.1.000E9D89BB7A99.1.HUMIDITY": 1670564531677,
                                    "hm-rpc.1.0010DD89A2D19F.1.ACTUAL_TEMPERATURE": 1674831917725,
                                    "hm-rpc.1.0010DD89A2D19F.1.HUMIDITY": 1674831943051,
                                    "hm-rpc.1.001B9F29967090.1.LEVEL": 1673431338655,
                                    "hm-rpc.1.001B9F29967090.3.LEVEL": 1673431327737,
                                    "hm-rpc.1.001B9F29967090.5.LEVEL": 1673431317357,
                                    "hm-rpc.1.001B9F29967090.7.LEVEL": 1673431503528,
                                    "hm-rpc.1.001B9F29967090.8.LEVEL": 1673431514677,
                                    "hmip.0.devices.3014F711A0000C9D899EBE47.channels.1.actualTemperature": 1665517455635,
                                    "hmip.0.devices.3014F711A0000C9D899EBE47.channels.1.humidity": 1665517455635,
                                    "shelly.0.SHPLG-S#221667#1.Relay0.Power": 1665517455635,
                                    "shelly.0.SHPLG-S#D9DB12#1.Relay0.Power": 1665517455635,
                                    "smartmeter.0.1-0:16_7_0__255.value": 1675284084805,
                                    "smartmeter.0.1-0:1_8_0__255.value": 1675284090098,
                                    "smartmeter.1.1-0:16_7_0__255.value": 1675284094925,
                                    "smartmeter.1.1-0:1_8_0__255.value": 1675284101036,
                                    "stiebel-isg.0.Einstellungen.HEIZEN.GRUNDEINSTELLUNG.val134": 1674680233958,
                                    "stiebel-isg.0.Info.ANLAGE.HEIZEN.AUSSENTEMPERATUR": 1674587962908,
                                    "zigbee.0.00124b002510816a.humidity": 1665517455635,
                                    "zigbee.0.00124b002510816a.temperature": 1665517455635,
                                    "zigbee.0.00124b0025138250.humidity": 1665517455635,
                                    "zigbee.0.00124b0025138250.temperature": 1665517455635,
                                    "zigbee.0.00124b002513845c.humidity": 1665517455635,
                                    "zigbee.0.00124b002513845c.temperature": 1665517455635,
                                    "zigbee.0.00124b002549ddea.humidity": 1665517455635,
                                    "zigbee.0.00124b002549ddea.temperature": 1665517455635
                                    

                                    Bei Diagrammen, die ich mit Flot oder ECharts erstelle passen die Zeiten. Auch die Ordnerstruktur im History Ordner auf dem Pi passt. Da ist für jeden Tag ein Ordner nach dem muster YYYYMMDD erstellt.

                                    Habt ihr ne Ahnung woran das liegen könnte und wie man das abstellen kann?

                                    Vielen Dank schonmal

                                    Edit wegen Typo

                                    K 1 Reply Last reply Reply Quote 0
                                    • K
                                      klassisch Most Active @SaarlandUHU last edited by klassisch

                                      @saarlanduhu Wenn ich einen mit history erzeugten timestamp in https://www.epochconverter.com/ gebe und "timestamp to human date" drücke, kommt die richtige Zeit raus mit dem Hinweis "assuming timestamp in ms".
                                      Lösche ich die letzten 3 Stellen, dann kommt auch wieder das gleiche Datum raus mit dem Hinweis "assuming timestamp in s".
                                      Es scheinen also 2 Formate für epoch üblich zu sein, im ms und in s.
                                      Vielleicht gibt es da Misverständnisse bei der konvertierung?

                                      S 1 Reply Last reply Reply Quote 0
                                      • S
                                        SaarlandUHU @klassisch last edited by

                                        @klassisch, danke dir.
                                        das erklärt zumindest mal warums an den anderen Stellen dann passt.
                                        Leider bringt mich das bei der Migration der Daten nicht weiter. Bzw. Zumindest weiß ich nicht wie ich die Info für mein Problem nutzen könnte. 🤔

                                        K 1 Reply Last reply Reply Quote 0
                                        • K
                                          klassisch Most Active @SaarlandUHU last edited by

                                          @saarlanduhu sagte in History Adapter - exportieren / migrieren nach InfluxDB:
                                          Zumindest weiß ich nicht wie ich die Info für mein Problem nutzen könnte. 🤔

                                          Ich leider auch nicht. Vielleicht kann man bei InfluxDB (was ich nicht habe und nicht kenne) etwas konfigurieren?

                                          1 Reply Last reply Reply Quote 0
                                          • apollon77
                                            apollon77 last edited by

                                            Ookkk.die timestamps sollte er selbst behandeln. Also. Bitte zeig mal wie du es ausführst und was die Ausgabe ist.

                                            S 1 Reply Last reply Reply Quote 0
                                            • First post
                                              Last post

                                            Support us

                                            ioBroker
                                            Community Adapters
                                            Donate
                                            FAQ Cloud / IOT
                                            HowTo: Node.js-Update
                                            HowTo: Backup/Restore
                                            Downloads
                                            BLOG

                                            718
                                            Online

                                            31.8k
                                            Users

                                            79.9k
                                            Topics

                                            1.3m
                                            Posts

                                            exportieren history influxdb migrieren
                                            15
                                            52
                                            5850
                                            Loading More Posts
                                            • Oldest to Newest
                                            • Newest to Oldest
                                            • Most Votes
                                            Reply
                                            • Reply as topic
                                            Log in to reply
                                            Community
                                            Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
                                            The ioBroker Community 2014-2023
                                            logo