Skip to content
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. InfluxDB
  5. InfluxDB 2.0 Measurement löschen

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.2k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    1.9k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    15
    1
    2.2k

InfluxDB 2.0 Measurement löschen

Geplant Angeheftet Gesperrt Verschoben InfluxDB
97 Beiträge 28 Kommentatoren 28.1k Aufrufe 32 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • B Offline
    B Offline
    bitwicht
    schrieb am zuletzt editiert von bitwicht
    #34

    @SpacerX

    noch eine Frage.
    Ich habe in Grafana einen Datenpunkt (2022-11-26 12:46:30) was sicher ein Messfehler ist und der mir die Grafik vermakelt.

    Ich hatte jetzt folgenden Syntax:

    sudo influx delete --token xxxxxxxxxxxxxxxxxxxx --org home --bucket iobroker --start 2022-11-26T12:46:10.000Z --stop 2022-11-26T12:46:50.000Z --predicate '_measurement="Heizung-Kesseltemperatur"'

    Es kam kein Fehler aber der Datenpunkt in Grafana ist noch da.

    Hast du eine Idee?

    K 1 Antwort Letzte Antwort
    0
    • B bitwicht

      @SpacerX

      noch eine Frage.
      Ich habe in Grafana einen Datenpunkt (2022-11-26 12:46:30) was sicher ein Messfehler ist und der mir die Grafik vermakelt.

      Ich hatte jetzt folgenden Syntax:

      sudo influx delete --token xxxxxxxxxxxxxxxxxxxx --org home --bucket iobroker --start 2022-11-26T12:46:10.000Z --stop 2022-11-26T12:46:50.000Z --predicate '_measurement="Heizung-Kesseltemperatur"'

      Es kam kein Fehler aber der Datenpunkt in Grafana ist noch da.

      Hast du eine Idee?

      K Offline
      K Offline
      Knoddel
      schrieb am zuletzt editiert von
      #35

      @bitwicht
      Hatte ich auch schon, hast Du den Browsercache mit strg F5 mal gelöscht?
      Das hatte wenn ich mich noch recht entsinne bei mir geholfen.

      1 Antwort Letzte Antwort
      0
      • Marc BergM Offline
        Marc BergM Offline
        Marc Berg
        Most Active
        schrieb am zuletzt editiert von Marc Berg
        #36

        @bitwicht
        Die Zeiten werden in UTC angegeben, Du musst also jeweils 1h abziehen, damit die richtigen Datensätze gelöscht werden.

        NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+RabbitMQ+Grafana

        Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

        Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

        1 Antwort Letzte Antwort
        2
        • B Offline
          B Offline
          bitwicht
          schrieb am zuletzt editiert von
          #37

          @Marc Berg

          super Tipp mit der UTC. Genau das war es. Danke.

          lg
          bit

          1 Antwort Letzte Antwort
          0
          • S SpacerX

            Ich möchte mal mein Vorgehen zum Löschen von Datenreihen in InfluxDB 2.0 beschreiben. Vielleicht kann es jemand gebrauchen der wie ich nur Erklärungen für InfluxDB < 2.0 gefunden hat.

            Auf jeden muss man als erstes das Aufzeichnen des Datenpunktes in ioBroker deaktivieren. Wenn eine ID vergeben wurde diese als Measurement Bezeichner nutzen.

            Los geht's:
            Eine Konsole auf der Installation öffnen auf der sich InfluxDB 2.0 befindet.

            Um nicht ständig den Token und die Organisation bei den Befehlen eingeben zu müssen hab ich eine config dafür erzeugt.

            Den Token findet man in InfluxDB unter "Data - API Tokens". Die Datenbank auswählen, bei mir heißt sie ioBroker. Im sich öffnenden Fenster steht oben der Token. Dann einfach Copy to Clipboard geklickt dann kann man sie einfacher in der Konsole einsetzen.

            InfluxDate schreibt dazu:

            influx config create --config-name <config-name> \
            --host-url http://localhost:8086 \
            --org <your-org> \
            --token <your-api-token> \
            --active

            Das nun angepasst in der Konsole eingegeben.

            spacerx@InfluxDB-Grafana:~$ influx config create --config-name spacerx --host-url http://localhost:8086 --org RBE --token abcdefghijklmnop123456789 --active
            

            Nun der Befehl um den Eintrag komplett zu löschen.
            InfluxDate schreibt dazu:

            influx delete \
            --bucket example-bucket \
            --start 1970-01-01T00:00:00Z \
            --stop $(date +"%Y-%m-%dT%H:%M:%SZ") \
            --predicate '_measurement="example-measurement"'

            Das angepasst auf meine Datenbank und die ID des Datenpunktes in der Konsole eingegeben.

            spacerx@InfluxDB-Grafana:~$ influx delete --bucket ioBroker --start 1970-01-01T00:00:00Z --stop $(date +"%Y-%m-%dT%H:%M:%SZ") --predicate '_measurement="ID-Datenpunkt"'
            

            Schwups nun ist ID-Datenpunkt aus InfluxDB verschwunden.

            B Nicht stören
            B Nicht stören
            bommel_030
            schrieb am zuletzt editiert von
            #38

            @spacerx
            Das löschen klappt soweit wie geplant, ich habe aber so meine Probleme wenn ich den Filter weiter eingrenzen will, vielleicht hast du ja ne Idee.
            Ziel ist es die unnötigen Datenpunkte aus dem influx-Adapter zu löschen. Sollte sinngemäß so klappen:

              influx delete \
              --bucket iobroker_short \
              --start 1970-01-01T00:00:00Z \
              --stop $(date +"%Y-%m-%dT%H:%M:%SZ") \
              --predicate '_measurement="Azimut" AND from="system.adapter.influxdb.1"'
            

            Ergebnis ist aber:

            Error: failed to delete data: 400 Bad Request: error decoding json body: bad logical expression, at position 26
            

            Versuche ich einen anderen Filter an einem Testdatenpunkt klappt es, z.B.:

                influx delete \
              --bucket iobroker_short \
              --start 1970-01-01T00:00:00Z \
              --stop $(date +"%Y-%m-%dT%H:%M:%SZ") \
              --predicate '_measurement="0_userdata.0.Test.Test_Number" AND ack="false"'
            

            Kann es sein dass das "from" bei Influx schon vorbelegt ist? und wenn ja, wie kann ich alle Datenpunkte von system.adapter.influxdb.1 löschen?

            1 Antwort Letzte Antwort
            0
            • B Nicht stören
              B Nicht stören
              bommel_030
              schrieb am zuletzt editiert von
              #39

              Vielleicht hilft es einem der vor dem gleichen Problem steht. Der key from möchte mit "from" angesprochen werden.

                      influx delete \
                --bucket iobroker_never \
                --start 1970-01-01T00:00:00Z \
                --stop $(date +"%Y-%m-%dT%H:%M:%SZ") \
                --predicate '"from"="system.adapter.influxdb.0"'
              

              löscht dann alle Einträge vom Adapter influxdb.0 aus dem bucket iobroker_never.

              1 Antwort Letzte Antwort
              1
              • F Offline
                F Offline
                friemelkarl
                schrieb am zuletzt editiert von
                #40

                @SpacerX

                Danke nochmal für den Tipp. Das löschen funktioniert damit einwandfrei.
                Jetzt möchte ich den falschen Wert aber gerne korrigieren.
                Dazu müsste ich ihn doch auch über die Konsole schreiben können, oder?
                Funktioniert das?

                Gruß

                1 Antwort Letzte Antwort
                0
                • Marc BergM Offline
                  Marc BergM Offline
                  Marc Berg
                  Most Active
                  schrieb am zuletzt editiert von Marc Berg
                  #41

                  @friemelkarl sagte in InfluxDB 2.0 Measurement löschen:

                  Jetzt möchte ich den falschen Wert aber gerne korrigieren.

                  Es gibt natürlich viele verschiedene Wege, Daten zu korrigieren. Eine Methode, die ich ich gern anwende ist über den Umweg CSV. Damit lassen sich bei Bedarf auch viele Werte am Stück korrigieren:

                  1. Im Data Explorer eine Query ausführen, die die zu korrigierenden Werte umfasst, dabei am Besten den Zeitraum passend eingrenzen und unbedingt Aggregationen entfernen.


                  e8cf5d05-b90f-464e-b121-c98fed78e718-grafik.png

                  1. Als CSV speichern

                  2. Werte in der CSV wie gewünscht ändern und speichern (nicht in Excel)


                  708af159-2141-4002-bd3c-9a7c4f9ac872-grafik.png

                  1. Über "Data Sources --> File Upload --> Flux Annotated CSV" hochladen


                  9e1cee24-ec3c-4220-bcef-14b8fbd46b28-grafik.png

                  Fertig.


                  2ac72c26-dd43-4c91-a9fc-934850820b5c-grafik.png

                  NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+RabbitMQ+Grafana

                  Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                  Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                  D 1 Antwort Letzte Antwort
                  0
                  • Marc BergM Marc Berg

                    @friemelkarl sagte in InfluxDB 2.0 Measurement löschen:

                    Jetzt möchte ich den falschen Wert aber gerne korrigieren.

                    Es gibt natürlich viele verschiedene Wege, Daten zu korrigieren. Eine Methode, die ich ich gern anwende ist über den Umweg CSV. Damit lassen sich bei Bedarf auch viele Werte am Stück korrigieren:

                    1. Im Data Explorer eine Query ausführen, die die zu korrigierenden Werte umfasst, dabei am Besten den Zeitraum passend eingrenzen und unbedingt Aggregationen entfernen.


                    e8cf5d05-b90f-464e-b121-c98fed78e718-grafik.png

                    1. Als CSV speichern

                    2. Werte in der CSV wie gewünscht ändern und speichern (nicht in Excel)


                    708af159-2141-4002-bd3c-9a7c4f9ac872-grafik.png

                    1. Über "Data Sources --> File Upload --> Flux Annotated CSV" hochladen


                    9e1cee24-ec3c-4220-bcef-14b8fbd46b28-grafik.png

                    Fertig.


                    2ac72c26-dd43-4c91-a9fc-934850820b5c-grafik.png

                    D Offline
                    D Offline
                    Dieter_P
                    schrieb am zuletzt editiert von
                    #42

                    @marc-berg said in InfluxDB 2.0 Measurement löschen:

                    @friemelkarl sagte in InfluxDB 2.0 Measurement löschen:

                    Jetzt möchte ich den falschen Wert aber gerne korrigieren.

                    Es gibt natürlich viele verschiedene Wege, Daten zu korrigieren. Eine Methode, die ich ich gern anwende ist über den Umweg CSV. Damit lassen sich bei Bedarf auch viele Werte am Stück korrigieren:

                    1. Im Data Explorer eine Query ausführen, die die zu korrigierenden Werte umfasst, dabei am Besten den Zeitraum passend eingrenzen und unbedingt Aggregationen entfernen.


                    e8cf5d05-b90f-464e-b121-c98fed78e718-grafik.png

                    1. Als CSV speichern

                    2. Werte in der CSV wie gewünscht ändern und speichern (nicht in Excel)


                    708af159-2141-4002-bd3c-9a7c4f9ac872-grafik.png

                    1. Über "Data Sources --> File Upload --> Flux Annotated CSV" hochladen


                    9e1cee24-ec3c-4220-bcef-14b8fbd46b28-grafik.png

                    Fertig.


                    2ac72c26-dd43-4c91-a9fc-934850820b5c-grafik.png

                    Das klingt sehr charmant für mich und hab Dein Beitrag spontan über die Suche gefunden. Der Explorer funktioniert aber nur über eine influxdB 2 richtig? mmmh, müßte ich doch mal von 1 migrieren

                    Marc BergM lethuerL 2 Antworten Letzte Antwort
                    0
                    • D Dieter_P

                      @marc-berg said in InfluxDB 2.0 Measurement löschen:

                      @friemelkarl sagte in InfluxDB 2.0 Measurement löschen:

                      Jetzt möchte ich den falschen Wert aber gerne korrigieren.

                      Es gibt natürlich viele verschiedene Wege, Daten zu korrigieren. Eine Methode, die ich ich gern anwende ist über den Umweg CSV. Damit lassen sich bei Bedarf auch viele Werte am Stück korrigieren:

                      1. Im Data Explorer eine Query ausführen, die die zu korrigierenden Werte umfasst, dabei am Besten den Zeitraum passend eingrenzen und unbedingt Aggregationen entfernen.


                      e8cf5d05-b90f-464e-b121-c98fed78e718-grafik.png

                      1. Als CSV speichern

                      2. Werte in der CSV wie gewünscht ändern und speichern (nicht in Excel)


                      708af159-2141-4002-bd3c-9a7c4f9ac872-grafik.png

                      1. Über "Data Sources --> File Upload --> Flux Annotated CSV" hochladen


                      9e1cee24-ec3c-4220-bcef-14b8fbd46b28-grafik.png

                      Fertig.


                      2ac72c26-dd43-4c91-a9fc-934850820b5c-grafik.png

                      Das klingt sehr charmant für mich und hab Dein Beitrag spontan über die Suche gefunden. Der Explorer funktioniert aber nur über eine influxdB 2 richtig? mmmh, müßte ich doch mal von 1 migrieren

                      Marc BergM Offline
                      Marc BergM Offline
                      Marc Berg
                      Most Active
                      schrieb am zuletzt editiert von
                      #43

                      @dieter_p sagte in InfluxDB 2.0 Measurement löschen:

                      Das klingt sehr charmant für mich und hab Dein Beitrag spontan über die Suche gefunden. Der Explorer funktioniert aber nur über eine influxdB 2 richtig?

                      Ja, für die Version 2.x. Ich dachte, unter dieser Überschrift kann ich mir den Hinweis sparen ... 🙂

                      NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+RabbitMQ+Grafana

                      Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                      Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                      D 1 Antwort Letzte Antwort
                      1
                      • Marc BergM Marc Berg

                        @dieter_p sagte in InfluxDB 2.0 Measurement löschen:

                        Das klingt sehr charmant für mich und hab Dein Beitrag spontan über die Suche gefunden. Der Explorer funktioniert aber nur über eine influxdB 2 richtig?

                        Ja, für die Version 2.x. Ich dachte, unter dieser Überschrift kann ich mir den Hinweis sparen ... 🙂

                        D Offline
                        D Offline
                        Dieter_P
                        schrieb am zuletzt editiert von
                        #44

                        @marc-berg said in InfluxDB 2.0 Measurement löschen:

                        @dieter_p sagte in InfluxDB 2.0 Measurement löschen:

                        Das klingt sehr charmant für mich und hab Dein Beitrag spontan über die Suche gefunden. Der Explorer funktioniert aber nur über eine influxdB 2 richtig?

                        Ja, für die Version 2.x. Ich dachte, unter dieser Überschrift kann ich mir den Hinweis sparen ... 🙂

                        ist schon eindeutig, ja . komme gerade nur von einer anderen "Baustelle" und die Migration gab s jetzt als Bonus, den ich gerne zu passendere Zeit bekommen hätte 😉

                        1 Antwort Letzte Antwort
                        0
                        • F Offline
                          F Offline
                          friemelkarl
                          schrieb am zuletzt editiert von
                          #45

                          @marc-berg
                          Das mit dem importieren war mir so noch nicht bekannt!
                          Vielen Dank für die tolle Anleitung. Werde das später gleich in Angriff nehmen!

                          Gruß

                          Marc BergM 1 Antwort Letzte Antwort
                          0
                          • F friemelkarl

                            @marc-berg
                            Das mit dem importieren war mir so noch nicht bekannt!
                            Vielen Dank für die tolle Anleitung. Werde das später gleich in Angriff nehmen!

                            Gruß

                            Marc BergM Offline
                            Marc BergM Offline
                            Marc Berg
                            Most Active
                            schrieb am zuletzt editiert von
                            #46

                            @friemelkarl sagte in InfluxDB 2.0 Measurement löschen:

                            @marc-berg
                            Das mit dem importieren war mir so noch nicht bekannt!
                            Vielen Dank für die tolle Anleitung. Werde das später gleich in Angriff nehmen!

                            Gruß

                            Viel Erfolg beim ... ähh ... Friemeln. 🙂

                            NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+RabbitMQ+Grafana

                            Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                            Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                            F B 2 Antworten Letzte Antwort
                            0
                            • Marc BergM Marc Berg

                              @friemelkarl sagte in InfluxDB 2.0 Measurement löschen:

                              @marc-berg
                              Das mit dem importieren war mir so noch nicht bekannt!
                              Vielen Dank für die tolle Anleitung. Werde das später gleich in Angriff nehmen!

                              Gruß

                              Viel Erfolg beim ... ähh ... Friemeln. 🙂

                              F Offline
                              F Offline
                              friemelkarl
                              schrieb am zuletzt editiert von
                              #47

                              @marc-berg

                              Vielen Dank! Hat alles wunderbar funktioniert!
                              So kann man falsche Werte "relativ" einfach korrigieren! 🙂

                              Gruß

                              1 Antwort Letzte Antwort
                              0
                              • Marc BergM Marc Berg

                                @friemelkarl sagte in InfluxDB 2.0 Measurement löschen:

                                @marc-berg
                                Das mit dem importieren war mir so noch nicht bekannt!
                                Vielen Dank für die tolle Anleitung. Werde das später gleich in Angriff nehmen!

                                Gruß

                                Viel Erfolg beim ... ähh ... Friemeln. 🙂

                                B Nicht stören
                                B Nicht stören
                                bommel_030
                                schrieb am zuletzt editiert von bommel_030
                                #48

                                @marc-berg
                                Grundsätzlich klappt das mit dem CSV ganz gut, allerdings hab ich ein Problem mit der Zeit....
                                Ich wollte ein paar Daten vom Stromzähler nachtragen um die in Grafana nutzen zu können.
                                CSV heruntergeladen, meine Werte eingetragen und das Datum angepasst, jeden 1. des Monats 4 Uhr.

                                #group,false,false,true,true,false,false,true,true,true,true,true
                                false
                                false#datatype,string,long,dateTime:RFC3339,dateTime:RFC3339,dateTime:RFC3339,double,string,string,string,string,string
                                false
                                false#default,mean,,,,,,,,,,
                                false
                                false,result,table,_start,_stop,_time,_value,_field,_measurement,ack,from,q
                                false
                                false,,0,2021-12-31T23:00:00Z,2022-06-03T18:42:10Z,2022-01-04T04:00:00.001Z,2109.43,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                false
                                false,,0,2021-12-31T23:00:00Z,2022-06-03T18:42:10Z,2022-02-01T04:00:00.001Z,2369.771,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                false
                                false,,0,2021-12-31T23:00:00Z,2022-06-03T18:42:10Z,2022-03-01T04:00:00.001Z,2619.109,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                false
                                false,,0,2021-12-31T23:00:00Z,2022-06-03T18:42:10Z,2022-04-01T04:00:00.001Z,2835.693,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                false
                                false,,0,2021-12-31T23:00:00Z,2022-06-03T18:42:10Z,2022-05-01T04:00:00.001Z,3161.085,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                false
                                false,,0,2021-12-31T23:00:00Z,2022-06-03T18:42:10Z,2022-06-01T04:00:00.001Z,3181.144,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                Upload klappt auch, Daten kommen rein, aber die eingetragenen Zeiten stimmen nicht. 
                                ![1f865248-c452-4f9d-9458-9ec78593c0a4-image.png](/assets/uploads/files/1675713880885-1f865248-c452-4f9d-9458-9ec78593c0a4-image.png) 
                                Die Monate stimmen, Tage und Uhrzeit sind bunt gewürfelt, hast du eine Idee woran das liegen könnte?
                                1 Antwort Letzte Antwort
                                0
                                • Marc BergM Offline
                                  Marc BergM Offline
                                  Marc Berg
                                  Most Active
                                  schrieb am zuletzt editiert von Marc Berg
                                  #49

                                  @bommel_030 sagte in InfluxDB 2.0 Measurement löschen:

                                  @marc-berg
                                  Grundsätzlich klappt das mit dem CSV ganz gut, allerdings hab ich ein Problem mit der Zeit....

                                  Irgendwie ist da beim Reinkopieren was schief gegangen, den Screenshot nicht mit in Code-Tags packen. Das "false" am Anfang jeder Zeile ist auch falsch.

                                  Und zeige mal die zugrunde liegende Abfrage. Die musst Du auf "value" filtern.

                                    |> filter(fn: (r) => r["_field"] == "value")
                                  

                                  NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+RabbitMQ+Grafana

                                  Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                                  Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                                  B 1 Antwort Letzte Antwort
                                  0
                                  • Marc BergM Marc Berg

                                    @bommel_030 sagte in InfluxDB 2.0 Measurement löschen:

                                    @marc-berg
                                    Grundsätzlich klappt das mit dem CSV ganz gut, allerdings hab ich ein Problem mit der Zeit....

                                    Irgendwie ist da beim Reinkopieren was schief gegangen, den Screenshot nicht mit in Code-Tags packen. Das "false" am Anfang jeder Zeile ist auch falsch.

                                    Und zeige mal die zugrunde liegende Abfrage. Die musst Du auf "value" filtern.

                                      |> filter(fn: (r) => r["_field"] == "value")
                                    
                                    B Nicht stören
                                    B Nicht stören
                                    bommel_030
                                    schrieb am zuletzt editiert von
                                    #50

                                    @marc-berg
                                    Sorry, da ist beim editieren wohl was daneben gegangen.

                                    #group,false,false,true,true,false,false,true,true,true,true,true
                                    #datatype,string,long,dateTime:RFC3339,dateTime:RFC3339,dateTime:RFC3339,double,string,string,string,string,string
                                    #default,_result,,,,,,,,,,
                                    ,result,table,_start,_stop,_time,_value,_field,_measurement,ack,from,q
                                    ,,0,2021-12-31T23:00:00Z,2022-06-03T05:20:10Z,2022-01-01T05:00:00.494Z,2109.43,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                    ,,0,2021-12-31T23:00:00Z,2022-06-03T05:20:10Z,2022-02-01T05:00:01.493Z,2369.771,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                    ,,0,2021-12-31T23:00:00Z,2022-06-03T05:20:10Z,2022-03-01T05:00:00.494Z,2619.109,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                    ,,0,2021-12-31T23:00:00Z,2022-06-03T05:20:10Z,2022-04-01T05:00:01.493Z,2835.693,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                    ,,0,2021-12-31T23:00:00Z,2022-06-03T05:20:10Z,2022-05-01T05:00:00.494Z,3161.085,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                    ,,0,2021-12-31T23:00:00Z,2022-06-03T05:20:10Z,2022-06-01T05:00:01.493Z,3181.144,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                    

                                    Alle Daten sollten am 1. des Monats gegen 5 Uhr reinkommen. Erster des Monats passt, aber die Zeit halt nicht. Hier nicht so dramatisch aber für die Zukunft würde ich gerne wissen was da schief läuft.
                                    4bcf321b-0829-4134-8f23-f7ebd2c1a637-image.png

                                    Das war die Abfrage zum Download des CSV.

                                    from(bucket: "iobroker_never")
                                      |> range(start: v.timeRangeStart, stop: v.timeRangeStop)
                                      |> filter(fn: (r) => r["_measurement"] == "Heizungsmeter")
                                      |> filter(fn: (r) => r["_field"] == "value")
                                    
                                    Marc BergM 1 Antwort Letzte Antwort
                                    0
                                    • B bommel_030

                                      @marc-berg
                                      Sorry, da ist beim editieren wohl was daneben gegangen.

                                      #group,false,false,true,true,false,false,true,true,true,true,true
                                      #datatype,string,long,dateTime:RFC3339,dateTime:RFC3339,dateTime:RFC3339,double,string,string,string,string,string
                                      #default,_result,,,,,,,,,,
                                      ,result,table,_start,_stop,_time,_value,_field,_measurement,ack,from,q
                                      ,,0,2021-12-31T23:00:00Z,2022-06-03T05:20:10Z,2022-01-01T05:00:00.494Z,2109.43,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                      ,,0,2021-12-31T23:00:00Z,2022-06-03T05:20:10Z,2022-02-01T05:00:01.493Z,2369.771,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                      ,,0,2021-12-31T23:00:00Z,2022-06-03T05:20:10Z,2022-03-01T05:00:00.494Z,2619.109,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                      ,,0,2021-12-31T23:00:00Z,2022-06-03T05:20:10Z,2022-04-01T05:00:01.493Z,2835.693,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                      ,,0,2021-12-31T23:00:00Z,2022-06-03T05:20:10Z,2022-05-01T05:00:00.494Z,3161.085,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                      ,,0,2021-12-31T23:00:00Z,2022-06-03T05:20:10Z,2022-06-01T05:00:01.493Z,3181.144,value,Heizungsmeter,true,system.adapter.sourceanalytix.0,0
                                      

                                      Alle Daten sollten am 1. des Monats gegen 5 Uhr reinkommen. Erster des Monats passt, aber die Zeit halt nicht. Hier nicht so dramatisch aber für die Zukunft würde ich gerne wissen was da schief läuft.
                                      4bcf321b-0829-4134-8f23-f7ebd2c1a637-image.png

                                      Das war die Abfrage zum Download des CSV.

                                      from(bucket: "iobroker_never")
                                        |> range(start: v.timeRangeStart, stop: v.timeRangeStop)
                                        |> filter(fn: (r) => r["_measurement"] == "Heizungsmeter")
                                        |> filter(fn: (r) => r["_field"] == "value")
                                      
                                      Marc BergM Offline
                                      Marc BergM Offline
                                      Marc Berg
                                      Most Active
                                      schrieb am zuletzt editiert von Marc Berg
                                      #51

                                      @bommel_030
                                      Wenn ich die Daten in meine Test-DB importiere, sieht das sauber aus:


                                      0d03fe52-b7e7-465a-a567-ed579829d6b8-grafik.png

                                      Vielleicht schaust Du auf alte, schon vorhandene Daten, und hast versehentlich in ein falsches Bucket importiert?
                                      Beim Import ist ja standardmäßig das erste Bucket selektiert, wenn man ein anderes haben möchte, muss man das aktiv auswählen.


                                      c639227d-b4b2-4e41-8d2f-b9df22971e2a-grafik.png

                                      Wichtig: Wenn man am Zeitstempel rumspielt, werden natürlich keine Daten geändert, sondern neue hinzugefügt. Die alten muss man dann manuell löschen.

                                      NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+RabbitMQ+Grafana

                                      Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                                      Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                                      1 Antwort Letzte Antwort
                                      0
                                      • R Rushmed

                                        Mich sterngt die Handhabung der InfluxDB Daten auch etwas an. Gibts hier nicht nen Profi mit zuviel Freizeit der InfluxDBStudio für Influx 2.x und KlickKlickWindows User weiterntwickeln kann?
                                        🙏

                                        lethuerL Offline
                                        lethuerL Offline
                                        lethuer
                                        schrieb am zuletzt editiert von lethuer
                                        #52

                                        @Rushmed sagte in InfluxDB 2.0 Measurement löschen:

                                        Mich sterngt die Handhabung der InfluxDB Daten auch etwas an. Gibts hier nicht nen Profi mit zuviel Freizeit der InfluxDBStudio für Influx 2.x und KlickKlickWindows User weiterntwickeln kann?
                                        🙏

                                        Ich habe noch dieses Tool gefunden:
                                        https://github.com/JorgeMaker/InfluxDBWorkBench

                                        Ich gehe aber davon aus das das ebenfalls nicht für InfluxDBv2 funktioniert ?

                                        1 Antwort Letzte Antwort
                                        0
                                        • F ftd

                                          @rushmed Profi ja, Zeit nein.... geht mit KlickKlickWindows und der Influx v2 API... siehe hier: https://docs.influxdata.com/influxdb/v2.2/api/#tag/Delete

                                          lethuerL Offline
                                          lethuerL Offline
                                          lethuer
                                          schrieb am zuletzt editiert von
                                          #53

                                          @ftd sagte in InfluxDB 2.0 Measurement löschen:

                                          @rushmed Profi ja, Zeit nein.... geht mit KlickKlickWindows und der Influx v2 API... siehe hier: https://docs.influxdata.com/influxdb/v2.2/api/#tag/Delete

                                          Der beschriebene Weg über die Excel ist schon mal viel besser als Kommandozeile. Werde ich auch mal testen.
                                          Ich würde aber gerne verstehen wie das über die API mit „KlickKlickWindows“ funktioniert, irgendwie weiß ich aber nicht wie da vorzugehen ist.
                                          Kannst du mir das „KlickKlickWindows“ netterweise mal erklären ? 🙂

                                          1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          618

                                          Online

                                          32.4k

                                          Benutzer

                                          81.4k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe