Skip to content
  • Home
  • Recent
  • Tags
  • 0 Unread 0
  • Categories
  • Unreplied
  • Popular
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Einsteigerfragen
  4. Automatisierung
  5. Zeitraum Datensätze

NEWS

  • Monatsrückblick Januar/Februar 2026 ist online!
    BluefoxB
    Bluefox
    17
    1
    616

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    5.6k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.5k

Zeitraum Datensätze

Scheduled Pinned Locked Moved Automatisierung
17 Posts 5 Posters 1.3k Views 4 Watching
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • HomoranH Homoran

    @seide-th sagte in Zeitraum Datensätze:

    das ist ja aus der aktuellen Version schon lange verschwunden

    welche Version?
    von welchem Adapter?

    Ich hab das noch

    S Offline
    S Offline
    Seide Th
    wrote on last edited by
    #5

    @homoran die Hostdatei ist 7.x, Influx ist 4.0.2. Das ist ja auch nicht Adapter abhängigSetting.JPG
    Wenn man nicht das Zahnrad wählt sondern den Stift, kann man unter Objektdaten die einzelnen Zeile edetieren.
    Objektdaten.JPG
    Hier gab es mal einen Befehl der die Speicherzeit defenierte, den suche ich und ob die Datenbankbereinigung noch mal getrennt angestoßen werden muss.

    HomoranH 1 Reply Last reply
    0
    • S Seide Th

      @homoran die Hostdatei ist 7.x, Influx ist 4.0.2. Das ist ja auch nicht Adapter abhängigSetting.JPG
      Wenn man nicht das Zahnrad wählt sondern den Stift, kann man unter Objektdaten die einzelnen Zeile edetieren.
      Objektdaten.JPG
      Hier gab es mal einen Befehl der die Speicherzeit defenierte, den suche ich und ob die Datenbankbereinigung noch mal getrennt angestoßen werden muss.

      HomoranH Do not disturb
      HomoranH Do not disturb
      Homoran
      Global Moderator Administrators
      wrote on last edited by Homoran
      #6

      @seide-th ich verstehe jetzt überhaupt nichts mehr
      wovon redest du?

      @Codierknecht hat dir einen aktuellen Screenshot eingestellt
      Das ist bei mir genauso

      da kannst du die Vorhaltezeit nach wie vor einstellen.

      @seide-th sagte in Zeitraum Datensätze:

      das ist ja aus der aktuellen Version schon lange verschwunden

      kann ich nicht bestätigen

      und warum willst du in den Objektdaten manipulieren?
      Das ist nicht ohne Grund nur im Expertenmodus sichtbar

      kein Support per PN! - Fragen im Forum stellen -
      Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.
      Das Forum freut sich über eine Spende. Benutzt dazu den Spendenbutton im Header. Danke!
      der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

      1 Reply Last reply
      0
      • HomoranH Do not disturb
        HomoranH Do not disturb
        Homoran
        Global Moderator Administrators
        wrote on last edited by
        #7

        @seide-th sagte in Zeitraum Datensätze:

        die Hostdatei ist 7.x

        ??
        welche Hostdatei?

        @seide-th sagte in Zeitraum Datensätze:

        Influx ist 4.0.2.

        gut, ich nutze history, das sollte aber auch beim influx Adapter nicht anders sein.

        @seide-th sagte in Zeitraum Datensätze:

        Hier gab es mal einen Befehl der die Speicherzeit defenierte,

        Hier sind nur Konfigurationseinträge in diesem JSON.
        Keine Befehle!

        oder redest du von der InfluxDB selbst, und nicht vom Adapter?

        kein Support per PN! - Fragen im Forum stellen -
        Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.
        Das Forum freut sich über eine Spende. Benutzt dazu den Spendenbutton im Header. Danke!
        der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

        1 Reply Last reply
        0
        • S Offline
          S Offline
          Seide Th
          wrote on last edited by
          #8

          Sorry, jetzt bin ich bei den AWs verwirrt.
          Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

          Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

          Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

          HomoranH Marc BergM 2 Replies Last reply
          0
          • S Seide Th

            Sorry, jetzt bin ich bei den AWs verwirrt.
            Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

            Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

            Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

            HomoranH Do not disturb
            HomoranH Do not disturb
            Homoran
            Global Moderator Administrators
            wrote on last edited by
            #9

            @seide-th sagte in Zeitraum Datensätze:

            egal von welchem Adapter die Daten stammen.

            das ist jetzt wieder eine andere Info!

            ich dachte du redest bei

            @seide-th sagte in Zeitraum Datensätze:

            Das ist ja auch nicht Adapter abhängig

            von den verschiedenen Historisierungsadaptern (history, influx, sql)
            Zumindest redeten wir in dem Zusammenhang davon.

            bei mir ist es beim history Adapter noch da

            Screenshot_20250723-190853_Firefox.jpg

            und in den Objektdaten ist es bei dir auch.

            Da ich aber influxdb nicht nutze kann ich dir nicht sagen was du ggf. zerschiesst, wenn du das änderst, obwohl es in dem User-Interface nicht vorhanden ist

            kein Support per PN! - Fragen im Forum stellen -
            Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.
            Das Forum freut sich über eine Spende. Benutzt dazu den Spendenbutton im Header. Danke!
            der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

            1 Reply Last reply
            0
            • S Seide Th

              Sorry, jetzt bin ich bei den AWs verwirrt.
              Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

              Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

              Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

              Marc BergM Offline
              Marc BergM Offline
              Marc Berg
              Most Active
              wrote on last edited by Marc Berg
              #10

              @seide-th sagte in Zeitraum Datensätze:

              Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

              Es gibt bei der InfluxDB keine Möglichkeit, die Vorhaltezeit auf "Datensatz"ebene einzustellen. Deshalb ist die Option ja auch rausgeflogen.

              Stattdessen musst du mehrere Datenbanken/Buckets anlegen.

              NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

              Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

              Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

              S 1 Reply Last reply
              1
              • Marc BergM Marc Berg

                @seide-th sagte in Zeitraum Datensätze:

                Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

                Es gibt bei der InfluxDB keine Möglichkeit, die Vorhaltezeit auf "Datensatz"ebene einzustellen. Deshalb ist die Option ja auch rausgeflogen.

                Stattdessen musst du mehrere Datenbanken/Buckets anlegen.

                S Offline
                S Offline
                Seide Th
                wrote on last edited by
                #11

                @marc-berg Schade, aber danke für die AW. Dann muss ich ja nicht weiter suchen.

                Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist...., kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.
                Danke für die Hilfe
                Mit freundlichen Grüßen

                Marc BergM 1 Reply Last reply
                0
                • S Seide Th

                  @marc-berg Schade, aber danke für die AW. Dann muss ich ja nicht weiter suchen.

                  Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist...., kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                  Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.
                  Danke für die Hilfe
                  Mit freundlichen Grüßen

                  Marc BergM Offline
                  Marc BergM Offline
                  Marc Berg
                  Most Active
                  wrote on last edited by
                  #12

                  @seide-th sagte in Zeitraum Datensätze:

                  Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                  Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                  kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                  Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                  Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                  Korrekt, ja.

                  NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                  Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                  Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                  S MartinPM 2 Replies Last reply
                  0
                  • Marc BergM Marc Berg

                    @seide-th sagte in Zeitraum Datensätze:

                    Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                    Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                    kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                    Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                    Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                    Korrekt, ja.

                    S Offline
                    S Offline
                    Seide Th
                    wrote on last edited by
                    #13

                    @marc-berg Super die AW hilft mir dann weiter.

                    Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                    Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                    Da ich nur geringe Kenntnisse habe, wollte ich nicht auf DB Version 2 oder 3 umsteigen. Da soll ja die Auswertung in Grafana komplizierter sein.

                    Ich hatte 2019 damit angefangen und mir am Anfang keine Gedaken gemacht wie sich es über die Jahre entwickelt. Naja die vergangenheit holt einen ein....

                    VG

                    Marc BergM 1 Reply Last reply
                    0
                    • S Seide Th

                      @marc-berg Super die AW hilft mir dann weiter.

                      Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                      Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                      Da ich nur geringe Kenntnisse habe, wollte ich nicht auf DB Version 2 oder 3 umsteigen. Da soll ja die Auswertung in Grafana komplizierter sein.

                      Ich hatte 2019 damit angefangen und mir am Anfang keine Gedaken gemacht wie sich es über die Jahre entwickelt. Naja die vergangenheit holt einen ein....

                      VG

                      Marc BergM Offline
                      Marc BergM Offline
                      Marc Berg
                      Most Active
                      wrote on last edited by Marc Berg
                      #14

                      @seide-th sagte in Zeitraum Datensätze:

                      Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                      Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                      Das Löschen alter Datensätze ist recht simpel.

                      • Per CLI auf die Datenbank verbinden: influx
                      • Datenbank auswählen: USE <datenbankname>
                      • Daten älter als ... löschen (in UTC):
                      DELETE FROM "<measurement>" WHERE time < '2024-12-31T23:00:00Z'
                      

                      Das muss dann pro Measurement gemacht werden.

                      NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                      Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                      Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                      S 1 Reply Last reply
                      0
                      • Marc BergM Marc Berg

                        @seide-th sagte in Zeitraum Datensätze:

                        Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                        Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                        kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                        Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                        Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                        Korrekt, ja.

                        MartinPM Online
                        MartinPM Online
                        MartinP
                        wrote on last edited by
                        #15

                        @marc-berg sagte in Zeitraum Datensätze:

                        @seide-th sagte in Zeitraum Datensätze:

                        Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                        Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                        kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                        Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                        Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                        Korrekt, ja.

                        Ein oder mehrere Langzeit-Buckets für die Influx-DB habe ich auch noch auf der to-Do Liste.

                        Da will ich den Ansatz wählen, die Daten auszudünnen, und influx-intern vom Jahres Bucket zu den Langzeit Bucket(s) zu transferieren ...

                        Bei Energiewerten vielleicht nur Tagesverbräuche und keine Stundenwerte.
                        Manche Datenreihen vielleicht gar nicht in das Langzeitbucket übertragen...

                        Derzeit habe ich das aber leider noch nicht gemacht, und z. B. der Gasverbrauch kann nur ein Jahr in die Vergangenheit bestimmt werden. Alles was älter ist wird "weggefressen"

                        Intel(R) Celeron(R) CPU N3000 @ 1.04GHz 8G RAM 480G SSD
                        Virtualization : unprivileged lxc container (debian 13) on Proxmox 9.1.5)
                        Linux pve 6.17.9-1-pve
                        6 GByte RAM für den Container
                        Fritzbox 6591 FW 8.20 (Vodafone Leih-Box)
                        Remote-Access über Wireguard der Fritzbox

                        1 Reply Last reply
                        0
                        • Marc BergM Marc Berg

                          @seide-th sagte in Zeitraum Datensätze:

                          Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                          Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                          Das Löschen alter Datensätze ist recht simpel.

                          • Per CLI auf die Datenbank verbinden: influx
                          • Datenbank auswählen: USE <datenbankname>
                          • Daten älter als ... löschen (in UTC):
                          DELETE FROM "<measurement>" WHERE time < '2024-12-31T23:00:00Z'
                          

                          Das muss dann pro Measurement gemacht werden.

                          S Offline
                          S Offline
                          Seide Th
                          wrote on last edited by
                          #16

                          @marc-berg Moin
                          ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                          USE <iobroker>
                          

                          aufgefrufen habe.

                          ERR: unable to parse authentication credentials
                          DB does not exist!
                          

                          Ich habe es auch mit der Eingabe

                          SHOW DATABASES
                          

                          versucht, um zu vermeiden das ich den falschen Namen verwendet habe. Leider kommt dann folgende Meldung.

                          Marc BergM 1 Reply Last reply
                          0
                          • S Seide Th

                            @marc-berg Moin
                            ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                            USE <iobroker>
                            

                            aufgefrufen habe.

                            ERR: unable to parse authentication credentials
                            DB does not exist!
                            

                            Ich habe es auch mit der Eingabe

                            SHOW DATABASES
                            

                            versucht, um zu vermeiden das ich den falschen Namen verwendet habe. Leider kommt dann folgende Meldung.

                            Marc BergM Offline
                            Marc BergM Offline
                            Marc Berg
                            Most Active
                            wrote on last edited by Marc Berg
                            #17

                            @seide-th sagte in Zeitraum Datensätze:

                            @marc-berg Moin
                            ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                            USE <iobroker>
                            

                            Die eckigen Klammern (größer als/kleiner als) dienen als Platzhalter und müssen weggelassen werden.

                            NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                            Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                            Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                            1 Reply Last reply
                            0
                            Reply
                            • Reply as topic
                            Log in to reply
                            • Oldest to Newest
                            • Newest to Oldest
                            • Most Votes


                            Support us

                            ioBroker
                            Community Adapters
                            Donate

                            768

                            Online

                            32.7k

                            Users

                            82.6k

                            Topics

                            1.3m

                            Posts
                            Community
                            Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                            ioBroker Community 2014-2025
                            logo
                            • Login

                            • Don't have an account? Register

                            • Login or register to search.
                            • First post
                              Last post
                            0
                            • Home
                            • Recent
                            • Tags
                            • Unread 0
                            • Categories
                            • Unreplied
                            • Popular
                            • GitHub
                            • Docu
                            • Hilfe