Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Einsteigerfragen
  4. Automatisierung
  5. Zeitraum Datensätze

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    16
    1
    1.6k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    848

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    2.1k

Zeitraum Datensätze

Geplant Angeheftet Gesperrt Verschoben Automatisierung
17 Beiträge 5 Kommentatoren 1.2k Aufrufe 4 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • S Offline
    S Offline
    Seide Th
    schrieb am zuletzt editiert von
    #8

    Sorry, jetzt bin ich bei den AWs verwirrt.
    Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

    Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

    Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

    HomoranH Marc BergM 2 Antworten Letzte Antwort
    0
    • S Seide Th

      Sorry, jetzt bin ich bei den AWs verwirrt.
      Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

      Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

      Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

      HomoranH Nicht stören
      HomoranH Nicht stören
      Homoran
      Global Moderator Administrators
      schrieb am zuletzt editiert von
      #9

      @seide-th sagte in Zeitraum Datensätze:

      egal von welchem Adapter die Daten stammen.

      das ist jetzt wieder eine andere Info!

      ich dachte du redest bei

      @seide-th sagte in Zeitraum Datensätze:

      Das ist ja auch nicht Adapter abhängig

      von den verschiedenen Historisierungsadaptern (history, influx, sql)
      Zumindest redeten wir in dem Zusammenhang davon.

      bei mir ist es beim history Adapter noch da

      Screenshot_20250723-190853_Firefox.jpg

      und in den Objektdaten ist es bei dir auch.

      Da ich aber influxdb nicht nutze kann ich dir nicht sagen was du ggf. zerschiesst, wenn du das änderst, obwohl es in dem User-Interface nicht vorhanden ist

      kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

      Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

      der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

      1 Antwort Letzte Antwort
      0
      • S Seide Th

        Sorry, jetzt bin ich bei den AWs verwirrt.
        Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

        Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

        Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

        Marc BergM Offline
        Marc BergM Offline
        Marc Berg
        Most Active
        schrieb am zuletzt editiert von Marc Berg
        #10

        @seide-th sagte in Zeitraum Datensätze:

        Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

        Es gibt bei der InfluxDB keine Möglichkeit, die Vorhaltezeit auf "Datensatz"ebene einzustellen. Deshalb ist die Option ja auch rausgeflogen.

        Stattdessen musst du mehrere Datenbanken/Buckets anlegen.

        NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

        Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

        Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

        S 1 Antwort Letzte Antwort
        1
        • Marc BergM Marc Berg

          @seide-th sagte in Zeitraum Datensätze:

          Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

          Es gibt bei der InfluxDB keine Möglichkeit, die Vorhaltezeit auf "Datensatz"ebene einzustellen. Deshalb ist die Option ja auch rausgeflogen.

          Stattdessen musst du mehrere Datenbanken/Buckets anlegen.

          S Offline
          S Offline
          Seide Th
          schrieb am zuletzt editiert von
          #11

          @marc-berg Schade, aber danke für die AW. Dann muss ich ja nicht weiter suchen.

          Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist...., kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

          Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.
          Danke für die Hilfe
          Mit freundlichen Grüßen

          Marc BergM 1 Antwort Letzte Antwort
          0
          • S Seide Th

            @marc-berg Schade, aber danke für die AW. Dann muss ich ja nicht weiter suchen.

            Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist...., kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

            Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.
            Danke für die Hilfe
            Mit freundlichen Grüßen

            Marc BergM Offline
            Marc BergM Offline
            Marc Berg
            Most Active
            schrieb am zuletzt editiert von
            #12

            @seide-th sagte in Zeitraum Datensätze:

            Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

            Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

            kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

            Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

            Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

            Korrekt, ja.

            NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

            Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

            Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

            S MartinPM 2 Antworten Letzte Antwort
            0
            • Marc BergM Marc Berg

              @seide-th sagte in Zeitraum Datensätze:

              Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

              Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

              kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

              Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

              Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

              Korrekt, ja.

              S Offline
              S Offline
              Seide Th
              schrieb am zuletzt editiert von
              #13

              @marc-berg Super die AW hilft mir dann weiter.

              Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
              Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

              Da ich nur geringe Kenntnisse habe, wollte ich nicht auf DB Version 2 oder 3 umsteigen. Da soll ja die Auswertung in Grafana komplizierter sein.

              Ich hatte 2019 damit angefangen und mir am Anfang keine Gedaken gemacht wie sich es über die Jahre entwickelt. Naja die vergangenheit holt einen ein....

              VG

              Marc BergM 1 Antwort Letzte Antwort
              0
              • S Seide Th

                @marc-berg Super die AW hilft mir dann weiter.

                Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                Da ich nur geringe Kenntnisse habe, wollte ich nicht auf DB Version 2 oder 3 umsteigen. Da soll ja die Auswertung in Grafana komplizierter sein.

                Ich hatte 2019 damit angefangen und mir am Anfang keine Gedaken gemacht wie sich es über die Jahre entwickelt. Naja die vergangenheit holt einen ein....

                VG

                Marc BergM Offline
                Marc BergM Offline
                Marc Berg
                Most Active
                schrieb am zuletzt editiert von Marc Berg
                #14

                @seide-th sagte in Zeitraum Datensätze:

                Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                Das Löschen alter Datensätze ist recht simpel.

                • Per CLI auf die Datenbank verbinden: influx
                • Datenbank auswählen: USE <datenbankname>
                • Daten älter als ... löschen (in UTC):
                DELETE FROM "<measurement>" WHERE time < '2024-12-31T23:00:00Z'
                

                Das muss dann pro Measurement gemacht werden.

                NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                S 1 Antwort Letzte Antwort
                0
                • Marc BergM Marc Berg

                  @seide-th sagte in Zeitraum Datensätze:

                  Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                  Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                  kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                  Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                  Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                  Korrekt, ja.

                  MartinPM Online
                  MartinPM Online
                  MartinP
                  schrieb am zuletzt editiert von
                  #15

                  @marc-berg sagte in Zeitraum Datensätze:

                  @seide-th sagte in Zeitraum Datensätze:

                  Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                  Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                  kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                  Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                  Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                  Korrekt, ja.

                  Ein oder mehrere Langzeit-Buckets für die Influx-DB habe ich auch noch auf der to-Do Liste.

                  Da will ich den Ansatz wählen, die Daten auszudünnen, und influx-intern vom Jahres Bucket zu den Langzeit Bucket(s) zu transferieren ...

                  Bei Energiewerten vielleicht nur Tagesverbräuche und keine Stundenwerte.
                  Manche Datenreihen vielleicht gar nicht in das Langzeitbucket übertragen...

                  Derzeit habe ich das aber leider noch nicht gemacht, und z. B. der Gasverbrauch kann nur ein Jahr in die Vergangenheit bestimmt werden. Alles was älter ist wird "weggefressen"

                  Intel(R) Celeron(R) CPU N3000 @ 1.04GHz 8G RAM 480G SSD
                  Virtualization : unprivileged lxc container (debian 12 on Proxmox 8.4.14)
                  Linux pve 6.8.12-16-pve
                  6 GByte RAM für den Container
                  Fritzbox 6591 FW 8.03 (Vodafone Leih-Box)
                  Remote-Access über Wireguard der Fritzbox

                  1 Antwort Letzte Antwort
                  0
                  • Marc BergM Marc Berg

                    @seide-th sagte in Zeitraum Datensätze:

                    Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                    Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                    Das Löschen alter Datensätze ist recht simpel.

                    • Per CLI auf die Datenbank verbinden: influx
                    • Datenbank auswählen: USE <datenbankname>
                    • Daten älter als ... löschen (in UTC):
                    DELETE FROM "<measurement>" WHERE time < '2024-12-31T23:00:00Z'
                    

                    Das muss dann pro Measurement gemacht werden.

                    S Offline
                    S Offline
                    Seide Th
                    schrieb am zuletzt editiert von
                    #16

                    @marc-berg Moin
                    ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                    USE <iobroker>
                    

                    aufgefrufen habe.

                    ERR: unable to parse authentication credentials
                    DB does not exist!
                    

                    Ich habe es auch mit der Eingabe

                    SHOW DATABASES
                    

                    versucht, um zu vermeiden das ich den falschen Namen verwendet habe. Leider kommt dann folgende Meldung.

                    Marc BergM 1 Antwort Letzte Antwort
                    0
                    • S Seide Th

                      @marc-berg Moin
                      ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                      USE <iobroker>
                      

                      aufgefrufen habe.

                      ERR: unable to parse authentication credentials
                      DB does not exist!
                      

                      Ich habe es auch mit der Eingabe

                      SHOW DATABASES
                      

                      versucht, um zu vermeiden das ich den falschen Namen verwendet habe. Leider kommt dann folgende Meldung.

                      Marc BergM Offline
                      Marc BergM Offline
                      Marc Berg
                      Most Active
                      schrieb am zuletzt editiert von Marc Berg
                      #17

                      @seide-th sagte in Zeitraum Datensätze:

                      @marc-berg Moin
                      ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                      USE <iobroker>
                      

                      Die eckigen Klammern (größer als/kleiner als) dienen als Platzhalter und müssen weggelassen werden.

                      NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                      Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                      Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                      1 Antwort Letzte Antwort
                      0
                      Antworten
                      • In einem neuen Thema antworten
                      Anmelden zum Antworten
                      • Älteste zuerst
                      • Neuste zuerst
                      • Meiste Stimmen


                      Support us

                      ioBroker
                      Community Adapters
                      Donate

                      774

                      Online

                      32.6k

                      Benutzer

                      82.1k

                      Themen

                      1.3m

                      Beiträge
                      Community
                      Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                      ioBroker Community 2014-2025
                      logo
                      • Anmelden

                      • Du hast noch kein Konto? Registrieren

                      • Anmelden oder registrieren, um zu suchen
                      • Erster Beitrag
                        Letzter Beitrag
                      0
                      • Home
                      • Aktuell
                      • Tags
                      • Ungelesen 0
                      • Kategorien
                      • Unreplied
                      • Beliebt
                      • GitHub
                      • Docu
                      • Hilfe