Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Einsteigerfragen
  4. Automatisierung
  5. Zeitraum Datensätze

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    16
    1
    1.6k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    849

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    2.1k

Zeitraum Datensätze

Geplant Angeheftet Gesperrt Verschoben Automatisierung
17 Beiträge 5 Kommentatoren 1.2k Aufrufe 4 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • HomoranH Nicht stören
    HomoranH Nicht stören
    Homoran
    Global Moderator Administrators
    schrieb am zuletzt editiert von
    #7

    @seide-th sagte in Zeitraum Datensätze:

    die Hostdatei ist 7.x

    ??
    welche Hostdatei?

    @seide-th sagte in Zeitraum Datensätze:

    Influx ist 4.0.2.

    gut, ich nutze history, das sollte aber auch beim influx Adapter nicht anders sein.

    @seide-th sagte in Zeitraum Datensätze:

    Hier gab es mal einen Befehl der die Speicherzeit defenierte,

    Hier sind nur Konfigurationseinträge in diesem JSON.
    Keine Befehle!

    oder redest du von der InfluxDB selbst, und nicht vom Adapter?

    kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

    Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

    der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

    1 Antwort Letzte Antwort
    0
    • S Offline
      S Offline
      Seide Th
      schrieb am zuletzt editiert von
      #8

      Sorry, jetzt bin ich bei den AWs verwirrt.
      Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

      Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

      Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

      HomoranH Marc BergM 2 Antworten Letzte Antwort
      0
      • S Seide Th

        Sorry, jetzt bin ich bei den AWs verwirrt.
        Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

        Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

        Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

        HomoranH Nicht stören
        HomoranH Nicht stören
        Homoran
        Global Moderator Administrators
        schrieb am zuletzt editiert von
        #9

        @seide-th sagte in Zeitraum Datensätze:

        egal von welchem Adapter die Daten stammen.

        das ist jetzt wieder eine andere Info!

        ich dachte du redest bei

        @seide-th sagte in Zeitraum Datensätze:

        Das ist ja auch nicht Adapter abhängig

        von den verschiedenen Historisierungsadaptern (history, influx, sql)
        Zumindest redeten wir in dem Zusammenhang davon.

        bei mir ist es beim history Adapter noch da

        Screenshot_20250723-190853_Firefox.jpg

        und in den Objektdaten ist es bei dir auch.

        Da ich aber influxdb nicht nutze kann ich dir nicht sagen was du ggf. zerschiesst, wenn du das änderst, obwohl es in dem User-Interface nicht vorhanden ist

        kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

        Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

        der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

        1 Antwort Letzte Antwort
        0
        • S Seide Th

          Sorry, jetzt bin ich bei den AWs verwirrt.
          Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

          Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

          Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

          Marc BergM Offline
          Marc BergM Offline
          Marc Berg
          Most Active
          schrieb am zuletzt editiert von Marc Berg
          #10

          @seide-th sagte in Zeitraum Datensätze:

          Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

          Es gibt bei der InfluxDB keine Möglichkeit, die Vorhaltezeit auf "Datensatz"ebene einzustellen. Deshalb ist die Option ja auch rausgeflogen.

          Stattdessen musst du mehrere Datenbanken/Buckets anlegen.

          NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

          Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

          Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

          S 1 Antwort Letzte Antwort
          1
          • Marc BergM Marc Berg

            @seide-th sagte in Zeitraum Datensätze:

            Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

            Es gibt bei der InfluxDB keine Möglichkeit, die Vorhaltezeit auf "Datensatz"ebene einzustellen. Deshalb ist die Option ja auch rausgeflogen.

            Stattdessen musst du mehrere Datenbanken/Buckets anlegen.

            S Offline
            S Offline
            Seide Th
            schrieb am zuletzt editiert von
            #11

            @marc-berg Schade, aber danke für die AW. Dann muss ich ja nicht weiter suchen.

            Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist...., kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

            Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.
            Danke für die Hilfe
            Mit freundlichen Grüßen

            Marc BergM 1 Antwort Letzte Antwort
            0
            • S Seide Th

              @marc-berg Schade, aber danke für die AW. Dann muss ich ja nicht weiter suchen.

              Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist...., kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

              Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.
              Danke für die Hilfe
              Mit freundlichen Grüßen

              Marc BergM Offline
              Marc BergM Offline
              Marc Berg
              Most Active
              schrieb am zuletzt editiert von
              #12

              @seide-th sagte in Zeitraum Datensätze:

              Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

              Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

              kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

              Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

              Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

              Korrekt, ja.

              NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

              Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

              Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

              S MartinPM 2 Antworten Letzte Antwort
              0
              • Marc BergM Marc Berg

                @seide-th sagte in Zeitraum Datensätze:

                Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                Korrekt, ja.

                S Offline
                S Offline
                Seide Th
                schrieb am zuletzt editiert von
                #13

                @marc-berg Super die AW hilft mir dann weiter.

                Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                Da ich nur geringe Kenntnisse habe, wollte ich nicht auf DB Version 2 oder 3 umsteigen. Da soll ja die Auswertung in Grafana komplizierter sein.

                Ich hatte 2019 damit angefangen und mir am Anfang keine Gedaken gemacht wie sich es über die Jahre entwickelt. Naja die vergangenheit holt einen ein....

                VG

                Marc BergM 1 Antwort Letzte Antwort
                0
                • S Seide Th

                  @marc-berg Super die AW hilft mir dann weiter.

                  Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                  Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                  Da ich nur geringe Kenntnisse habe, wollte ich nicht auf DB Version 2 oder 3 umsteigen. Da soll ja die Auswertung in Grafana komplizierter sein.

                  Ich hatte 2019 damit angefangen und mir am Anfang keine Gedaken gemacht wie sich es über die Jahre entwickelt. Naja die vergangenheit holt einen ein....

                  VG

                  Marc BergM Offline
                  Marc BergM Offline
                  Marc Berg
                  Most Active
                  schrieb am zuletzt editiert von Marc Berg
                  #14

                  @seide-th sagte in Zeitraum Datensätze:

                  Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                  Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                  Das Löschen alter Datensätze ist recht simpel.

                  • Per CLI auf die Datenbank verbinden: influx
                  • Datenbank auswählen: USE <datenbankname>
                  • Daten älter als ... löschen (in UTC):
                  DELETE FROM "<measurement>" WHERE time < '2024-12-31T23:00:00Z'
                  

                  Das muss dann pro Measurement gemacht werden.

                  NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                  Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                  Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                  S 1 Antwort Letzte Antwort
                  0
                  • Marc BergM Marc Berg

                    @seide-th sagte in Zeitraum Datensätze:

                    Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                    Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                    kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                    Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                    Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                    Korrekt, ja.

                    MartinPM Online
                    MartinPM Online
                    MartinP
                    schrieb am zuletzt editiert von
                    #15

                    @marc-berg sagte in Zeitraum Datensätze:

                    @seide-th sagte in Zeitraum Datensätze:

                    Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                    Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                    kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                    Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                    Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                    Korrekt, ja.

                    Ein oder mehrere Langzeit-Buckets für die Influx-DB habe ich auch noch auf der to-Do Liste.

                    Da will ich den Ansatz wählen, die Daten auszudünnen, und influx-intern vom Jahres Bucket zu den Langzeit Bucket(s) zu transferieren ...

                    Bei Energiewerten vielleicht nur Tagesverbräuche und keine Stundenwerte.
                    Manche Datenreihen vielleicht gar nicht in das Langzeitbucket übertragen...

                    Derzeit habe ich das aber leider noch nicht gemacht, und z. B. der Gasverbrauch kann nur ein Jahr in die Vergangenheit bestimmt werden. Alles was älter ist wird "weggefressen"

                    Intel(R) Celeron(R) CPU N3000 @ 1.04GHz 8G RAM 480G SSD
                    Virtualization : unprivileged lxc container (debian 12 on Proxmox 8.4.14)
                    Linux pve 6.8.12-16-pve
                    6 GByte RAM für den Container
                    Fritzbox 6591 FW 8.03 (Vodafone Leih-Box)
                    Remote-Access über Wireguard der Fritzbox

                    1 Antwort Letzte Antwort
                    0
                    • Marc BergM Marc Berg

                      @seide-th sagte in Zeitraum Datensätze:

                      Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                      Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                      Das Löschen alter Datensätze ist recht simpel.

                      • Per CLI auf die Datenbank verbinden: influx
                      • Datenbank auswählen: USE <datenbankname>
                      • Daten älter als ... löschen (in UTC):
                      DELETE FROM "<measurement>" WHERE time < '2024-12-31T23:00:00Z'
                      

                      Das muss dann pro Measurement gemacht werden.

                      S Offline
                      S Offline
                      Seide Th
                      schrieb am zuletzt editiert von
                      #16

                      @marc-berg Moin
                      ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                      USE <iobroker>
                      

                      aufgefrufen habe.

                      ERR: unable to parse authentication credentials
                      DB does not exist!
                      

                      Ich habe es auch mit der Eingabe

                      SHOW DATABASES
                      

                      versucht, um zu vermeiden das ich den falschen Namen verwendet habe. Leider kommt dann folgende Meldung.

                      Marc BergM 1 Antwort Letzte Antwort
                      0
                      • S Seide Th

                        @marc-berg Moin
                        ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                        USE <iobroker>
                        

                        aufgefrufen habe.

                        ERR: unable to parse authentication credentials
                        DB does not exist!
                        

                        Ich habe es auch mit der Eingabe

                        SHOW DATABASES
                        

                        versucht, um zu vermeiden das ich den falschen Namen verwendet habe. Leider kommt dann folgende Meldung.

                        Marc BergM Offline
                        Marc BergM Offline
                        Marc Berg
                        Most Active
                        schrieb am zuletzt editiert von Marc Berg
                        #17

                        @seide-th sagte in Zeitraum Datensätze:

                        @marc-berg Moin
                        ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                        USE <iobroker>
                        

                        Die eckigen Klammern (größer als/kleiner als) dienen als Platzhalter und müssen weggelassen werden.

                        NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                        Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                        Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                        1 Antwort Letzte Antwort
                        0
                        Antworten
                        • In einem neuen Thema antworten
                        Anmelden zum Antworten
                        • Älteste zuerst
                        • Neuste zuerst
                        • Meiste Stimmen


                        Support us

                        ioBroker
                        Community Adapters
                        Donate

                        778

                        Online

                        32.6k

                        Benutzer

                        82.1k

                        Themen

                        1.3m

                        Beiträge
                        Community
                        Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                        ioBroker Community 2014-2025
                        logo
                        • Anmelden

                        • Du hast noch kein Konto? Registrieren

                        • Anmelden oder registrieren, um zu suchen
                        • Erster Beitrag
                          Letzter Beitrag
                        0
                        • Home
                        • Aktuell
                        • Tags
                        • Ungelesen 0
                        • Kategorien
                        • Unreplied
                        • Beliebt
                        • GitHub
                        • Docu
                        • Hilfe