Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Einsteigerfragen
  4. Automatisierung
  5. Zeitraum Datensätze

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    16
    1
    1.6k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    848

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    2.1k

Zeitraum Datensätze

Geplant Angeheftet Gesperrt Verschoben Automatisierung
17 Beiträge 5 Kommentatoren 1.2k Aufrufe 4 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • S Seide Th

    @homoran die Hostdatei ist 7.x, Influx ist 4.0.2. Das ist ja auch nicht Adapter abhängigSetting.JPG
    Wenn man nicht das Zahnrad wählt sondern den Stift, kann man unter Objektdaten die einzelnen Zeile edetieren.
    Objektdaten.JPG
    Hier gab es mal einen Befehl der die Speicherzeit defenierte, den suche ich und ob die Datenbankbereinigung noch mal getrennt angestoßen werden muss.

    HomoranH Nicht stören
    HomoranH Nicht stören
    Homoran
    Global Moderator Administrators
    schrieb am zuletzt editiert von Homoran
    #6

    @seide-th ich verstehe jetzt überhaupt nichts mehr
    wovon redest du?

    @Codierknecht hat dir einen aktuellen Screenshot eingestellt
    Das ist bei mir genauso

    da kannst du die Vorhaltezeit nach wie vor einstellen.

    @seide-th sagte in Zeitraum Datensätze:

    das ist ja aus der aktuellen Version schon lange verschwunden

    kann ich nicht bestätigen

    und warum willst du in den Objektdaten manipulieren?
    Das ist nicht ohne Grund nur im Expertenmodus sichtbar

    kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

    Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

    der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

    1 Antwort Letzte Antwort
    0
    • HomoranH Nicht stören
      HomoranH Nicht stören
      Homoran
      Global Moderator Administrators
      schrieb am zuletzt editiert von
      #7

      @seide-th sagte in Zeitraum Datensätze:

      die Hostdatei ist 7.x

      ??
      welche Hostdatei?

      @seide-th sagte in Zeitraum Datensätze:

      Influx ist 4.0.2.

      gut, ich nutze history, das sollte aber auch beim influx Adapter nicht anders sein.

      @seide-th sagte in Zeitraum Datensätze:

      Hier gab es mal einen Befehl der die Speicherzeit defenierte,

      Hier sind nur Konfigurationseinträge in diesem JSON.
      Keine Befehle!

      oder redest du von der InfluxDB selbst, und nicht vom Adapter?

      kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

      Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

      der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

      1 Antwort Letzte Antwort
      0
      • S Offline
        S Offline
        Seide Th
        schrieb am zuletzt editiert von
        #8

        Sorry, jetzt bin ich bei den AWs verwirrt.
        Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

        Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

        Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

        HomoranH Marc BergM 2 Antworten Letzte Antwort
        0
        • S Seide Th

          Sorry, jetzt bin ich bei den AWs verwirrt.
          Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

          Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

          Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

          HomoranH Nicht stören
          HomoranH Nicht stören
          Homoran
          Global Moderator Administrators
          schrieb am zuletzt editiert von
          #9

          @seide-th sagte in Zeitraum Datensätze:

          egal von welchem Adapter die Daten stammen.

          das ist jetzt wieder eine andere Info!

          ich dachte du redest bei

          @seide-th sagte in Zeitraum Datensätze:

          Das ist ja auch nicht Adapter abhängig

          von den verschiedenen Historisierungsadaptern (history, influx, sql)
          Zumindest redeten wir in dem Zusammenhang davon.

          bei mir ist es beim history Adapter noch da

          Screenshot_20250723-190853_Firefox.jpg

          und in den Objektdaten ist es bei dir auch.

          Da ich aber influxdb nicht nutze kann ich dir nicht sagen was du ggf. zerschiesst, wenn du das änderst, obwohl es in dem User-Interface nicht vorhanden ist

          kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

          Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

          der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

          1 Antwort Letzte Antwort
          0
          • S Seide Th

            Sorry, jetzt bin ich bei den AWs verwirrt.
            Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

            Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

            Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

            Marc BergM Offline
            Marc BergM Offline
            Marc Berg
            Most Active
            schrieb am zuletzt editiert von Marc Berg
            #10

            @seide-th sagte in Zeitraum Datensätze:

            Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

            Es gibt bei der InfluxDB keine Möglichkeit, die Vorhaltezeit auf "Datensatz"ebene einzustellen. Deshalb ist die Option ja auch rausgeflogen.

            Stattdessen musst du mehrere Datenbanken/Buckets anlegen.

            NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

            Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

            Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

            S 1 Antwort Letzte Antwort
            1
            • Marc BergM Marc Berg

              @seide-th sagte in Zeitraum Datensätze:

              Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

              Es gibt bei der InfluxDB keine Möglichkeit, die Vorhaltezeit auf "Datensatz"ebene einzustellen. Deshalb ist die Option ja auch rausgeflogen.

              Stattdessen musst du mehrere Datenbanken/Buckets anlegen.

              S Offline
              S Offline
              Seide Th
              schrieb am zuletzt editiert von
              #11

              @marc-berg Schade, aber danke für die AW. Dann muss ich ja nicht weiter suchen.

              Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist...., kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

              Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.
              Danke für die Hilfe
              Mit freundlichen Grüßen

              Marc BergM 1 Antwort Letzte Antwort
              0
              • S Seide Th

                @marc-berg Schade, aber danke für die AW. Dann muss ich ja nicht weiter suchen.

                Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist...., kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.
                Danke für die Hilfe
                Mit freundlichen Grüßen

                Marc BergM Offline
                Marc BergM Offline
                Marc Berg
                Most Active
                schrieb am zuletzt editiert von
                #12

                @seide-th sagte in Zeitraum Datensätze:

                Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                Korrekt, ja.

                NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                S MartinPM 2 Antworten Letzte Antwort
                0
                • Marc BergM Marc Berg

                  @seide-th sagte in Zeitraum Datensätze:

                  Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                  Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                  kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                  Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                  Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                  Korrekt, ja.

                  S Offline
                  S Offline
                  Seide Th
                  schrieb am zuletzt editiert von
                  #13

                  @marc-berg Super die AW hilft mir dann weiter.

                  Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                  Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                  Da ich nur geringe Kenntnisse habe, wollte ich nicht auf DB Version 2 oder 3 umsteigen. Da soll ja die Auswertung in Grafana komplizierter sein.

                  Ich hatte 2019 damit angefangen und mir am Anfang keine Gedaken gemacht wie sich es über die Jahre entwickelt. Naja die vergangenheit holt einen ein....

                  VG

                  Marc BergM 1 Antwort Letzte Antwort
                  0
                  • S Seide Th

                    @marc-berg Super die AW hilft mir dann weiter.

                    Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                    Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                    Da ich nur geringe Kenntnisse habe, wollte ich nicht auf DB Version 2 oder 3 umsteigen. Da soll ja die Auswertung in Grafana komplizierter sein.

                    Ich hatte 2019 damit angefangen und mir am Anfang keine Gedaken gemacht wie sich es über die Jahre entwickelt. Naja die vergangenheit holt einen ein....

                    VG

                    Marc BergM Offline
                    Marc BergM Offline
                    Marc Berg
                    Most Active
                    schrieb am zuletzt editiert von Marc Berg
                    #14

                    @seide-th sagte in Zeitraum Datensätze:

                    Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                    Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                    Das Löschen alter Datensätze ist recht simpel.

                    • Per CLI auf die Datenbank verbinden: influx
                    • Datenbank auswählen: USE <datenbankname>
                    • Daten älter als ... löschen (in UTC):
                    DELETE FROM "<measurement>" WHERE time < '2024-12-31T23:00:00Z'
                    

                    Das muss dann pro Measurement gemacht werden.

                    NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                    Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                    Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                    S 1 Antwort Letzte Antwort
                    0
                    • Marc BergM Marc Berg

                      @seide-th sagte in Zeitraum Datensätze:

                      Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                      Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                      kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                      Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                      Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                      Korrekt, ja.

                      MartinPM Online
                      MartinPM Online
                      MartinP
                      schrieb am zuletzt editiert von
                      #15

                      @marc-berg sagte in Zeitraum Datensätze:

                      @seide-th sagte in Zeitraum Datensätze:

                      Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                      Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                      kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                      Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                      Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                      Korrekt, ja.

                      Ein oder mehrere Langzeit-Buckets für die Influx-DB habe ich auch noch auf der to-Do Liste.

                      Da will ich den Ansatz wählen, die Daten auszudünnen, und influx-intern vom Jahres Bucket zu den Langzeit Bucket(s) zu transferieren ...

                      Bei Energiewerten vielleicht nur Tagesverbräuche und keine Stundenwerte.
                      Manche Datenreihen vielleicht gar nicht in das Langzeitbucket übertragen...

                      Derzeit habe ich das aber leider noch nicht gemacht, und z. B. der Gasverbrauch kann nur ein Jahr in die Vergangenheit bestimmt werden. Alles was älter ist wird "weggefressen"

                      Intel(R) Celeron(R) CPU N3000 @ 1.04GHz 8G RAM 480G SSD
                      Virtualization : unprivileged lxc container (debian 12 on Proxmox 8.4.14)
                      Linux pve 6.8.12-16-pve
                      6 GByte RAM für den Container
                      Fritzbox 6591 FW 8.03 (Vodafone Leih-Box)
                      Remote-Access über Wireguard der Fritzbox

                      1 Antwort Letzte Antwort
                      0
                      • Marc BergM Marc Berg

                        @seide-th sagte in Zeitraum Datensätze:

                        Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                        Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                        Das Löschen alter Datensätze ist recht simpel.

                        • Per CLI auf die Datenbank verbinden: influx
                        • Datenbank auswählen: USE <datenbankname>
                        • Daten älter als ... löschen (in UTC):
                        DELETE FROM "<measurement>" WHERE time < '2024-12-31T23:00:00Z'
                        

                        Das muss dann pro Measurement gemacht werden.

                        S Offline
                        S Offline
                        Seide Th
                        schrieb am zuletzt editiert von
                        #16

                        @marc-berg Moin
                        ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                        USE <iobroker>
                        

                        aufgefrufen habe.

                        ERR: unable to parse authentication credentials
                        DB does not exist!
                        

                        Ich habe es auch mit der Eingabe

                        SHOW DATABASES
                        

                        versucht, um zu vermeiden das ich den falschen Namen verwendet habe. Leider kommt dann folgende Meldung.

                        Marc BergM 1 Antwort Letzte Antwort
                        0
                        • S Seide Th

                          @marc-berg Moin
                          ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                          USE <iobroker>
                          

                          aufgefrufen habe.

                          ERR: unable to parse authentication credentials
                          DB does not exist!
                          

                          Ich habe es auch mit der Eingabe

                          SHOW DATABASES
                          

                          versucht, um zu vermeiden das ich den falschen Namen verwendet habe. Leider kommt dann folgende Meldung.

                          Marc BergM Offline
                          Marc BergM Offline
                          Marc Berg
                          Most Active
                          schrieb am zuletzt editiert von Marc Berg
                          #17

                          @seide-th sagte in Zeitraum Datensätze:

                          @marc-berg Moin
                          ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                          USE <iobroker>
                          

                          Die eckigen Klammern (größer als/kleiner als) dienen als Platzhalter und müssen weggelassen werden.

                          NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                          Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                          Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                          1 Antwort Letzte Antwort
                          0
                          Antworten
                          • In einem neuen Thema antworten
                          Anmelden zum Antworten
                          • Älteste zuerst
                          • Neuste zuerst
                          • Meiste Stimmen


                          Support us

                          ioBroker
                          Community Adapters
                          Donate

                          662

                          Online

                          32.6k

                          Benutzer

                          82.1k

                          Themen

                          1.3m

                          Beiträge
                          Community
                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                          ioBroker Community 2014-2025
                          logo
                          • Anmelden

                          • Du hast noch kein Konto? Registrieren

                          • Anmelden oder registrieren, um zu suchen
                          • Erster Beitrag
                            Letzter Beitrag
                          0
                          • Home
                          • Aktuell
                          • Tags
                          • Ungelesen 0
                          • Kategorien
                          • Unreplied
                          • Beliebt
                          • GitHub
                          • Docu
                          • Hilfe