Skip to content
  • Home
  • Recent
  • Tags
  • 0 Unread 0
  • Categories
  • Unreplied
  • Popular
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Einsteigerfragen
  4. Automatisierung
  5. Zeitraum Datensätze

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    3.2k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.1k

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    2.4k

Zeitraum Datensätze

Scheduled Pinned Locked Moved Automatisierung
17 Posts 5 Posters 1.2k Views 4 Watching
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    Seide Th
    wrote on last edited by
    #1

    Hallo,
    es gab doch mal eine Befehlszeile in der ich bei den Objektdaten, die Länge der Speicherzeit des einzelnen Datenfelds bestimmen konnte. Z.B. dass die Daten nur für 2 Wochen oder 2 Monate gespeichert werden sollen. Der Standard Wert für die Speicherzeit, sollte weiterhin bei „immer“ bleiben. Bzw. muss die Bereinigung der Datenbank dann getrennt noch angestoßen werden oder wann lösch die Datenbank die nichtmehr benötigten Datensätze?
    Mit freundlichen Grüßen
    Th. Seide

    CodierknechtC 1 Reply Last reply
    0
    • S Seide Th

      Hallo,
      es gab doch mal eine Befehlszeile in der ich bei den Objektdaten, die Länge der Speicherzeit des einzelnen Datenfelds bestimmen konnte. Z.B. dass die Daten nur für 2 Wochen oder 2 Monate gespeichert werden sollen. Der Standard Wert für die Speicherzeit, sollte weiterhin bei „immer“ bleiben. Bzw. muss die Bereinigung der Datenbank dann getrennt noch angestoßen werden oder wann lösch die Datenbank die nichtmehr benötigten Datensätze?
      Mit freundlichen Grüßen
      Th. Seide

      CodierknechtC Online
      CodierknechtC Online
      Codierknecht
      Developer Most Active
      wrote on last edited by
      #2

      @seide-th sagte in Zeitraum Datensätze:

      eine Befehlszeile in der ich bei den Objektdaten, die Länge der Speicherzeit des einzelnen Datenfelds bestimmen konnte

      Meinst Du das hier?

      d3a02413-34af-44cc-862e-0eb7d88c3822-image.png

      Das erreichst Du über das Zahnrad neben dem DP

      "Any fool can write code that a computer can understand. Good programmers write code that humans can understand." (Martin Fowler, "Refactoring")

      Proxmox 9.1.1 LXC|8 GB|Core i7-6700
      HmIP|ZigBee|Tasmota|Unifi
      Zabbix Certified Specialist
      Konnte ich Dir helfen? Dann benutze bitte das Voting unten rechts im Beitrag

      S 1 Reply Last reply
      0
      • CodierknechtC Codierknecht

        @seide-th sagte in Zeitraum Datensätze:

        eine Befehlszeile in der ich bei den Objektdaten, die Länge der Speicherzeit des einzelnen Datenfelds bestimmen konnte

        Meinst Du das hier?

        d3a02413-34af-44cc-862e-0eb7d88c3822-image.png

        Das erreichst Du über das Zahnrad neben dem DP

        S Offline
        S Offline
        Seide Th
        wrote on last edited by
        #3

        @codierknecht Nein, das ist ja aus der aktuellen Version schon lange verschwunden. Ich meine eine Befahlszeile in dem Skript, von den Objektdaten. Ich hatte da mal was vor Jahren gefunden und leider wieder vergessen

        HomoranH 1 Reply Last reply
        0
        • S Seide Th

          @codierknecht Nein, das ist ja aus der aktuellen Version schon lange verschwunden. Ich meine eine Befahlszeile in dem Skript, von den Objektdaten. Ich hatte da mal was vor Jahren gefunden und leider wieder vergessen

          HomoranH Do not disturb
          HomoranH Do not disturb
          Homoran
          Global Moderator Administrators
          wrote on last edited by
          #4

          @seide-th sagte in Zeitraum Datensätze:

          das ist ja aus der aktuellen Version schon lange verschwunden

          welche Version?
          von welchem Adapter?

          Ich hab das noch

          kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

          Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

          der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

          S 1 Reply Last reply
          0
          • HomoranH Homoran

            @seide-th sagte in Zeitraum Datensätze:

            das ist ja aus der aktuellen Version schon lange verschwunden

            welche Version?
            von welchem Adapter?

            Ich hab das noch

            S Offline
            S Offline
            Seide Th
            wrote on last edited by
            #5

            @homoran die Hostdatei ist 7.x, Influx ist 4.0.2. Das ist ja auch nicht Adapter abhängigSetting.JPG
            Wenn man nicht das Zahnrad wählt sondern den Stift, kann man unter Objektdaten die einzelnen Zeile edetieren.
            Objektdaten.JPG
            Hier gab es mal einen Befehl der die Speicherzeit defenierte, den suche ich und ob die Datenbankbereinigung noch mal getrennt angestoßen werden muss.

            HomoranH 1 Reply Last reply
            0
            • S Seide Th

              @homoran die Hostdatei ist 7.x, Influx ist 4.0.2. Das ist ja auch nicht Adapter abhängigSetting.JPG
              Wenn man nicht das Zahnrad wählt sondern den Stift, kann man unter Objektdaten die einzelnen Zeile edetieren.
              Objektdaten.JPG
              Hier gab es mal einen Befehl der die Speicherzeit defenierte, den suche ich und ob die Datenbankbereinigung noch mal getrennt angestoßen werden muss.

              HomoranH Do not disturb
              HomoranH Do not disturb
              Homoran
              Global Moderator Administrators
              wrote on last edited by Homoran
              #6

              @seide-th ich verstehe jetzt überhaupt nichts mehr
              wovon redest du?

              @Codierknecht hat dir einen aktuellen Screenshot eingestellt
              Das ist bei mir genauso

              da kannst du die Vorhaltezeit nach wie vor einstellen.

              @seide-th sagte in Zeitraum Datensätze:

              das ist ja aus der aktuellen Version schon lange verschwunden

              kann ich nicht bestätigen

              und warum willst du in den Objektdaten manipulieren?
              Das ist nicht ohne Grund nur im Expertenmodus sichtbar

              kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

              Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

              der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

              1 Reply Last reply
              0
              • HomoranH Do not disturb
                HomoranH Do not disturb
                Homoran
                Global Moderator Administrators
                wrote on last edited by
                #7

                @seide-th sagte in Zeitraum Datensätze:

                die Hostdatei ist 7.x

                ??
                welche Hostdatei?

                @seide-th sagte in Zeitraum Datensätze:

                Influx ist 4.0.2.

                gut, ich nutze history, das sollte aber auch beim influx Adapter nicht anders sein.

                @seide-th sagte in Zeitraum Datensätze:

                Hier gab es mal einen Befehl der die Speicherzeit defenierte,

                Hier sind nur Konfigurationseinträge in diesem JSON.
                Keine Befehle!

                oder redest du von der InfluxDB selbst, und nicht vom Adapter?

                kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

                Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

                der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

                1 Reply Last reply
                0
                • S Offline
                  S Offline
                  Seide Th
                  wrote on last edited by
                  #8

                  Sorry, jetzt bin ich bei den AWs verwirrt.
                  Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

                  Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

                  Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

                  HomoranH Marc BergM 2 Replies Last reply
                  0
                  • S Seide Th

                    Sorry, jetzt bin ich bei den AWs verwirrt.
                    Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

                    Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

                    Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

                    HomoranH Do not disturb
                    HomoranH Do not disturb
                    Homoran
                    Global Moderator Administrators
                    wrote on last edited by
                    #9

                    @seide-th sagte in Zeitraum Datensätze:

                    egal von welchem Adapter die Daten stammen.

                    das ist jetzt wieder eine andere Info!

                    ich dachte du redest bei

                    @seide-th sagte in Zeitraum Datensätze:

                    Das ist ja auch nicht Adapter abhängig

                    von den verschiedenen Historisierungsadaptern (history, influx, sql)
                    Zumindest redeten wir in dem Zusammenhang davon.

                    bei mir ist es beim history Adapter noch da

                    Screenshot_20250723-190853_Firefox.jpg

                    und in den Objektdaten ist es bei dir auch.

                    Da ich aber influxdb nicht nutze kann ich dir nicht sagen was du ggf. zerschiesst, wenn du das änderst, obwohl es in dem User-Interface nicht vorhanden ist

                    kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

                    Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

                    der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

                    1 Reply Last reply
                    0
                    • S Seide Th

                      Sorry, jetzt bin ich bei den AWs verwirrt.
                      Ich habe den Punkt nicht, bei dem ich die Vorhaltezeit einstellen kann Setting.JPG Der war vor längerer Zeit nach einem Update weg. Wenn der nur ausgeblendet ist, ok. Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

                      Das ist bei allen Datensätze so, egal von welchem Adapter die Daten stammen.

                      Deswegen bin ich auf die Objektdaten gekommen, sorry wenn ich da auf dem falschen Weg war und für Verwirrung sorge

                      Marc BergM Offline
                      Marc BergM Offline
                      Marc Berg
                      Most Active
                      wrote on last edited by Marc Berg
                      #10

                      @seide-th sagte in Zeitraum Datensätze:

                      Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

                      Es gibt bei der InfluxDB keine Möglichkeit, die Vorhaltezeit auf "Datensatz"ebene einzustellen. Deshalb ist die Option ja auch rausgeflogen.

                      Stattdessen musst du mehrere Datenbanken/Buckets anlegen.

                      NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                      Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                      Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                      S 1 Reply Last reply
                      1
                      • Marc BergM Marc Berg

                        @seide-th sagte in Zeitraum Datensätze:

                        Wie ich es hinbekomme, dass einzelene Datensätze unterschiedlich lange Vorhaltezeiten haben, ist mir egal.

                        Es gibt bei der InfluxDB keine Möglichkeit, die Vorhaltezeit auf "Datensatz"ebene einzustellen. Deshalb ist die Option ja auch rausgeflogen.

                        Stattdessen musst du mehrere Datenbanken/Buckets anlegen.

                        S Offline
                        S Offline
                        Seide Th
                        wrote on last edited by
                        #11

                        @marc-berg Schade, aber danke für die AW. Dann muss ich ja nicht weiter suchen.

                        Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist...., kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                        Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.
                        Danke für die Hilfe
                        Mit freundlichen Grüßen

                        Marc BergM 1 Reply Last reply
                        0
                        • S Seide Th

                          @marc-berg Schade, aber danke für die AW. Dann muss ich ja nicht weiter suchen.

                          Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist...., kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                          Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.
                          Danke für die Hilfe
                          Mit freundlichen Grüßen

                          Marc BergM Offline
                          Marc BergM Offline
                          Marc Berg
                          Most Active
                          wrote on last edited by
                          #12

                          @seide-th sagte in Zeitraum Datensätze:

                          Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                          Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                          kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                          Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                          Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                          Korrekt, ja.

                          NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                          Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                          Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                          S MartinPM 2 Replies Last reply
                          0
                          • Marc BergM Marc Berg

                            @seide-th sagte in Zeitraum Datensätze:

                            Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                            Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                            kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                            Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                            Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                            Korrekt, ja.

                            S Offline
                            S Offline
                            Seide Th
                            wrote on last edited by
                            #13

                            @marc-berg Super die AW hilft mir dann weiter.

                            Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                            Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                            Da ich nur geringe Kenntnisse habe, wollte ich nicht auf DB Version 2 oder 3 umsteigen. Da soll ja die Auswertung in Grafana komplizierter sein.

                            Ich hatte 2019 damit angefangen und mir am Anfang keine Gedaken gemacht wie sich es über die Jahre entwickelt. Naja die vergangenheit holt einen ein....

                            VG

                            Marc BergM 1 Reply Last reply
                            0
                            • S Seide Th

                              @marc-berg Super die AW hilft mir dann weiter.

                              Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                              Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                              Da ich nur geringe Kenntnisse habe, wollte ich nicht auf DB Version 2 oder 3 umsteigen. Da soll ja die Auswertung in Grafana komplizierter sein.

                              Ich hatte 2019 damit angefangen und mir am Anfang keine Gedaken gemacht wie sich es über die Jahre entwickelt. Naja die vergangenheit holt einen ein....

                              VG

                              Marc BergM Offline
                              Marc BergM Offline
                              Marc Berg
                              Most Active
                              wrote on last edited by Marc Berg
                              #14

                              @seide-th sagte in Zeitraum Datensätze:

                              Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                              Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                              Das Löschen alter Datensätze ist recht simpel.

                              • Per CLI auf die Datenbank verbinden: influx
                              • Datenbank auswählen: USE <datenbankname>
                              • Daten älter als ... löschen (in UTC):
                              DELETE FROM "<measurement>" WHERE time < '2024-12-31T23:00:00Z'
                              

                              Das muss dann pro Measurement gemacht werden.

                              NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                              Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                              Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                              S 1 Reply Last reply
                              0
                              • Marc BergM Marc Berg

                                @seide-th sagte in Zeitraum Datensätze:

                                Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                                Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                                kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                                Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                                Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                                Korrekt, ja.

                                MartinPM Offline
                                MartinPM Offline
                                MartinP
                                wrote on last edited by
                                #15

                                @marc-berg sagte in Zeitraum Datensätze:

                                @seide-th sagte in Zeitraum Datensätze:

                                Da die Datenbanksicherung der InfluxDB bei mir inzwischen 17Gb ist....,

                                Bei der Größe stelle ich mal die Behauptung in den Raum, dass du schon bei der Aufzeichnung deutlich optimieren könntest.

                                kann ich denn die Datensätze die nicht solange vorgehalten werden sollen einzeln Löschen, ohne dass ich das Datenfeld unter Objekte komplett löschen muss?

                                Ja. Wie das geht, hängt von der Version der InfluxDB ab, die du noch nicht verraten hast.

                                Und wenn ich es dann richtig verstehe, würde ich eine oder zwei weitere Datenbanken (influxDB) anlegen und da dann die zeitlich begrenzten Datensätze aufzeichnen. Die Vorhaltezeit gebe ich dann in den „Instanzen“ und dann unter „Standardeinstellungen“ vor. Die Löschung erfolgt dann automatisch ohne dass ich noch was anstoßen muss.

                                Korrekt, ja.

                                Ein oder mehrere Langzeit-Buckets für die Influx-DB habe ich auch noch auf der to-Do Liste.

                                Da will ich den Ansatz wählen, die Daten auszudünnen, und influx-intern vom Jahres Bucket zu den Langzeit Bucket(s) zu transferieren ...

                                Bei Energiewerten vielleicht nur Tagesverbräuche und keine Stundenwerte.
                                Manche Datenreihen vielleicht gar nicht in das Langzeitbucket übertragen...

                                Derzeit habe ich das aber leider noch nicht gemacht, und z. B. der Gasverbrauch kann nur ein Jahr in die Vergangenheit bestimmt werden. Alles was älter ist wird "weggefressen"

                                Intel(R) Celeron(R) CPU N3000 @ 1.04GHz 8G RAM 480G SSD
                                Virtualization : unprivileged lxc container (debian 13) on Proxmox 9.1.5)
                                Linux pve 6.17.9-1-pve
                                6 GByte RAM für den Container
                                Fritzbox 6591 FW 8.20 (Vodafone Leih-Box)
                                Remote-Access über Wireguard der Fritzbox

                                1 Reply Last reply
                                0
                                • Marc BergM Marc Berg

                                  @seide-th sagte in Zeitraum Datensätze:

                                  Zum Punkt Datensätze löschen ohne das Objekt zu löschen:
                                  Ich habe noch die DB Version 1.x eingestellt und der Adapter hat die Version 4.0.2

                                  Das Löschen alter Datensätze ist recht simpel.

                                  • Per CLI auf die Datenbank verbinden: influx
                                  • Datenbank auswählen: USE <datenbankname>
                                  • Daten älter als ... löschen (in UTC):
                                  DELETE FROM "<measurement>" WHERE time < '2024-12-31T23:00:00Z'
                                  

                                  Das muss dann pro Measurement gemacht werden.

                                  S Offline
                                  S Offline
                                  Seide Th
                                  wrote on last edited by
                                  #16

                                  @marc-berg Moin
                                  ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                                  USE <iobroker>
                                  

                                  aufgefrufen habe.

                                  ERR: unable to parse authentication credentials
                                  DB does not exist!
                                  

                                  Ich habe es auch mit der Eingabe

                                  SHOW DATABASES
                                  

                                  versucht, um zu vermeiden das ich den falschen Namen verwendet habe. Leider kommt dann folgende Meldung.

                                  Marc BergM 1 Reply Last reply
                                  0
                                  • S Seide Th

                                    @marc-berg Moin
                                    ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                                    USE <iobroker>
                                    

                                    aufgefrufen habe.

                                    ERR: unable to parse authentication credentials
                                    DB does not exist!
                                    

                                    Ich habe es auch mit der Eingabe

                                    SHOW DATABASES
                                    

                                    versucht, um zu vermeiden das ich den falschen Namen verwendet habe. Leider kommt dann folgende Meldung.

                                    Marc BergM Offline
                                    Marc BergM Offline
                                    Marc Berg
                                    Most Active
                                    wrote on last edited by Marc Berg
                                    #17

                                    @seide-th sagte in Zeitraum Datensätze:

                                    @marc-berg Moin
                                    ich muss leider noch mal nachfragen. Ich bekomme immer folgende Rückmeldung, nachden ich in der CLI von influx die Datenbank mit

                                    USE <iobroker>
                                    

                                    Die eckigen Klammern (größer als/kleiner als) dienen als Platzhalter und müssen weggelassen werden.

                                    NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                                    Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                                    Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                                    1 Reply Last reply
                                    0
                                    Reply
                                    • Reply as topic
                                    Log in to reply
                                    • Oldest to Newest
                                    • Newest to Oldest
                                    • Most Votes


                                    Support us

                                    ioBroker
                                    Community Adapters
                                    Donate

                                    287

                                    Online

                                    32.7k

                                    Users

                                    82.3k

                                    Topics

                                    1.3m

                                    Posts
                                    Community
                                    Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                    ioBroker Community 2014-2025
                                    logo
                                    • Login

                                    • Don't have an account? Register

                                    • Login or register to search.
                                    • First post
                                      Last post
                                    0
                                    • Home
                                    • Recent
                                    • Tags
                                    • Unread 0
                                    • Categories
                                    • Unreplied
                                    • Popular
                                    • GitHub
                                    • Docu
                                    • Hilfe