Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Einsteigerfragen
  4. Installation
  5. influxdb cloud Daten importieren

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.7k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    2.2k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    16
    1
    3.0k

influxdb cloud Daten importieren

Geplant Angeheftet Gesperrt Verschoben Installation
31 Beiträge 3 Kommentatoren 3.2k Aufrufe 3 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • dirk_1930D dirk_1930

    @glasfaser said in influxdb cloud Daten importieren:

    @dirk_1930 sagte in influxdb cloud Daten importieren:

    allerdings schreibt er keine Daten...

    Test mit lp :

    sudo influx_inspect export -database iobroker  -datadir /var/lib/influxdb/data -waldir /var/lib/influxdb/wal -retention autogen  -out /tmp/iobroker_backup/influxv1backup.lp -lponly
    

    auch nicht so !?

    Jetzt passiert etwas

    writing out tsm file data for iobroker/autogen...
    

    allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht :-(

    Linux ist nicht wirklich meine Stärke...

    GlasfaserG Offline
    GlasfaserG Offline
    Glasfaser
    schrieb am zuletzt editiert von Glasfaser
    #9

    @dirk_1930 sagte in influxdb cloud Daten importieren:

    allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht

    mhh ... wie groß ist denn dein Influxd Datenbank mb/ GB oder

    Schonmal ein Backup mit dem Backitup adapter gemacht

    Synology 918+ 16GB - ioBroker in Docker v9 , VISO auf Trekstor Primebook C13 13,3" , Hikvision Domkameras mit Surveillance Station .. CCU RaspberryMatic in Synology VM .. Zigbee CC2538+CC2592 .. Sonoff .. KNX .. Modbus ..

    dirk_1930D 1 Antwort Letzte Antwort
    0
    • GlasfaserG Glasfaser

      @dirk_1930 sagte in influxdb cloud Daten importieren:

      allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht

      mhh ... wie groß ist denn dein Influxd Datenbank mb/ GB oder

      Schonmal ein Backup mit dem Backitup adapter gemacht

      dirk_1930D Offline
      dirk_1930D Offline
      dirk_1930
      schrieb am zuletzt editiert von
      #10

      @glasfaser
      Sicherung 1x täglich
      Die Datenbank ist 226MB groß

      GlasfaserG 1 Antwort Letzte Antwort
      0
      • dirk_1930D dirk_1930

        @glasfaser
        Sicherung 1x täglich
        Die Datenbank ist 226MB groß

        GlasfaserG Offline
        GlasfaserG Offline
        Glasfaser
        schrieb am zuletzt editiert von
        #11

        @dirk_1930 sagte in influxdb cloud Daten importieren:

        Die Datenbank ist 226MB groß

        :) ist winzig .. klein

        Synology 918+ 16GB - ioBroker in Docker v9 , VISO auf Trekstor Primebook C13 13,3" , Hikvision Domkameras mit Surveillance Station .. CCU RaspberryMatic in Synology VM .. Zigbee CC2538+CC2592 .. Sonoff .. KNX .. Modbus ..

        dirk_1930D 1 Antwort Letzte Antwort
        0
        • GlasfaserG Glasfaser

          @dirk_1930 sagte in influxdb cloud Daten importieren:

          Die Datenbank ist 226MB groß

          :) ist winzig .. klein

          dirk_1930D Offline
          dirk_1930D Offline
          dirk_1930
          schrieb am zuletzt editiert von
          #12

          @glasfaser
          Irgend eine Idee, warum er dann die Daten nicht so sichert, wie du vorher beschrieben hast?

          GlasfaserG 1 Antwort Letzte Antwort
          0
          • dirk_1930D dirk_1930

            @dp20eic
            Hallo Bernd,

            die lokale db hat die Version 1, die Cloud sollte Version 2 sein.

            Ich wollte in die Cloud, um die Daten von anderen Rechner abrufen zu können.

            Die Doks lese ich mir mal durch, aber vielleicht kannst du mit den Angaben oben mir schon einen Tip geben?

            GlasfaserG Offline
            GlasfaserG Offline
            Glasfaser
            schrieb am zuletzt editiert von
            #13

            @dirk_1930 sagte in influxdb cloud Daten importieren:

            die lokale db hat die Version 1, die Cloud sollte Version 2 sein.

            So ganz verstehe ich das nicht , denn Cloud habe ich nicht

            Dann wäre von ioBroker aus dann

            Instanz.0 für 1.8
            Instanz.1 für 2.0

            sein , die diese Datenpunkte dann beschreiben !!?

            Synology 918+ 16GB - ioBroker in Docker v9 , VISO auf Trekstor Primebook C13 13,3" , Hikvision Domkameras mit Surveillance Station .. CCU RaspberryMatic in Synology VM .. Zigbee CC2538+CC2592 .. Sonoff .. KNX .. Modbus ..

            dirk_1930D 1 Antwort Letzte Antwort
            0
            • dirk_1930D dirk_1930

              @glasfaser
              Irgend eine Idee, warum er dann die Daten nicht so sichert, wie du vorher beschrieben hast?

              GlasfaserG Offline
              GlasfaserG Offline
              Glasfaser
              schrieb am zuletzt editiert von
              #14

              @dirk_1930 sagte in influxdb cloud Daten importieren:

              Irgend eine Idee, warum er dann die Daten nicht so sichert, wie du vorher beschrieben hast?

              Sollte eigenlich gehen ...

              auch das hier , in eine neue Datenbank schreiben

              @dirk_1930 sagte in influxdb cloud Daten importieren:

              sudo influxd restore -portable -db iobroker -newdb iobroker2 /tmp/iobroker_backup

              iobroker2 darf nicht vorhanden sein !!

              Synology 918+ 16GB - ioBroker in Docker v9 , VISO auf Trekstor Primebook C13 13,3" , Hikvision Domkameras mit Surveillance Station .. CCU RaspberryMatic in Synology VM .. Zigbee CC2538+CC2592 .. Sonoff .. KNX .. Modbus ..

              1 Antwort Letzte Antwort
              0
              • GlasfaserG Glasfaser

                @dirk_1930 sagte in influxdb cloud Daten importieren:

                die lokale db hat die Version 1, die Cloud sollte Version 2 sein.

                So ganz verstehe ich das nicht , denn Cloud habe ich nicht

                Dann wäre von ioBroker aus dann

                Instanz.0 für 1.8
                Instanz.1 für 2.0

                sein , die diese Datenpunkte dann beschreiben !!?

                dirk_1930D Offline
                dirk_1930D Offline
                dirk_1930
                schrieb am zuletzt editiert von
                #15

                @glasfaser said in influxdb cloud Daten importieren:

                @dirk_1930 sagte in influxdb cloud Daten importieren:

                die lokale db hat die Version 1, die Cloud sollte Version 2 sein.

                So ganz verstehe ich das nicht , denn Cloud habe ich nicht

                Dann wäre von ioBroker aus dann

                Instanz.0 für 1.8
                Instanz.1 für 2.0

                sein , die diese Datenpunkte dann beschreiben !!?

                Meine Idee wäre es gewesen, die alte Instanz schlafen zu legen und nur noch in die Neue Version zu schreiben

                ? GlasfaserG 2 Antworten Letzte Antwort
                0
                • dirk_1930D dirk_1930

                  @glasfaser said in influxdb cloud Daten importieren:

                  @dirk_1930 sagte in influxdb cloud Daten importieren:

                  die lokale db hat die Version 1, die Cloud sollte Version 2 sein.

                  So ganz verstehe ich das nicht , denn Cloud habe ich nicht

                  Dann wäre von ioBroker aus dann

                  Instanz.0 für 1.8
                  Instanz.1 für 2.0

                  sein , die diese Datenpunkte dann beschreiben !!?

                  Meine Idee wäre es gewesen, die alte Instanz schlafen zu legen und nur noch in die Neue Version zu schreiben

                  ? Offline
                  ? Offline
                  Ein ehemaliger Benutzer
                  schrieb am zuletzt editiert von
                  #16

                  @dirk_1930

                  Moin,

                  ich schaffe das heute nicht mehr, aber morgen würde ich mir ein Zugang zur Cloud besorgen, und dann mal Testen, da ich hier sowohl V1.8er und V 2.xer InfluxDb nutze.

                  VG
                  Bernd

                  dirk_1930D 1 Antwort Letzte Antwort
                  0
                  • dirk_1930D dirk_1930

                    @glasfaser said in influxdb cloud Daten importieren:

                    @dirk_1930 sagte in influxdb cloud Daten importieren:

                    die lokale db hat die Version 1, die Cloud sollte Version 2 sein.

                    So ganz verstehe ich das nicht , denn Cloud habe ich nicht

                    Dann wäre von ioBroker aus dann

                    Instanz.0 für 1.8
                    Instanz.1 für 2.0

                    sein , die diese Datenpunkte dann beschreiben !!?

                    Meine Idee wäre es gewesen, die alte Instanz schlafen zu legen und nur noch in die Neue Version zu schreiben

                    GlasfaserG Offline
                    GlasfaserG Offline
                    Glasfaser
                    schrieb am zuletzt editiert von Glasfaser
                    #17

                    @dirk_1930 sagte in influxdb cloud Daten importieren:

                    die alte Instanz schlafen zu legen

                    du brauchts doch nur in der vorhandenen Instanz.0 ( 1.8 ) die neuen Zugangsdaten für die InfluxDB 2.0 ändern .

                    Ich habe auch vor kurzen von 1.8 auf 2.0 gewechselt . ( keine Cloud )

                    Alte Datenbank übernommen ... ca. 2 GB groß

                    Habe aber bemerkt das nach der Umstellung immer Fehler im ioBroker Log waren .
                    Absturz von ioBroker usw.

                    andauert Influx query .... timeout usw.

                    Auch ein Teilimport von der alten Datenbank brachte nach kuzer Zeit immer diesen Fehler .

                    Also habe jetzt mit InfluxDB2.0 von 0 angefangen ... ohne Fehler .

                    Synology 918+ 16GB - ioBroker in Docker v9 , VISO auf Trekstor Primebook C13 13,3" , Hikvision Domkameras mit Surveillance Station .. CCU RaspberryMatic in Synology VM .. Zigbee CC2538+CC2592 .. Sonoff .. KNX .. Modbus ..

                    dirk_1930D 1 Antwort Letzte Antwort
                    0
                    • ? Ein ehemaliger Benutzer

                      @dirk_1930

                      Moin,

                      ich schaffe das heute nicht mehr, aber morgen würde ich mir ein Zugang zur Cloud besorgen, und dann mal Testen, da ich hier sowohl V1.8er und V 2.xer InfluxDb nutze.

                      VG
                      Bernd

                      dirk_1930D Offline
                      dirk_1930D Offline
                      dirk_1930
                      schrieb am zuletzt editiert von
                      #18

                      @dp20eic :+1:

                      1 Antwort Letzte Antwort
                      0
                      • GlasfaserG Glasfaser

                        @dirk_1930 sagte in influxdb cloud Daten importieren:

                        die alte Instanz schlafen zu legen

                        du brauchts doch nur in der vorhandenen Instanz.0 ( 1.8 ) die neuen Zugangsdaten für die InfluxDB 2.0 ändern .

                        Ich habe auch vor kurzen von 1.8 auf 2.0 gewechselt . ( keine Cloud )

                        Alte Datenbank übernommen ... ca. 2 GB groß

                        Habe aber bemerkt das nach der Umstellung immer Fehler im ioBroker Log waren .
                        Absturz von ioBroker usw.

                        andauert Influx query .... timeout usw.

                        Auch ein Teilimport von der alten Datenbank brachte nach kuzer Zeit immer diesen Fehler .

                        Also habe jetzt mit InfluxDB2.0 von 0 angefangen ... ohne Fehler .

                        dirk_1930D Offline
                        dirk_1930D Offline
                        dirk_1930
                        schrieb am zuletzt editiert von
                        #19

                        @glasfaser
                        Kann man nicht die Daten unter Umständen in eine CSV exportieren und dann in der V2 wieder einlesen?

                        GlasfaserG ? 2 Antworten Letzte Antwort
                        0
                        • dirk_1930D dirk_1930

                          @glasfaser
                          Kann man nicht die Daten unter Umständen in eine CSV exportieren und dann in der V2 wieder einlesen?

                          GlasfaserG Offline
                          GlasfaserG Offline
                          Glasfaser
                          schrieb am zuletzt editiert von
                          #20

                          @dirk_1930 sagte in influxdb cloud Daten importieren:

                          Kann man nicht die Daten unter Umständen in eine CSV exportieren und dann in der V2 wieder einlesen?

                          Habe es nicht so geschafft ...

                          habe eine neuen VM mit influx 1.8 aufgesetzt , dann ein Backup von 1.8 eingespielt und dann ein Upgrade auf InfluxDB2 gemacht .

                          Synology 918+ 16GB - ioBroker in Docker v9 , VISO auf Trekstor Primebook C13 13,3" , Hikvision Domkameras mit Surveillance Station .. CCU RaspberryMatic in Synology VM .. Zigbee CC2538+CC2592 .. Sonoff .. KNX .. Modbus ..

                          1 Antwort Letzte Antwort
                          0
                          • dirk_1930D dirk_1930

                            @glasfaser
                            Kann man nicht die Daten unter Umständen in eine CSV exportieren und dann in der V2 wieder einlesen?

                            ? Offline
                            ? Offline
                            Ein ehemaliger Benutzer
                            schrieb am zuletzt editiert von
                            #21

                            @dirk_1930

                            Moin,

                            ja, natürlich geht das. Aber wieso noch umständlicher, so wie das bei influxDB beschrieben ist, muss das gehen.

                            VG
                            Bernd

                            dirk_1930D 1 Antwort Letzte Antwort
                            0
                            • ? Ein ehemaliger Benutzer

                              @dirk_1930

                              Moin,

                              ja, natürlich geht das. Aber wieso noch umständlicher, so wie das bei influxDB beschrieben ist, muss das gehen.

                              VG
                              Bernd

                              dirk_1930D Offline
                              dirk_1930D Offline
                              dirk_1930
                              schrieb am zuletzt editiert von
                              #22

                              @dp20eic
                              Dann warte ich mal auf deinen Test... wenn es bei dir läuft finde ich vielleicht ja meinen Fehler.

                              ? 1 Antwort Letzte Antwort
                              0
                              • dirk_1930D dirk_1930

                                @dp20eic
                                Dann warte ich mal auf deinen Test... wenn es bei dir läuft finde ich vielleicht ja meinen Fehler.

                                ? Offline
                                ? Offline
                                Ein ehemaliger Benutzer
                                schrieb am zuletzt editiert von
                                #23

                                @dirk_1930

                                gern, Frauchen ist morgen Arbeiten, da hab ich etwas Zeit zum Spielen, ähm Lernen :)

                                VG
                                Bernd

                                1 Antwort Letzte Antwort
                                0
                                • dirk_1930D dirk_1930

                                  @glasfaser said in influxdb cloud Daten importieren:

                                  @dirk_1930 sagte in influxdb cloud Daten importieren:

                                  allerdings schreibt er keine Daten...

                                  Test mit lp :

                                  sudo influx_inspect export -database iobroker  -datadir /var/lib/influxdb/data -waldir /var/lib/influxdb/wal -retention autogen  -out /tmp/iobroker_backup/influxv1backup.lp -lponly
                                  

                                  auch nicht so !?

                                  Jetzt passiert etwas

                                  writing out tsm file data for iobroker/autogen...
                                  

                                  allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht :-(

                                  Linux ist nicht wirklich meine Stärke...

                                  ? Offline
                                  ? Offline
                                  Ein ehemaliger Benutzer
                                  schrieb am zuletzt editiert von
                                  #24

                                  @dirk_1930 sagte in influxdb cloud Daten importieren:

                                  Jetzt passiert etwas
                                  writing out tsm file data for iobroker/autogen...

                                  allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht

                                  Moin,

                                  den export habe ich auch gerade einmal gemacht, läuft bei mir durch, das Dauert etwas

                                  Das ist was ich aufgerufen habe, ohne -retention aber dafür mit -compress

                                  sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -compress -out /tmp/data/iobroker-lp.gzip
                                  writing out tsm file data for iobroker/global...complete.
                                  writing out wal file data for iobroker/global...complete.
                                  

                                  Ich glaube, das das -retention nicht gebraucht wird, es seiden Du hast für die Datenbanken eine retention policies erstellt, default ist

                                  * -retention flag with a specific retention policy to export. By default, all retention policies are exported.
                                  

                                  Und bei solchen Aktionen, immer eine zweite ssh Session auf haben, zum schauen was sich da so tut!

                                  Also dieser Schritt funktioniert erst einmal.

                                  VG
                                  Bernd

                                  dirk_1930D 1 Antwort Letzte Antwort
                                  0
                                  • ? Ein ehemaliger Benutzer

                                    @dirk_1930 sagte in influxdb cloud Daten importieren:

                                    Jetzt passiert etwas
                                    writing out tsm file data for iobroker/autogen...

                                    allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht

                                    Moin,

                                    den export habe ich auch gerade einmal gemacht, läuft bei mir durch, das Dauert etwas

                                    Das ist was ich aufgerufen habe, ohne -retention aber dafür mit -compress

                                    sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -compress -out /tmp/data/iobroker-lp.gzip
                                    writing out tsm file data for iobroker/global...complete.
                                    writing out wal file data for iobroker/global...complete.
                                    

                                    Ich glaube, das das -retention nicht gebraucht wird, es seiden Du hast für die Datenbanken eine retention policies erstellt, default ist

                                    * -retention flag with a specific retention policy to export. By default, all retention policies are exported.
                                    

                                    Und bei solchen Aktionen, immer eine zweite ssh Session auf haben, zum schauen was sich da so tut!

                                    Also dieser Schritt funktioniert erst einmal.

                                    VG
                                    Bernd

                                    dirk_1930D Offline
                                    dirk_1930D Offline
                                    dirk_1930
                                    schrieb am zuletzt editiert von dirk_1930
                                    #25

                                    @dp20eic
                                    Die Online Version hast du noch nicht getestet :face_with_rolling_eyes: ?

                                    ? 1 Antwort Letzte Antwort
                                    0
                                    • dirk_1930D dirk_1930

                                      @dp20eic
                                      Die Online Version hast du noch nicht getestet :face_with_rolling_eyes: ?

                                      ? Offline
                                      ? Offline
                                      Ein ehemaliger Benutzer
                                      schrieb am zuletzt editiert von
                                      #26

                                      @dirk_1930

                                      Moin,

                                      habe mir gestern mal einen Account angelegt und auch soweit eingerichtet.

                                      Das Problem, das ich noch habe ist, das ich die Daten nicht rein bekomme 🤔

                                      Erst war es ein Problem, das er die Datei nicht wollte wegen "text/plain, UTF-8", das habe ich aber hinbekommen, dann waren ihm die Daten(Struktur) wohl nicht genehm :)
                                      Hab noch etwas gegooglet, bin gerade dran es noch mal zu versuchen :) Wurmt mich wenn etwas nicht funktioniert :)

                                      VG
                                      Bernd

                                      dirk_1930D 1 Antwort Letzte Antwort
                                      0
                                      • ? Ein ehemaliger Benutzer

                                        @dirk_1930

                                        Moin,

                                        habe mir gestern mal einen Account angelegt und auch soweit eingerichtet.

                                        Das Problem, das ich noch habe ist, das ich die Daten nicht rein bekomme 🤔

                                        Erst war es ein Problem, das er die Datei nicht wollte wegen "text/plain, UTF-8", das habe ich aber hinbekommen, dann waren ihm die Daten(Struktur) wohl nicht genehm :)
                                        Hab noch etwas gegooglet, bin gerade dran es noch mal zu versuchen :) Wurmt mich wenn etwas nicht funktioniert :)

                                        VG
                                        Bernd

                                        dirk_1930D Offline
                                        dirk_1930D Offline
                                        dirk_1930
                                        schrieb am zuletzt editiert von
                                        #27

                                        @dp20eic
                                        Hast du eine v2 oder v1 Datenbank versucht?

                                        ? 1 Antwort Letzte Antwort
                                        0
                                        • dirk_1930D dirk_1930

                                          @dp20eic
                                          Hast du eine v2 oder v1 Datenbank versucht?

                                          ? Offline
                                          ? Offline
                                          Ein ehemaliger Benutzer
                                          schrieb am zuletzt editiert von Ein ehemaliger Benutzer
                                          #28

                                          @dirk_1930

                                          Moin,

                                          ich bastel an der Kombi von influxdb V 1.8 --> influxdb Cloud

                                          Aber ich kapiere es noch nich, denn obwohl er mir alles mittels influx_inspect exportiert

                                          [dp20eic@influxDB ~]$ mkdir -p /tmp/data && sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -retention global -out /tmp/data/chronograf-lp --compress gzip
                                          

                                          Bekomme ich beim schreiben in die Cloud, ist jetzt nicht der original output, da ich zwischenzeitlich noch experimentiert habe

                                          $ influx write --bucket influxdb/global --file /tmp/data/iobroker-lp --header "Content-Type: text/plain; charset=utf-8" --compression
                                          2023/02/07 14:12:38 line 2: no measurement column found
                                          2023/02/07 14:12:38 line 3: no measurement column found
                                          2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                                          2023/02/07 14:12:38 line 4: no measurement column found
                                          2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                                          2023/02/07 14:12:38 line 5: no measurement column found
                                          2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                                          2023/02/07 14:12:38 line 6: no measurement column found
                                          

                                          Ich habe mir mal ein Beispiel gesucht

                                          $ cat /tmp/data/example-lp 
                                          mem,host=host1 used_percent=23.43234543 1556892576842902000
                                          cpu,host=host1 usage_user=3.8234,usage_system=4.23874 1556892726597397000
                                          mem,host=host1 used_percent=21.83599203 1556892777007291000
                                          

                                          Nur da bekomme ich auch

                                          15:01:09  dp20eic@test  ~ 
                                          $ influx write --bucket proxmox/autogen --file /tmp/data/example-lp --header "Content-Type: text/plain; charset=utf-8" 
                                          2023/02/07 15:02:22 line 2: no measurement column found
                                          2023/02/07 15:02:22 line 3: no measurement column found
                                          2023/02/07 15:02:22 Unable to batcher to error-file: invalid argument
                                          2023/02/07 15:02:22 line 4: no measurement column found
                                          2023/02/07 15:02:22 Unable to batcher to error-file: invalid argument
                                          

                                          VG
                                          Bernd

                                          Edit: Falsches Zeilen, kopiert 🤭
                                          Edit: Aber auch mit dem korrekten Daten

                                          mem,host=host1 used_percent=64.23 1577836800000000000
                                          mem,host=host2 used_percent=72.01 1577836800000000000
                                          mem,host=host1 used_percent=62.61 1577836810000000000
                                          mem,host=host2 used_percent=72.98 1577836810000000000
                                          mem,host=host1 used_percent=63.40 1577836820000000000
                                          mem,host=host2 used_percent=73.77 1577836820000000000
                                          

                                          kommt noch immer die Meldung:

                                          Man bin ich ein döspaddel, es klappt :)

                                          ? 1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          626

                                          Online

                                          32.4k

                                          Benutzer

                                          81.5k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe