Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Einsteigerfragen
  4. Installation
  5. influxdb cloud Daten importieren

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.8k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    2.2k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    16
    1
    3.2k

influxdb cloud Daten importieren

Geplant Angeheftet Gesperrt Verschoben Installation
31 Beiträge 3 Kommentatoren 3.2k Aufrufe 3 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • dirk_1930D dirk_1930

    @glasfaser
    Kann man nicht die Daten unter Umständen in eine CSV exportieren und dann in der V2 wieder einlesen?

    ? Offline
    ? Offline
    Ein ehemaliger Benutzer
    schrieb am zuletzt editiert von
    #21

    @dirk_1930

    Moin,

    ja, natürlich geht das. Aber wieso noch umständlicher, so wie das bei influxDB beschrieben ist, muss das gehen.

    VG
    Bernd

    dirk_1930D 1 Antwort Letzte Antwort
    0
    • ? Ein ehemaliger Benutzer

      @dirk_1930

      Moin,

      ja, natürlich geht das. Aber wieso noch umständlicher, so wie das bei influxDB beschrieben ist, muss das gehen.

      VG
      Bernd

      dirk_1930D Offline
      dirk_1930D Offline
      dirk_1930
      schrieb am zuletzt editiert von
      #22

      @dp20eic
      Dann warte ich mal auf deinen Test... wenn es bei dir läuft finde ich vielleicht ja meinen Fehler.

      ? 1 Antwort Letzte Antwort
      0
      • dirk_1930D dirk_1930

        @dp20eic
        Dann warte ich mal auf deinen Test... wenn es bei dir läuft finde ich vielleicht ja meinen Fehler.

        ? Offline
        ? Offline
        Ein ehemaliger Benutzer
        schrieb am zuletzt editiert von
        #23

        @dirk_1930

        gern, Frauchen ist morgen Arbeiten, da hab ich etwas Zeit zum Spielen, ähm Lernen :)

        VG
        Bernd

        1 Antwort Letzte Antwort
        0
        • dirk_1930D dirk_1930

          @glasfaser said in influxdb cloud Daten importieren:

          @dirk_1930 sagte in influxdb cloud Daten importieren:

          allerdings schreibt er keine Daten...

          Test mit lp :

          sudo influx_inspect export -database iobroker  -datadir /var/lib/influxdb/data -waldir /var/lib/influxdb/wal -retention autogen  -out /tmp/iobroker_backup/influxv1backup.lp -lponly
          

          auch nicht so !?

          Jetzt passiert etwas

          writing out tsm file data for iobroker/autogen...
          

          allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht :-(

          Linux ist nicht wirklich meine Stärke...

          ? Offline
          ? Offline
          Ein ehemaliger Benutzer
          schrieb am zuletzt editiert von
          #24

          @dirk_1930 sagte in influxdb cloud Daten importieren:

          Jetzt passiert etwas
          writing out tsm file data for iobroker/autogen...

          allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht

          Moin,

          den export habe ich auch gerade einmal gemacht, läuft bei mir durch, das Dauert etwas

          Das ist was ich aufgerufen habe, ohne -retention aber dafür mit -compress

          sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -compress -out /tmp/data/iobroker-lp.gzip
          writing out tsm file data for iobroker/global...complete.
          writing out wal file data for iobroker/global...complete.
          

          Ich glaube, das das -retention nicht gebraucht wird, es seiden Du hast für die Datenbanken eine retention policies erstellt, default ist

          * -retention flag with a specific retention policy to export. By default, all retention policies are exported.
          

          Und bei solchen Aktionen, immer eine zweite ssh Session auf haben, zum schauen was sich da so tut!

          Also dieser Schritt funktioniert erst einmal.

          VG
          Bernd

          dirk_1930D 1 Antwort Letzte Antwort
          0
          • ? Ein ehemaliger Benutzer

            @dirk_1930 sagte in influxdb cloud Daten importieren:

            Jetzt passiert etwas
            writing out tsm file data for iobroker/autogen...

            allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht

            Moin,

            den export habe ich auch gerade einmal gemacht, läuft bei mir durch, das Dauert etwas

            Das ist was ich aufgerufen habe, ohne -retention aber dafür mit -compress

            sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -compress -out /tmp/data/iobroker-lp.gzip
            writing out tsm file data for iobroker/global...complete.
            writing out wal file data for iobroker/global...complete.
            

            Ich glaube, das das -retention nicht gebraucht wird, es seiden Du hast für die Datenbanken eine retention policies erstellt, default ist

            * -retention flag with a specific retention policy to export. By default, all retention policies are exported.
            

            Und bei solchen Aktionen, immer eine zweite ssh Session auf haben, zum schauen was sich da so tut!

            Also dieser Schritt funktioniert erst einmal.

            VG
            Bernd

            dirk_1930D Offline
            dirk_1930D Offline
            dirk_1930
            schrieb am zuletzt editiert von dirk_1930
            #25

            @dp20eic
            Die Online Version hast du noch nicht getestet :face_with_rolling_eyes: ?

            ? 1 Antwort Letzte Antwort
            0
            • dirk_1930D dirk_1930

              @dp20eic
              Die Online Version hast du noch nicht getestet :face_with_rolling_eyes: ?

              ? Offline
              ? Offline
              Ein ehemaliger Benutzer
              schrieb am zuletzt editiert von
              #26

              @dirk_1930

              Moin,

              habe mir gestern mal einen Account angelegt und auch soweit eingerichtet.

              Das Problem, das ich noch habe ist, das ich die Daten nicht rein bekomme 🤔

              Erst war es ein Problem, das er die Datei nicht wollte wegen "text/plain, UTF-8", das habe ich aber hinbekommen, dann waren ihm die Daten(Struktur) wohl nicht genehm :)
              Hab noch etwas gegooglet, bin gerade dran es noch mal zu versuchen :) Wurmt mich wenn etwas nicht funktioniert :)

              VG
              Bernd

              dirk_1930D 1 Antwort Letzte Antwort
              0
              • ? Ein ehemaliger Benutzer

                @dirk_1930

                Moin,

                habe mir gestern mal einen Account angelegt und auch soweit eingerichtet.

                Das Problem, das ich noch habe ist, das ich die Daten nicht rein bekomme 🤔

                Erst war es ein Problem, das er die Datei nicht wollte wegen "text/plain, UTF-8", das habe ich aber hinbekommen, dann waren ihm die Daten(Struktur) wohl nicht genehm :)
                Hab noch etwas gegooglet, bin gerade dran es noch mal zu versuchen :) Wurmt mich wenn etwas nicht funktioniert :)

                VG
                Bernd

                dirk_1930D Offline
                dirk_1930D Offline
                dirk_1930
                schrieb am zuletzt editiert von
                #27

                @dp20eic
                Hast du eine v2 oder v1 Datenbank versucht?

                ? 1 Antwort Letzte Antwort
                0
                • dirk_1930D dirk_1930

                  @dp20eic
                  Hast du eine v2 oder v1 Datenbank versucht?

                  ? Offline
                  ? Offline
                  Ein ehemaliger Benutzer
                  schrieb am zuletzt editiert von Ein ehemaliger Benutzer
                  #28

                  @dirk_1930

                  Moin,

                  ich bastel an der Kombi von influxdb V 1.8 --> influxdb Cloud

                  Aber ich kapiere es noch nich, denn obwohl er mir alles mittels influx_inspect exportiert

                  [dp20eic@influxDB ~]$ mkdir -p /tmp/data && sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -retention global -out /tmp/data/chronograf-lp --compress gzip
                  

                  Bekomme ich beim schreiben in die Cloud, ist jetzt nicht der original output, da ich zwischenzeitlich noch experimentiert habe

                  $ influx write --bucket influxdb/global --file /tmp/data/iobroker-lp --header "Content-Type: text/plain; charset=utf-8" --compression
                  2023/02/07 14:12:38 line 2: no measurement column found
                  2023/02/07 14:12:38 line 3: no measurement column found
                  2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                  2023/02/07 14:12:38 line 4: no measurement column found
                  2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                  2023/02/07 14:12:38 line 5: no measurement column found
                  2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                  2023/02/07 14:12:38 line 6: no measurement column found
                  

                  Ich habe mir mal ein Beispiel gesucht

                  $ cat /tmp/data/example-lp 
                  mem,host=host1 used_percent=23.43234543 1556892576842902000
                  cpu,host=host1 usage_user=3.8234,usage_system=4.23874 1556892726597397000
                  mem,host=host1 used_percent=21.83599203 1556892777007291000
                  

                  Nur da bekomme ich auch

                  15:01:09  dp20eic@test  ~ 
                  $ influx write --bucket proxmox/autogen --file /tmp/data/example-lp --header "Content-Type: text/plain; charset=utf-8" 
                  2023/02/07 15:02:22 line 2: no measurement column found
                  2023/02/07 15:02:22 line 3: no measurement column found
                  2023/02/07 15:02:22 Unable to batcher to error-file: invalid argument
                  2023/02/07 15:02:22 line 4: no measurement column found
                  2023/02/07 15:02:22 Unable to batcher to error-file: invalid argument
                  

                  VG
                  Bernd

                  Edit: Falsches Zeilen, kopiert 🤭
                  Edit: Aber auch mit dem korrekten Daten

                  mem,host=host1 used_percent=64.23 1577836800000000000
                  mem,host=host2 used_percent=72.01 1577836800000000000
                  mem,host=host1 used_percent=62.61 1577836810000000000
                  mem,host=host2 used_percent=72.98 1577836810000000000
                  mem,host=host1 used_percent=63.40 1577836820000000000
                  mem,host=host2 used_percent=73.77 1577836820000000000
                  

                  kommt noch immer die Meldung:

                  Man bin ich ein döspaddel, es klappt :)

                  ? 1 Antwort Letzte Antwort
                  0
                  • ? Ein ehemaliger Benutzer

                    @dirk_1930

                    Moin,

                    ich bastel an der Kombi von influxdb V 1.8 --> influxdb Cloud

                    Aber ich kapiere es noch nich, denn obwohl er mir alles mittels influx_inspect exportiert

                    [dp20eic@influxDB ~]$ mkdir -p /tmp/data && sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -retention global -out /tmp/data/chronograf-lp --compress gzip
                    

                    Bekomme ich beim schreiben in die Cloud, ist jetzt nicht der original output, da ich zwischenzeitlich noch experimentiert habe

                    $ influx write --bucket influxdb/global --file /tmp/data/iobroker-lp --header "Content-Type: text/plain; charset=utf-8" --compression
                    2023/02/07 14:12:38 line 2: no measurement column found
                    2023/02/07 14:12:38 line 3: no measurement column found
                    2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                    2023/02/07 14:12:38 line 4: no measurement column found
                    2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                    2023/02/07 14:12:38 line 5: no measurement column found
                    2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                    2023/02/07 14:12:38 line 6: no measurement column found
                    

                    Ich habe mir mal ein Beispiel gesucht

                    $ cat /tmp/data/example-lp 
                    mem,host=host1 used_percent=23.43234543 1556892576842902000
                    cpu,host=host1 usage_user=3.8234,usage_system=4.23874 1556892726597397000
                    mem,host=host1 used_percent=21.83599203 1556892777007291000
                    

                    Nur da bekomme ich auch

                    15:01:09  dp20eic@test  ~ 
                    $ influx write --bucket proxmox/autogen --file /tmp/data/example-lp --header "Content-Type: text/plain; charset=utf-8" 
                    2023/02/07 15:02:22 line 2: no measurement column found
                    2023/02/07 15:02:22 line 3: no measurement column found
                    2023/02/07 15:02:22 Unable to batcher to error-file: invalid argument
                    2023/02/07 15:02:22 line 4: no measurement column found
                    2023/02/07 15:02:22 Unable to batcher to error-file: invalid argument
                    

                    VG
                    Bernd

                    Edit: Falsches Zeilen, kopiert 🤭
                    Edit: Aber auch mit dem korrekten Daten

                    mem,host=host1 used_percent=64.23 1577836800000000000
                    mem,host=host2 used_percent=72.01 1577836800000000000
                    mem,host=host1 used_percent=62.61 1577836810000000000
                    mem,host=host2 used_percent=72.98 1577836810000000000
                    mem,host=host1 used_percent=63.40 1577836820000000000
                    mem,host=host2 used_percent=73.77 1577836820000000000
                    

                    kommt noch immer die Meldung:

                    Man bin ich ein döspaddel, es klappt :)

                    ? Offline
                    ? Offline
                    Ein ehemaliger Benutzer
                    schrieb am zuletzt editiert von Ein ehemaliger Benutzer
                    #29

                    @dp20eic

                    So ich Antworte mir mal selber, um zu beschreiben was, habe ich wie gemacht, um Daten aus einer lokalen influxdb V1.8 in die influx-Cloud zu bekommen.

                    !!! Achtung !!!
                    Folgende Einschränkungen, in der free influxdb - Cloud Version, das habe ich beim Export der daten aus der Altinstallation berücksichtigt und nur die letzten 30 Tage exportiert.
                    4b4e0134-9ee1-4ede-8496-8ee6eb3c9cbb-grafik.png

                    1. erst einmal eine Cloud Instanz beantragt und eingerichtet siehe influxdb-Cloud
                    2. mir die nötigen Daten besorgt
                    • Cloud
                      Bucket anlegen z.B iobroker/autogen
                      Token Anlegen
                      User Id ermitteln
                      Bucket ID
                      Org
                      Org-Id
                    • lokale Installation
                      welche DBs gibt es
                      welche Retetion gibt es für welche Datenbank
                      check ob space für den export vorhanden
                    1. export der Daten
                    mkdir -p /tmp/data && sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -retention global -out /tmp/data/iobroker-lp --compress gzip -start 2023-0107T00:00:00Z -end 2023-02-07Z00:00:00Z
                    
                    1. um meine letzte 1.8 influxdb installation nicht zu verbiegen einen neuen LXC Container mit den passenden influxdb V 2.x aufgesetzt
                    2. Datei /tmp/data/iobroker-lp auf den neuen LXC Container kopiert.
                    3. für meinen User im neuen LXC ein passendes Environment angelegt
                    export INFLUX_HOST=https://eu-central-1-1.aws.cloud2.influxdata.com
                    export INFLUX_ORG=<Org Name wie oben unter Cloud ermittelt>
                    export INFLUX_TOKEN=<Token wie unter Cloud ermittelt>
                    
                    1. Im neuen LXC
                    influx v1 dbrp create --db influxdb --rp autogen --bucket-id <aus der Cloud Konfig> --default
                    
                    1. check der Daten
                    zmore /tmp/data/iobroker-lp
                    
                    1. Trockenlauf
                     16:39:20  dp20eic@test  ~ 
                    $ influx write dryrun --bucket iobroker/autogen --file /tmp/data/iobroker-lp | more
                    <hier erscheint der name der Organisation>
                    system.adapter.nut.0.memRss value=60.52 1675764000088000000
                    system.adapter.nut.0.memRss from="system.adapter.nut.0" 1675764000088000000
                    system.adapter.nut.0.memRss q=0 1675764000088000000
                    system.adapter.nut.0.memRss ack=true 1675764000088000000
                    system.adapter.nut.0.memHeapUsed value=21.49 1675764000088000000
                    system.adapter.nut.0.memHeapUsed from="system.adapter.nut.0" 1675764000088000000
                    system.adapter.nut.0.memHeapUsed q=0 1675764000088000000
                    system.adapter.nut.0.memHeapUsed ack=true 1675764000088000000
                    system.adapter.nut.0.cpu value=0.07 1675764000148000000
                    ...
                    
                    1. und abdafür
                    $ influx write --bucket iobroker/autogen --file /tmp/data/iobroker-lp
                    
                    1. Check ob die Daten in der Cloud vorhanden sind, sie sind da :)
                      98bf5fc1-3351-4e2e-8dfd-cf154b91764a-grafik.png

                    VG
                    Bernd

                    GlasfaserG dirk_1930D 2 Antworten Letzte Antwort
                    1
                    • ? Ein ehemaliger Benutzer

                      @dp20eic

                      So ich Antworte mir mal selber, um zu beschreiben was, habe ich wie gemacht, um Daten aus einer lokalen influxdb V1.8 in die influx-Cloud zu bekommen.

                      !!! Achtung !!!
                      Folgende Einschränkungen, in der free influxdb - Cloud Version, das habe ich beim Export der daten aus der Altinstallation berücksichtigt und nur die letzten 30 Tage exportiert.
                      4b4e0134-9ee1-4ede-8496-8ee6eb3c9cbb-grafik.png

                      1. erst einmal eine Cloud Instanz beantragt und eingerichtet siehe influxdb-Cloud
                      2. mir die nötigen Daten besorgt
                      • Cloud
                        Bucket anlegen z.B iobroker/autogen
                        Token Anlegen
                        User Id ermitteln
                        Bucket ID
                        Org
                        Org-Id
                      • lokale Installation
                        welche DBs gibt es
                        welche Retetion gibt es für welche Datenbank
                        check ob space für den export vorhanden
                      1. export der Daten
                      mkdir -p /tmp/data && sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -retention global -out /tmp/data/iobroker-lp --compress gzip -start 2023-0107T00:00:00Z -end 2023-02-07Z00:00:00Z
                      
                      1. um meine letzte 1.8 influxdb installation nicht zu verbiegen einen neuen LXC Container mit den passenden influxdb V 2.x aufgesetzt
                      2. Datei /tmp/data/iobroker-lp auf den neuen LXC Container kopiert.
                      3. für meinen User im neuen LXC ein passendes Environment angelegt
                      export INFLUX_HOST=https://eu-central-1-1.aws.cloud2.influxdata.com
                      export INFLUX_ORG=<Org Name wie oben unter Cloud ermittelt>
                      export INFLUX_TOKEN=<Token wie unter Cloud ermittelt>
                      
                      1. Im neuen LXC
                      influx v1 dbrp create --db influxdb --rp autogen --bucket-id <aus der Cloud Konfig> --default
                      
                      1. check der Daten
                      zmore /tmp/data/iobroker-lp
                      
                      1. Trockenlauf
                       16:39:20  dp20eic@test  ~ 
                      $ influx write dryrun --bucket iobroker/autogen --file /tmp/data/iobroker-lp | more
                      <hier erscheint der name der Organisation>
                      system.adapter.nut.0.memRss value=60.52 1675764000088000000
                      system.adapter.nut.0.memRss from="system.adapter.nut.0" 1675764000088000000
                      system.adapter.nut.0.memRss q=0 1675764000088000000
                      system.adapter.nut.0.memRss ack=true 1675764000088000000
                      system.adapter.nut.0.memHeapUsed value=21.49 1675764000088000000
                      system.adapter.nut.0.memHeapUsed from="system.adapter.nut.0" 1675764000088000000
                      system.adapter.nut.0.memHeapUsed q=0 1675764000088000000
                      system.adapter.nut.0.memHeapUsed ack=true 1675764000088000000
                      system.adapter.nut.0.cpu value=0.07 1675764000148000000
                      ...
                      
                      1. und abdafür
                      $ influx write --bucket iobroker/autogen --file /tmp/data/iobroker-lp
                      
                      1. Check ob die Daten in der Cloud vorhanden sind, sie sind da :)
                        98bf5fc1-3351-4e2e-8dfd-cf154b91764a-grafik.png

                      VG
                      Bernd

                      GlasfaserG Offline
                      GlasfaserG Offline
                      Glasfaser
                      schrieb am zuletzt editiert von
                      #30

                      @dp20eic sagte in influxdb cloud Daten importieren:

                      gern, Frauchen ist morgen Arbeiten, da hab ich etwas Zeit zum Spielen, ähm Lernen

                      @dp20eic sagte in influxdb cloud Daten importieren:

                      So ich Antworte mir mal selber,

                      Daumen :+1: ,

                      .... ich selber habe nichts davon , aber ein Lob dafür muß mal sein !

                      Synology 918+ 16GB - ioBroker in Docker v9 , VISO auf Trekstor Primebook C13 13,3" , Hikvision Domkameras mit Surveillance Station .. CCU RaspberryMatic in Synology VM .. Zigbee CC2538+CC2592 .. Sonoff .. KNX .. Modbus ..

                      1 Antwort Letzte Antwort
                      0
                      • ? Ein ehemaliger Benutzer

                        @dp20eic

                        So ich Antworte mir mal selber, um zu beschreiben was, habe ich wie gemacht, um Daten aus einer lokalen influxdb V1.8 in die influx-Cloud zu bekommen.

                        !!! Achtung !!!
                        Folgende Einschränkungen, in der free influxdb - Cloud Version, das habe ich beim Export der daten aus der Altinstallation berücksichtigt und nur die letzten 30 Tage exportiert.
                        4b4e0134-9ee1-4ede-8496-8ee6eb3c9cbb-grafik.png

                        1. erst einmal eine Cloud Instanz beantragt und eingerichtet siehe influxdb-Cloud
                        2. mir die nötigen Daten besorgt
                        • Cloud
                          Bucket anlegen z.B iobroker/autogen
                          Token Anlegen
                          User Id ermitteln
                          Bucket ID
                          Org
                          Org-Id
                        • lokale Installation
                          welche DBs gibt es
                          welche Retetion gibt es für welche Datenbank
                          check ob space für den export vorhanden
                        1. export der Daten
                        mkdir -p /tmp/data && sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -retention global -out /tmp/data/iobroker-lp --compress gzip -start 2023-0107T00:00:00Z -end 2023-02-07Z00:00:00Z
                        
                        1. um meine letzte 1.8 influxdb installation nicht zu verbiegen einen neuen LXC Container mit den passenden influxdb V 2.x aufgesetzt
                        2. Datei /tmp/data/iobroker-lp auf den neuen LXC Container kopiert.
                        3. für meinen User im neuen LXC ein passendes Environment angelegt
                        export INFLUX_HOST=https://eu-central-1-1.aws.cloud2.influxdata.com
                        export INFLUX_ORG=<Org Name wie oben unter Cloud ermittelt>
                        export INFLUX_TOKEN=<Token wie unter Cloud ermittelt>
                        
                        1. Im neuen LXC
                        influx v1 dbrp create --db influxdb --rp autogen --bucket-id <aus der Cloud Konfig> --default
                        
                        1. check der Daten
                        zmore /tmp/data/iobroker-lp
                        
                        1. Trockenlauf
                         16:39:20  dp20eic@test  ~ 
                        $ influx write dryrun --bucket iobroker/autogen --file /tmp/data/iobroker-lp | more
                        <hier erscheint der name der Organisation>
                        system.adapter.nut.0.memRss value=60.52 1675764000088000000
                        system.adapter.nut.0.memRss from="system.adapter.nut.0" 1675764000088000000
                        system.adapter.nut.0.memRss q=0 1675764000088000000
                        system.adapter.nut.0.memRss ack=true 1675764000088000000
                        system.adapter.nut.0.memHeapUsed value=21.49 1675764000088000000
                        system.adapter.nut.0.memHeapUsed from="system.adapter.nut.0" 1675764000088000000
                        system.adapter.nut.0.memHeapUsed q=0 1675764000088000000
                        system.adapter.nut.0.memHeapUsed ack=true 1675764000088000000
                        system.adapter.nut.0.cpu value=0.07 1675764000148000000
                        ...
                        
                        1. und abdafür
                        $ influx write --bucket iobroker/autogen --file /tmp/data/iobroker-lp
                        
                        1. Check ob die Daten in der Cloud vorhanden sind, sie sind da :)
                          98bf5fc1-3351-4e2e-8dfd-cf154b91764a-grafik.png

                        VG
                        Bernd

                        dirk_1930D Offline
                        dirk_1930D Offline
                        dirk_1930
                        schrieb am zuletzt editiert von
                        #31

                        @dp20eic
                        Super Arbeit :+1:

                        Kann das leider erst am Wochenende testen… werde berichten wie es gelaufen ist

                        1 Antwort Letzte Antwort
                        0
                        Antworten
                        • In einem neuen Thema antworten
                        Anmelden zum Antworten
                        • Älteste zuerst
                        • Neuste zuerst
                        • Meiste Stimmen


                        Support us

                        ioBroker
                        Community Adapters
                        Donate

                        905

                        Online

                        32.4k

                        Benutzer

                        81.5k

                        Themen

                        1.3m

                        Beiträge
                        Community
                        Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                        ioBroker Community 2014-2025
                        logo
                        • Anmelden

                        • Du hast noch kein Konto? Registrieren

                        • Anmelden oder registrieren, um zu suchen
                        • Erster Beitrag
                          Letzter Beitrag
                        0
                        • Home
                        • Aktuell
                        • Tags
                        • Ungelesen 0
                        • Kategorien
                        • Unreplied
                        • Beliebt
                        • GitHub
                        • Docu
                        • Hilfe