Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Einsteigerfragen
  4. Installation
  5. influxdb cloud Daten importieren

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.8k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    2.2k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    16
    1
    3.2k

influxdb cloud Daten importieren

Geplant Angeheftet Gesperrt Verschoben Installation
31 Beiträge 3 Kommentatoren 3.2k Aufrufe 3 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • GlasfaserG Glasfaser

    @dirk_1930 sagte in influxdb cloud Daten importieren:

    die lokale db hat die Version 1, die Cloud sollte Version 2 sein.

    So ganz verstehe ich das nicht , denn Cloud habe ich nicht

    Dann wäre von ioBroker aus dann

    Instanz.0 für 1.8
    Instanz.1 für 2.0

    sein , die diese Datenpunkte dann beschreiben !!?

    dirk_1930D Offline
    dirk_1930D Offline
    dirk_1930
    schrieb am zuletzt editiert von
    #15

    @glasfaser said in influxdb cloud Daten importieren:

    @dirk_1930 sagte in influxdb cloud Daten importieren:

    die lokale db hat die Version 1, die Cloud sollte Version 2 sein.

    So ganz verstehe ich das nicht , denn Cloud habe ich nicht

    Dann wäre von ioBroker aus dann

    Instanz.0 für 1.8
    Instanz.1 für 2.0

    sein , die diese Datenpunkte dann beschreiben !!?

    Meine Idee wäre es gewesen, die alte Instanz schlafen zu legen und nur noch in die Neue Version zu schreiben

    ? GlasfaserG 2 Antworten Letzte Antwort
    0
    • dirk_1930D dirk_1930

      @glasfaser said in influxdb cloud Daten importieren:

      @dirk_1930 sagte in influxdb cloud Daten importieren:

      die lokale db hat die Version 1, die Cloud sollte Version 2 sein.

      So ganz verstehe ich das nicht , denn Cloud habe ich nicht

      Dann wäre von ioBroker aus dann

      Instanz.0 für 1.8
      Instanz.1 für 2.0

      sein , die diese Datenpunkte dann beschreiben !!?

      Meine Idee wäre es gewesen, die alte Instanz schlafen zu legen und nur noch in die Neue Version zu schreiben

      ? Offline
      ? Offline
      Ein ehemaliger Benutzer
      schrieb am zuletzt editiert von
      #16

      @dirk_1930

      Moin,

      ich schaffe das heute nicht mehr, aber morgen würde ich mir ein Zugang zur Cloud besorgen, und dann mal Testen, da ich hier sowohl V1.8er und V 2.xer InfluxDb nutze.

      VG
      Bernd

      dirk_1930D 1 Antwort Letzte Antwort
      0
      • dirk_1930D dirk_1930

        @glasfaser said in influxdb cloud Daten importieren:

        @dirk_1930 sagte in influxdb cloud Daten importieren:

        die lokale db hat die Version 1, die Cloud sollte Version 2 sein.

        So ganz verstehe ich das nicht , denn Cloud habe ich nicht

        Dann wäre von ioBroker aus dann

        Instanz.0 für 1.8
        Instanz.1 für 2.0

        sein , die diese Datenpunkte dann beschreiben !!?

        Meine Idee wäre es gewesen, die alte Instanz schlafen zu legen und nur noch in die Neue Version zu schreiben

        GlasfaserG Offline
        GlasfaserG Offline
        Glasfaser
        schrieb am zuletzt editiert von Glasfaser
        #17

        @dirk_1930 sagte in influxdb cloud Daten importieren:

        die alte Instanz schlafen zu legen

        du brauchts doch nur in der vorhandenen Instanz.0 ( 1.8 ) die neuen Zugangsdaten für die InfluxDB 2.0 ändern .

        Ich habe auch vor kurzen von 1.8 auf 2.0 gewechselt . ( keine Cloud )

        Alte Datenbank übernommen ... ca. 2 GB groß

        Habe aber bemerkt das nach der Umstellung immer Fehler im ioBroker Log waren .
        Absturz von ioBroker usw.

        andauert Influx query .... timeout usw.

        Auch ein Teilimport von der alten Datenbank brachte nach kuzer Zeit immer diesen Fehler .

        Also habe jetzt mit InfluxDB2.0 von 0 angefangen ... ohne Fehler .

        Synology 918+ 16GB - ioBroker in Docker v9 , VISO auf Trekstor Primebook C13 13,3" , Hikvision Domkameras mit Surveillance Station .. CCU RaspberryMatic in Synology VM .. Zigbee CC2538+CC2592 .. Sonoff .. KNX .. Modbus ..

        dirk_1930D 1 Antwort Letzte Antwort
        0
        • ? Ein ehemaliger Benutzer

          @dirk_1930

          Moin,

          ich schaffe das heute nicht mehr, aber morgen würde ich mir ein Zugang zur Cloud besorgen, und dann mal Testen, da ich hier sowohl V1.8er und V 2.xer InfluxDb nutze.

          VG
          Bernd

          dirk_1930D Offline
          dirk_1930D Offline
          dirk_1930
          schrieb am zuletzt editiert von
          #18

          @dp20eic :+1:

          1 Antwort Letzte Antwort
          0
          • GlasfaserG Glasfaser

            @dirk_1930 sagte in influxdb cloud Daten importieren:

            die alte Instanz schlafen zu legen

            du brauchts doch nur in der vorhandenen Instanz.0 ( 1.8 ) die neuen Zugangsdaten für die InfluxDB 2.0 ändern .

            Ich habe auch vor kurzen von 1.8 auf 2.0 gewechselt . ( keine Cloud )

            Alte Datenbank übernommen ... ca. 2 GB groß

            Habe aber bemerkt das nach der Umstellung immer Fehler im ioBroker Log waren .
            Absturz von ioBroker usw.

            andauert Influx query .... timeout usw.

            Auch ein Teilimport von der alten Datenbank brachte nach kuzer Zeit immer diesen Fehler .

            Also habe jetzt mit InfluxDB2.0 von 0 angefangen ... ohne Fehler .

            dirk_1930D Offline
            dirk_1930D Offline
            dirk_1930
            schrieb am zuletzt editiert von
            #19

            @glasfaser
            Kann man nicht die Daten unter Umständen in eine CSV exportieren und dann in der V2 wieder einlesen?

            GlasfaserG ? 2 Antworten Letzte Antwort
            0
            • dirk_1930D dirk_1930

              @glasfaser
              Kann man nicht die Daten unter Umständen in eine CSV exportieren und dann in der V2 wieder einlesen?

              GlasfaserG Offline
              GlasfaserG Offline
              Glasfaser
              schrieb am zuletzt editiert von
              #20

              @dirk_1930 sagte in influxdb cloud Daten importieren:

              Kann man nicht die Daten unter Umständen in eine CSV exportieren und dann in der V2 wieder einlesen?

              Habe es nicht so geschafft ...

              habe eine neuen VM mit influx 1.8 aufgesetzt , dann ein Backup von 1.8 eingespielt und dann ein Upgrade auf InfluxDB2 gemacht .

              Synology 918+ 16GB - ioBroker in Docker v9 , VISO auf Trekstor Primebook C13 13,3" , Hikvision Domkameras mit Surveillance Station .. CCU RaspberryMatic in Synology VM .. Zigbee CC2538+CC2592 .. Sonoff .. KNX .. Modbus ..

              1 Antwort Letzte Antwort
              0
              • dirk_1930D dirk_1930

                @glasfaser
                Kann man nicht die Daten unter Umständen in eine CSV exportieren und dann in der V2 wieder einlesen?

                ? Offline
                ? Offline
                Ein ehemaliger Benutzer
                schrieb am zuletzt editiert von
                #21

                @dirk_1930

                Moin,

                ja, natürlich geht das. Aber wieso noch umständlicher, so wie das bei influxDB beschrieben ist, muss das gehen.

                VG
                Bernd

                dirk_1930D 1 Antwort Letzte Antwort
                0
                • ? Ein ehemaliger Benutzer

                  @dirk_1930

                  Moin,

                  ja, natürlich geht das. Aber wieso noch umständlicher, so wie das bei influxDB beschrieben ist, muss das gehen.

                  VG
                  Bernd

                  dirk_1930D Offline
                  dirk_1930D Offline
                  dirk_1930
                  schrieb am zuletzt editiert von
                  #22

                  @dp20eic
                  Dann warte ich mal auf deinen Test... wenn es bei dir läuft finde ich vielleicht ja meinen Fehler.

                  ? 1 Antwort Letzte Antwort
                  0
                  • dirk_1930D dirk_1930

                    @dp20eic
                    Dann warte ich mal auf deinen Test... wenn es bei dir läuft finde ich vielleicht ja meinen Fehler.

                    ? Offline
                    ? Offline
                    Ein ehemaliger Benutzer
                    schrieb am zuletzt editiert von
                    #23

                    @dirk_1930

                    gern, Frauchen ist morgen Arbeiten, da hab ich etwas Zeit zum Spielen, ähm Lernen :)

                    VG
                    Bernd

                    1 Antwort Letzte Antwort
                    0
                    • dirk_1930D dirk_1930

                      @glasfaser said in influxdb cloud Daten importieren:

                      @dirk_1930 sagte in influxdb cloud Daten importieren:

                      allerdings schreibt er keine Daten...

                      Test mit lp :

                      sudo influx_inspect export -database iobroker  -datadir /var/lib/influxdb/data -waldir /var/lib/influxdb/wal -retention autogen  -out /tmp/iobroker_backup/influxv1backup.lp -lponly
                      

                      auch nicht so !?

                      Jetzt passiert etwas

                      writing out tsm file data for iobroker/autogen...
                      

                      allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht :-(

                      Linux ist nicht wirklich meine Stärke...

                      ? Offline
                      ? Offline
                      Ein ehemaliger Benutzer
                      schrieb am zuletzt editiert von
                      #24

                      @dirk_1930 sagte in influxdb cloud Daten importieren:

                      Jetzt passiert etwas
                      writing out tsm file data for iobroker/autogen...

                      allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht

                      Moin,

                      den export habe ich auch gerade einmal gemacht, läuft bei mir durch, das Dauert etwas

                      Das ist was ich aufgerufen habe, ohne -retention aber dafür mit -compress

                      sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -compress -out /tmp/data/iobroker-lp.gzip
                      writing out tsm file data for iobroker/global...complete.
                      writing out wal file data for iobroker/global...complete.
                      

                      Ich glaube, das das -retention nicht gebraucht wird, es seiden Du hast für die Datenbanken eine retention policies erstellt, default ist

                      * -retention flag with a specific retention policy to export. By default, all retention policies are exported.
                      

                      Und bei solchen Aktionen, immer eine zweite ssh Session auf haben, zum schauen was sich da so tut!

                      Also dieser Schritt funktioniert erst einmal.

                      VG
                      Bernd

                      dirk_1930D 1 Antwort Letzte Antwort
                      0
                      • ? Ein ehemaliger Benutzer

                        @dirk_1930 sagte in influxdb cloud Daten importieren:

                        Jetzt passiert etwas
                        writing out tsm file data for iobroker/autogen...

                        allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht

                        Moin,

                        den export habe ich auch gerade einmal gemacht, läuft bei mir durch, das Dauert etwas

                        Das ist was ich aufgerufen habe, ohne -retention aber dafür mit -compress

                        sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -compress -out /tmp/data/iobroker-lp.gzip
                        writing out tsm file data for iobroker/global...complete.
                        writing out wal file data for iobroker/global...complete.
                        

                        Ich glaube, das das -retention nicht gebraucht wird, es seiden Du hast für die Datenbanken eine retention policies erstellt, default ist

                        * -retention flag with a specific retention policy to export. By default, all retention policies are exported.
                        

                        Und bei solchen Aktionen, immer eine zweite ssh Session auf haben, zum schauen was sich da so tut!

                        Also dieser Schritt funktioniert erst einmal.

                        VG
                        Bernd

                        dirk_1930D Offline
                        dirk_1930D Offline
                        dirk_1930
                        schrieb am zuletzt editiert von dirk_1930
                        #25

                        @dp20eic
                        Die Online Version hast du noch nicht getestet :face_with_rolling_eyes: ?

                        ? 1 Antwort Letzte Antwort
                        0
                        • dirk_1930D dirk_1930

                          @dp20eic
                          Die Online Version hast du noch nicht getestet :face_with_rolling_eyes: ?

                          ? Offline
                          ? Offline
                          Ein ehemaliger Benutzer
                          schrieb am zuletzt editiert von
                          #26

                          @dirk_1930

                          Moin,

                          habe mir gestern mal einen Account angelegt und auch soweit eingerichtet.

                          Das Problem, das ich noch habe ist, das ich die Daten nicht rein bekomme 🤔

                          Erst war es ein Problem, das er die Datei nicht wollte wegen "text/plain, UTF-8", das habe ich aber hinbekommen, dann waren ihm die Daten(Struktur) wohl nicht genehm :)
                          Hab noch etwas gegooglet, bin gerade dran es noch mal zu versuchen :) Wurmt mich wenn etwas nicht funktioniert :)

                          VG
                          Bernd

                          dirk_1930D 1 Antwort Letzte Antwort
                          0
                          • ? Ein ehemaliger Benutzer

                            @dirk_1930

                            Moin,

                            habe mir gestern mal einen Account angelegt und auch soweit eingerichtet.

                            Das Problem, das ich noch habe ist, das ich die Daten nicht rein bekomme 🤔

                            Erst war es ein Problem, das er die Datei nicht wollte wegen "text/plain, UTF-8", das habe ich aber hinbekommen, dann waren ihm die Daten(Struktur) wohl nicht genehm :)
                            Hab noch etwas gegooglet, bin gerade dran es noch mal zu versuchen :) Wurmt mich wenn etwas nicht funktioniert :)

                            VG
                            Bernd

                            dirk_1930D Offline
                            dirk_1930D Offline
                            dirk_1930
                            schrieb am zuletzt editiert von
                            #27

                            @dp20eic
                            Hast du eine v2 oder v1 Datenbank versucht?

                            ? 1 Antwort Letzte Antwort
                            0
                            • dirk_1930D dirk_1930

                              @dp20eic
                              Hast du eine v2 oder v1 Datenbank versucht?

                              ? Offline
                              ? Offline
                              Ein ehemaliger Benutzer
                              schrieb am zuletzt editiert von Ein ehemaliger Benutzer
                              #28

                              @dirk_1930

                              Moin,

                              ich bastel an der Kombi von influxdb V 1.8 --> influxdb Cloud

                              Aber ich kapiere es noch nich, denn obwohl er mir alles mittels influx_inspect exportiert

                              [dp20eic@influxDB ~]$ mkdir -p /tmp/data && sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -retention global -out /tmp/data/chronograf-lp --compress gzip
                              

                              Bekomme ich beim schreiben in die Cloud, ist jetzt nicht der original output, da ich zwischenzeitlich noch experimentiert habe

                              $ influx write --bucket influxdb/global --file /tmp/data/iobroker-lp --header "Content-Type: text/plain; charset=utf-8" --compression
                              2023/02/07 14:12:38 line 2: no measurement column found
                              2023/02/07 14:12:38 line 3: no measurement column found
                              2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                              2023/02/07 14:12:38 line 4: no measurement column found
                              2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                              2023/02/07 14:12:38 line 5: no measurement column found
                              2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                              2023/02/07 14:12:38 line 6: no measurement column found
                              

                              Ich habe mir mal ein Beispiel gesucht

                              $ cat /tmp/data/example-lp 
                              mem,host=host1 used_percent=23.43234543 1556892576842902000
                              cpu,host=host1 usage_user=3.8234,usage_system=4.23874 1556892726597397000
                              mem,host=host1 used_percent=21.83599203 1556892777007291000
                              

                              Nur da bekomme ich auch

                              15:01:09  dp20eic@test  ~ 
                              $ influx write --bucket proxmox/autogen --file /tmp/data/example-lp --header "Content-Type: text/plain; charset=utf-8" 
                              2023/02/07 15:02:22 line 2: no measurement column found
                              2023/02/07 15:02:22 line 3: no measurement column found
                              2023/02/07 15:02:22 Unable to batcher to error-file: invalid argument
                              2023/02/07 15:02:22 line 4: no measurement column found
                              2023/02/07 15:02:22 Unable to batcher to error-file: invalid argument
                              

                              VG
                              Bernd

                              Edit: Falsches Zeilen, kopiert 🤭
                              Edit: Aber auch mit dem korrekten Daten

                              mem,host=host1 used_percent=64.23 1577836800000000000
                              mem,host=host2 used_percent=72.01 1577836800000000000
                              mem,host=host1 used_percent=62.61 1577836810000000000
                              mem,host=host2 used_percent=72.98 1577836810000000000
                              mem,host=host1 used_percent=63.40 1577836820000000000
                              mem,host=host2 used_percent=73.77 1577836820000000000
                              

                              kommt noch immer die Meldung:

                              Man bin ich ein döspaddel, es klappt :)

                              ? 1 Antwort Letzte Antwort
                              0
                              • ? Ein ehemaliger Benutzer

                                @dirk_1930

                                Moin,

                                ich bastel an der Kombi von influxdb V 1.8 --> influxdb Cloud

                                Aber ich kapiere es noch nich, denn obwohl er mir alles mittels influx_inspect exportiert

                                [dp20eic@influxDB ~]$ mkdir -p /tmp/data && sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -retention global -out /tmp/data/chronograf-lp --compress gzip
                                

                                Bekomme ich beim schreiben in die Cloud, ist jetzt nicht der original output, da ich zwischenzeitlich noch experimentiert habe

                                $ influx write --bucket influxdb/global --file /tmp/data/iobroker-lp --header "Content-Type: text/plain; charset=utf-8" --compression
                                2023/02/07 14:12:38 line 2: no measurement column found
                                2023/02/07 14:12:38 line 3: no measurement column found
                                2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                                2023/02/07 14:12:38 line 4: no measurement column found
                                2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                                2023/02/07 14:12:38 line 5: no measurement column found
                                2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument
                                2023/02/07 14:12:38 line 6: no measurement column found
                                

                                Ich habe mir mal ein Beispiel gesucht

                                $ cat /tmp/data/example-lp 
                                mem,host=host1 used_percent=23.43234543 1556892576842902000
                                cpu,host=host1 usage_user=3.8234,usage_system=4.23874 1556892726597397000
                                mem,host=host1 used_percent=21.83599203 1556892777007291000
                                

                                Nur da bekomme ich auch

                                15:01:09  dp20eic@test  ~ 
                                $ influx write --bucket proxmox/autogen --file /tmp/data/example-lp --header "Content-Type: text/plain; charset=utf-8" 
                                2023/02/07 15:02:22 line 2: no measurement column found
                                2023/02/07 15:02:22 line 3: no measurement column found
                                2023/02/07 15:02:22 Unable to batcher to error-file: invalid argument
                                2023/02/07 15:02:22 line 4: no measurement column found
                                2023/02/07 15:02:22 Unable to batcher to error-file: invalid argument
                                

                                VG
                                Bernd

                                Edit: Falsches Zeilen, kopiert 🤭
                                Edit: Aber auch mit dem korrekten Daten

                                mem,host=host1 used_percent=64.23 1577836800000000000
                                mem,host=host2 used_percent=72.01 1577836800000000000
                                mem,host=host1 used_percent=62.61 1577836810000000000
                                mem,host=host2 used_percent=72.98 1577836810000000000
                                mem,host=host1 used_percent=63.40 1577836820000000000
                                mem,host=host2 used_percent=73.77 1577836820000000000
                                

                                kommt noch immer die Meldung:

                                Man bin ich ein döspaddel, es klappt :)

                                ? Offline
                                ? Offline
                                Ein ehemaliger Benutzer
                                schrieb am zuletzt editiert von Ein ehemaliger Benutzer
                                #29

                                @dp20eic

                                So ich Antworte mir mal selber, um zu beschreiben was, habe ich wie gemacht, um Daten aus einer lokalen influxdb V1.8 in die influx-Cloud zu bekommen.

                                !!! Achtung !!!
                                Folgende Einschränkungen, in der free influxdb - Cloud Version, das habe ich beim Export der daten aus der Altinstallation berücksichtigt und nur die letzten 30 Tage exportiert.
                                4b4e0134-9ee1-4ede-8496-8ee6eb3c9cbb-grafik.png

                                1. erst einmal eine Cloud Instanz beantragt und eingerichtet siehe influxdb-Cloud
                                2. mir die nötigen Daten besorgt
                                • Cloud
                                  Bucket anlegen z.B iobroker/autogen
                                  Token Anlegen
                                  User Id ermitteln
                                  Bucket ID
                                  Org
                                  Org-Id
                                • lokale Installation
                                  welche DBs gibt es
                                  welche Retetion gibt es für welche Datenbank
                                  check ob space für den export vorhanden
                                1. export der Daten
                                mkdir -p /tmp/data && sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -retention global -out /tmp/data/iobroker-lp --compress gzip -start 2023-0107T00:00:00Z -end 2023-02-07Z00:00:00Z
                                
                                1. um meine letzte 1.8 influxdb installation nicht zu verbiegen einen neuen LXC Container mit den passenden influxdb V 2.x aufgesetzt
                                2. Datei /tmp/data/iobroker-lp auf den neuen LXC Container kopiert.
                                3. für meinen User im neuen LXC ein passendes Environment angelegt
                                export INFLUX_HOST=https://eu-central-1-1.aws.cloud2.influxdata.com
                                export INFLUX_ORG=<Org Name wie oben unter Cloud ermittelt>
                                export INFLUX_TOKEN=<Token wie unter Cloud ermittelt>
                                
                                1. Im neuen LXC
                                influx v1 dbrp create --db influxdb --rp autogen --bucket-id <aus der Cloud Konfig> --default
                                
                                1. check der Daten
                                zmore /tmp/data/iobroker-lp
                                
                                1. Trockenlauf
                                 16:39:20  dp20eic@test  ~ 
                                $ influx write dryrun --bucket iobroker/autogen --file /tmp/data/iobroker-lp | more
                                <hier erscheint der name der Organisation>
                                system.adapter.nut.0.memRss value=60.52 1675764000088000000
                                system.adapter.nut.0.memRss from="system.adapter.nut.0" 1675764000088000000
                                system.adapter.nut.0.memRss q=0 1675764000088000000
                                system.adapter.nut.0.memRss ack=true 1675764000088000000
                                system.adapter.nut.0.memHeapUsed value=21.49 1675764000088000000
                                system.adapter.nut.0.memHeapUsed from="system.adapter.nut.0" 1675764000088000000
                                system.adapter.nut.0.memHeapUsed q=0 1675764000088000000
                                system.adapter.nut.0.memHeapUsed ack=true 1675764000088000000
                                system.adapter.nut.0.cpu value=0.07 1675764000148000000
                                ...
                                
                                1. und abdafür
                                $ influx write --bucket iobroker/autogen --file /tmp/data/iobroker-lp
                                
                                1. Check ob die Daten in der Cloud vorhanden sind, sie sind da :)
                                  98bf5fc1-3351-4e2e-8dfd-cf154b91764a-grafik.png

                                VG
                                Bernd

                                GlasfaserG dirk_1930D 2 Antworten Letzte Antwort
                                1
                                • ? Ein ehemaliger Benutzer

                                  @dp20eic

                                  So ich Antworte mir mal selber, um zu beschreiben was, habe ich wie gemacht, um Daten aus einer lokalen influxdb V1.8 in die influx-Cloud zu bekommen.

                                  !!! Achtung !!!
                                  Folgende Einschränkungen, in der free influxdb - Cloud Version, das habe ich beim Export der daten aus der Altinstallation berücksichtigt und nur die letzten 30 Tage exportiert.
                                  4b4e0134-9ee1-4ede-8496-8ee6eb3c9cbb-grafik.png

                                  1. erst einmal eine Cloud Instanz beantragt und eingerichtet siehe influxdb-Cloud
                                  2. mir die nötigen Daten besorgt
                                  • Cloud
                                    Bucket anlegen z.B iobroker/autogen
                                    Token Anlegen
                                    User Id ermitteln
                                    Bucket ID
                                    Org
                                    Org-Id
                                  • lokale Installation
                                    welche DBs gibt es
                                    welche Retetion gibt es für welche Datenbank
                                    check ob space für den export vorhanden
                                  1. export der Daten
                                  mkdir -p /tmp/data && sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -retention global -out /tmp/data/iobroker-lp --compress gzip -start 2023-0107T00:00:00Z -end 2023-02-07Z00:00:00Z
                                  
                                  1. um meine letzte 1.8 influxdb installation nicht zu verbiegen einen neuen LXC Container mit den passenden influxdb V 2.x aufgesetzt
                                  2. Datei /tmp/data/iobroker-lp auf den neuen LXC Container kopiert.
                                  3. für meinen User im neuen LXC ein passendes Environment angelegt
                                  export INFLUX_HOST=https://eu-central-1-1.aws.cloud2.influxdata.com
                                  export INFLUX_ORG=<Org Name wie oben unter Cloud ermittelt>
                                  export INFLUX_TOKEN=<Token wie unter Cloud ermittelt>
                                  
                                  1. Im neuen LXC
                                  influx v1 dbrp create --db influxdb --rp autogen --bucket-id <aus der Cloud Konfig> --default
                                  
                                  1. check der Daten
                                  zmore /tmp/data/iobroker-lp
                                  
                                  1. Trockenlauf
                                   16:39:20  dp20eic@test  ~ 
                                  $ influx write dryrun --bucket iobroker/autogen --file /tmp/data/iobroker-lp | more
                                  <hier erscheint der name der Organisation>
                                  system.adapter.nut.0.memRss value=60.52 1675764000088000000
                                  system.adapter.nut.0.memRss from="system.adapter.nut.0" 1675764000088000000
                                  system.adapter.nut.0.memRss q=0 1675764000088000000
                                  system.adapter.nut.0.memRss ack=true 1675764000088000000
                                  system.adapter.nut.0.memHeapUsed value=21.49 1675764000088000000
                                  system.adapter.nut.0.memHeapUsed from="system.adapter.nut.0" 1675764000088000000
                                  system.adapter.nut.0.memHeapUsed q=0 1675764000088000000
                                  system.adapter.nut.0.memHeapUsed ack=true 1675764000088000000
                                  system.adapter.nut.0.cpu value=0.07 1675764000148000000
                                  ...
                                  
                                  1. und abdafür
                                  $ influx write --bucket iobroker/autogen --file /tmp/data/iobroker-lp
                                  
                                  1. Check ob die Daten in der Cloud vorhanden sind, sie sind da :)
                                    98bf5fc1-3351-4e2e-8dfd-cf154b91764a-grafik.png

                                  VG
                                  Bernd

                                  GlasfaserG Offline
                                  GlasfaserG Offline
                                  Glasfaser
                                  schrieb am zuletzt editiert von
                                  #30

                                  @dp20eic sagte in influxdb cloud Daten importieren:

                                  gern, Frauchen ist morgen Arbeiten, da hab ich etwas Zeit zum Spielen, ähm Lernen

                                  @dp20eic sagte in influxdb cloud Daten importieren:

                                  So ich Antworte mir mal selber,

                                  Daumen :+1: ,

                                  .... ich selber habe nichts davon , aber ein Lob dafür muß mal sein !

                                  Synology 918+ 16GB - ioBroker in Docker v9 , VISO auf Trekstor Primebook C13 13,3" , Hikvision Domkameras mit Surveillance Station .. CCU RaspberryMatic in Synology VM .. Zigbee CC2538+CC2592 .. Sonoff .. KNX .. Modbus ..

                                  1 Antwort Letzte Antwort
                                  0
                                  • ? Ein ehemaliger Benutzer

                                    @dp20eic

                                    So ich Antworte mir mal selber, um zu beschreiben was, habe ich wie gemacht, um Daten aus einer lokalen influxdb V1.8 in die influx-Cloud zu bekommen.

                                    !!! Achtung !!!
                                    Folgende Einschränkungen, in der free influxdb - Cloud Version, das habe ich beim Export der daten aus der Altinstallation berücksichtigt und nur die letzten 30 Tage exportiert.
                                    4b4e0134-9ee1-4ede-8496-8ee6eb3c9cbb-grafik.png

                                    1. erst einmal eine Cloud Instanz beantragt und eingerichtet siehe influxdb-Cloud
                                    2. mir die nötigen Daten besorgt
                                    • Cloud
                                      Bucket anlegen z.B iobroker/autogen
                                      Token Anlegen
                                      User Id ermitteln
                                      Bucket ID
                                      Org
                                      Org-Id
                                    • lokale Installation
                                      welche DBs gibt es
                                      welche Retetion gibt es für welche Datenbank
                                      check ob space für den export vorhanden
                                    1. export der Daten
                                    mkdir -p /tmp/data && sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -retention global -out /tmp/data/iobroker-lp --compress gzip -start 2023-0107T00:00:00Z -end 2023-02-07Z00:00:00Z
                                    
                                    1. um meine letzte 1.8 influxdb installation nicht zu verbiegen einen neuen LXC Container mit den passenden influxdb V 2.x aufgesetzt
                                    2. Datei /tmp/data/iobroker-lp auf den neuen LXC Container kopiert.
                                    3. für meinen User im neuen LXC ein passendes Environment angelegt
                                    export INFLUX_HOST=https://eu-central-1-1.aws.cloud2.influxdata.com
                                    export INFLUX_ORG=<Org Name wie oben unter Cloud ermittelt>
                                    export INFLUX_TOKEN=<Token wie unter Cloud ermittelt>
                                    
                                    1. Im neuen LXC
                                    influx v1 dbrp create --db influxdb --rp autogen --bucket-id <aus der Cloud Konfig> --default
                                    
                                    1. check der Daten
                                    zmore /tmp/data/iobroker-lp
                                    
                                    1. Trockenlauf
                                     16:39:20  dp20eic@test  ~ 
                                    $ influx write dryrun --bucket iobroker/autogen --file /tmp/data/iobroker-lp | more
                                    <hier erscheint der name der Organisation>
                                    system.adapter.nut.0.memRss value=60.52 1675764000088000000
                                    system.adapter.nut.0.memRss from="system.adapter.nut.0" 1675764000088000000
                                    system.adapter.nut.0.memRss q=0 1675764000088000000
                                    system.adapter.nut.0.memRss ack=true 1675764000088000000
                                    system.adapter.nut.0.memHeapUsed value=21.49 1675764000088000000
                                    system.adapter.nut.0.memHeapUsed from="system.adapter.nut.0" 1675764000088000000
                                    system.adapter.nut.0.memHeapUsed q=0 1675764000088000000
                                    system.adapter.nut.0.memHeapUsed ack=true 1675764000088000000
                                    system.adapter.nut.0.cpu value=0.07 1675764000148000000
                                    ...
                                    
                                    1. und abdafür
                                    $ influx write --bucket iobroker/autogen --file /tmp/data/iobroker-lp
                                    
                                    1. Check ob die Daten in der Cloud vorhanden sind, sie sind da :)
                                      98bf5fc1-3351-4e2e-8dfd-cf154b91764a-grafik.png

                                    VG
                                    Bernd

                                    dirk_1930D Offline
                                    dirk_1930D Offline
                                    dirk_1930
                                    schrieb am zuletzt editiert von
                                    #31

                                    @dp20eic
                                    Super Arbeit :+1:

                                    Kann das leider erst am Wochenende testen… werde berichten wie es gelaufen ist

                                    1 Antwort Letzte Antwort
                                    0
                                    Antworten
                                    • In einem neuen Thema antworten
                                    Anmelden zum Antworten
                                    • Älteste zuerst
                                    • Neuste zuerst
                                    • Meiste Stimmen


                                    Support us

                                    ioBroker
                                    Community Adapters
                                    Donate

                                    553

                                    Online

                                    32.4k

                                    Benutzer

                                    81.5k

                                    Themen

                                    1.3m

                                    Beiträge
                                    Community
                                    Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                    ioBroker Community 2014-2025
                                    logo
                                    • Anmelden

                                    • Du hast noch kein Konto? Registrieren

                                    • Anmelden oder registrieren, um zu suchen
                                    • Erster Beitrag
                                      Letzter Beitrag
                                    0
                                    • Home
                                    • Aktuell
                                    • Tags
                                    • Ungelesen 0
                                    • Kategorien
                                    • Unreplied
                                    • Beliebt
                                    • GitHub
                                    • Docu
                                    • Hilfe