Skip to content
  • Home
  • Recent
  • Tags
  • 0 Unread 0
  • Categories
  • Unreplied
  • Popular
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. Altdaten über CSV-Datei in die InfluxDB2 einlesen

NEWS

  • Monatsrückblick Januar/Februar 2026 ist online!
    BluefoxB
    Bluefox
    16
    1
    279

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    4.6k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.3k

Altdaten über CSV-Datei in die InfluxDB2 einlesen

Scheduled Pinned Locked Moved Off Topic
csv influxdb2 import
9 Posts 3 Posters 1.6k Views 2 Watching
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • C Offline
    C Offline
    Chr.Hu
    wrote on last edited by
    #1

    Hallo,

    ich lese die Zählerdaten über die optische Schnittstelle aus. Zunächst hatte ich den Poweropti, bei dem dann irgendwann die Verbindung mit der Cloud nicht mehr funktionierte. Ich habe das Ganze dann über Tasmota-Lesegerät und iobroker mit Sonoff-Adapter in die Influxdb2 im Synology-Docker abgebildet. Funktioniert soweit.

    Nun möchte ich die Altdaten aus dem Powerfox in Form einer csv-Datei in die Influxdb nachtragen. InfluxDB2-CLI scheitert bei der Authentifizierung und Influx-csv.from() schreibt die Daten offenbar nur in eine Dashboard-Cell, aber nicht in das Bucket. Irgendwo habe ich ergooglet dass InfluxDB2 (Im Gegensatz zu DB1) generell das direkte Schreiben oder Ändern von Datenpunkten nicht mehr zulässt.

    Die nächsten Versuche wären entweder über Telegraf oder über einen Iobroker-Adapter z.B. über die github-csv-to-influx-Phyton-Bibliotheken, wobei ich noch gar nicht weiß ob und wie ich diese Phyton-Routinen in der Synology-Root oder im Container-Terminal laufen lasse. Lässt sich mit Trial-and-Error sicherlich alles lösen, aber schon die Telegraf-Installation im Docker erfordert langwierige Detailarbeit.

    Daher die Frage ob jemand schon csv-Daten in die Influxdb2 geschrieben hat und welcher Weg zielführend ist?

    Vielen Dank für eure Bemühungen.

    Chris

    Marc BergM 1 Reply Last reply
    0
    • ? Offline
      ? Offline
      A Former User
      wrote on last edited by
      #2

      @chr-hu sagte in Altdaten über CSV-Datei in die InfluxDB2 einlesen:

      Daher die Frage ob jemand schon csv-Daten in die Influxdb2 geschrieben hat und welcher Weg zielführend ist?

      Moin,

      diese Wege ⇒ https://docs.influxdata.com/influxdb/v2/write-data/developer-tools/csv/#use-files-to-inject-headers, hast Du schon probiert?

      @chr-hu sagte in Altdaten über CSV-Datei in die InfluxDB2 einlesen:

      InfluxDB2-CLI scheitert bei der Authentifizierung

      Dann solltest Du uns zeigen, sagen, was nicht geht!

      Ich könnte Dir noch Chronograf anbieten ⇒ https://www.influxdata.com/time-series-platform/chronograf/

      VG
      Bernd

      1 Reply Last reply
      1
      • C Chr.Hu

        Hallo,

        ich lese die Zählerdaten über die optische Schnittstelle aus. Zunächst hatte ich den Poweropti, bei dem dann irgendwann die Verbindung mit der Cloud nicht mehr funktionierte. Ich habe das Ganze dann über Tasmota-Lesegerät und iobroker mit Sonoff-Adapter in die Influxdb2 im Synology-Docker abgebildet. Funktioniert soweit.

        Nun möchte ich die Altdaten aus dem Powerfox in Form einer csv-Datei in die Influxdb nachtragen. InfluxDB2-CLI scheitert bei der Authentifizierung und Influx-csv.from() schreibt die Daten offenbar nur in eine Dashboard-Cell, aber nicht in das Bucket. Irgendwo habe ich ergooglet dass InfluxDB2 (Im Gegensatz zu DB1) generell das direkte Schreiben oder Ändern von Datenpunkten nicht mehr zulässt.

        Die nächsten Versuche wären entweder über Telegraf oder über einen Iobroker-Adapter z.B. über die github-csv-to-influx-Phyton-Bibliotheken, wobei ich noch gar nicht weiß ob und wie ich diese Phyton-Routinen in der Synology-Root oder im Container-Terminal laufen lasse. Lässt sich mit Trial-and-Error sicherlich alles lösen, aber schon die Telegraf-Installation im Docker erfordert langwierige Detailarbeit.

        Daher die Frage ob jemand schon csv-Daten in die Influxdb2 geschrieben hat und welcher Weg zielführend ist?

        Vielen Dank für eure Bemühungen.

        Chris

        Marc BergM Offline
        Marc BergM Offline
        Marc Berg
        Most Active
        wrote on last edited by Marc Berg
        #3

        @chr-hu
        Es gibt aus meiner Sicht mindestens zwei einfache Wege ohne Programmierung:

        1. Über die CLI, hier muss du einen Header mitgeben, in welchem der Aufbau der CSV beschrieben ist. Das Vorgehen ist hier beschrieben. Dein Authentifizierungs-Problem lässt sich sicher lösen.

        2. Über die GUI. Dazu musst du vorher manuell die Daten deiner CSV in das Line Protocol überführen. Das Line Protocol ist ganz simpel aufgebaut:

        <Mesurementname> <Feldname>=<Feldvalue> <timestamp>
        <Mesurementname> <Feldname>=<Feldvalue2> <timestamp2>
        <Mesurementname> <Feldname>=<Feldvalue3> <timestamp3>
        

        Also z.B.

        Elektrozaehler Stand=1234.5 1556813561098000000
        Elektrozaehler Stand=1235.6 1556813561100000000
        Elektrozaehler Stand=1236.7 1556813561200000000
        

        Die Werte kannst du dann per GUI importieren.

        Edit: @dp20eic: dieses Mal war ich zu langsam ... :-)

        NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

        Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

        Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

        C 1 Reply Last reply
        0
        • Marc BergM Marc Berg

          @chr-hu
          Es gibt aus meiner Sicht mindestens zwei einfache Wege ohne Programmierung:

          1. Über die CLI, hier muss du einen Header mitgeben, in welchem der Aufbau der CSV beschrieben ist. Das Vorgehen ist hier beschrieben. Dein Authentifizierungs-Problem lässt sich sicher lösen.

          2. Über die GUI. Dazu musst du vorher manuell die Daten deiner CSV in das Line Protocol überführen. Das Line Protocol ist ganz simpel aufgebaut:

          <Mesurementname> <Feldname>=<Feldvalue> <timestamp>
          <Mesurementname> <Feldname>=<Feldvalue2> <timestamp2>
          <Mesurementname> <Feldname>=<Feldvalue3> <timestamp3>
          

          Also z.B.

          Elektrozaehler Stand=1234.5 1556813561098000000
          Elektrozaehler Stand=1235.6 1556813561100000000
          Elektrozaehler Stand=1236.7 1556813561200000000
          

          Die Werte kannst du dann per GUI importieren.

          Edit: @dp20eic: dieses Mal war ich zu langsam ... :-)

          C Offline
          C Offline
          Chr.Hu
          wrote on last edited by
          #4

          Nunja, vielen Dank, aber diese beiden einfachen Varianten hatte ich ja bereits beschrieben.

          Die Erweiterung bzw. Button unter Data->Source für den File-Upload gibt es bei mir nicht in Version 2. influx-write scheitert an der Berechtigung (ich glaube der Admin kann nicht updaten) und beim csv.from landen die Daten zwar im Dashboard, aber nicht im Bucket, wie das auch immer zusammenhängt.

          Ich finde aber offenbar niemanden, der tatsächlich schon mal eine csv-Datei in ein Bucket geladen hat? :-)

          Mfg

          Chris

          ? 1 Reply Last reply
          0
          • C Chr.Hu

            Nunja, vielen Dank, aber diese beiden einfachen Varianten hatte ich ja bereits beschrieben.

            Die Erweiterung bzw. Button unter Data->Source für den File-Upload gibt es bei mir nicht in Version 2. influx-write scheitert an der Berechtigung (ich glaube der Admin kann nicht updaten) und beim csv.from landen die Daten zwar im Dashboard, aber nicht im Bucket, wie das auch immer zusammenhängt.

            Ich finde aber offenbar niemanden, der tatsächlich schon mal eine csv-Datei in ein Bucket geladen hat? :-)

            Mfg

            Chris

            ? Offline
            ? Offline
            A Former User
            wrote on last edited by
            #5

            @chr-hu sagte in Altdaten über CSV-Datei in die InfluxDB2 einlesen:

            ch finde aber offenbar niemanden, d

            Moin,

            doch, nur Du erzählst nur, zeigst aber nichts, also keine Logs, oder das, was Du auf der Kommandozeile eingegeben hast, wie soll man dann helfen?

            @chr-hu sagte in Altdaten über CSV-Datei in die InfluxDB2 einlesen:

            (ich glaube der Admin kann nicht updaten)

            Welcher Admin?

            VG
            Bernd

            P.S.: hatte ich Dir auch noch gesagt, dass man mit Chronograf CSV uploaden kann!

            C 1 Reply Last reply
            0
            • ? A Former User

              @chr-hu sagte in Altdaten über CSV-Datei in die InfluxDB2 einlesen:

              ch finde aber offenbar niemanden, d

              Moin,

              doch, nur Du erzählst nur, zeigst aber nichts, also keine Logs, oder das, was Du auf der Kommandozeile eingegeben hast, wie soll man dann helfen?

              @chr-hu sagte in Altdaten über CSV-Datei in die InfluxDB2 einlesen:

              (ich glaube der Admin kann nicht updaten)

              Welcher Admin?

              VG
              Bernd

              P.S.: hatte ich Dir auch noch gesagt, dass man mit Chronograf CSV uploaden kann!

              C Offline
              C Offline
              Chr.Hu
              wrote on last edited by
              #6

              Sorry, ich bin erst am Feiertag wieder im Home-Netz. Dann zeige ich Line-Protocol und write. Hatte ich schon verworfen.

              "Chronograf is the complete interface for the InfluxDB 1.x Platform". Bei Version 1 und 2 gibt es offenbar größere Unterschiede, auch diese direkten File-Uploads in den Sources sind in Version2 nicht mehr auffindbar https://forum.iobroker.net/assets/uploads/files/1684307206551-c50c1bef-a62e-4348-a9fb-ac8807604c8a-grafik.png

              MfG

              Chris

              ? 1 Reply Last reply
              0
              • C Chr.Hu

                Sorry, ich bin erst am Feiertag wieder im Home-Netz. Dann zeige ich Line-Protocol und write. Hatte ich schon verworfen.

                "Chronograf is the complete interface for the InfluxDB 1.x Platform". Bei Version 1 und 2 gibt es offenbar größere Unterschiede, auch diese direkten File-Uploads in den Sources sind in Version2 nicht mehr auffindbar https://forum.iobroker.net/assets/uploads/files/1684307206551-c50c1bef-a62e-4348-a9fb-ac8807604c8a-grafik.png

                MfG

                Chris

                ? Offline
                ? Offline
                A Former User
                wrote on last edited by
                #7

                @chr-hu sagte in Altdaten über CSV-Datei in die InfluxDB2 einlesen:

                "Chronograf is the complete interface for the InfluxDB 1.x Platform".

                Moin,

                stimmt nicht, einfach mal mehr und tiefer einlesen :)
                https://docs.influxdata.com/chronograf/v1/guides/write-to-influxdb/#Copyright

                Und hier so wie es dann in real aussieht
                26cd1ff3-8260-463a-ab3a-294158da09b7-grafik.png
                89aa88ee-2c91-4200-94ae-1525ddce4906-grafik.png
                Oder Du schreibst direkt die Zeilen
                135d38e1-5deb-4546-aafa-fe53220aadde-grafik.png

                Das, was man natürlich machen muss, ist, seine Daten in das Line-Protokoll zu bringen, wie @Marc-Berg weiter oben schon gesagt hat.

                VG
                Bernd

                1 Reply Last reply
                0
                • C Offline
                  C Offline
                  Chr.Hu
                  wrote on last edited by
                  #8

                  Danke für deine Bemühungen, Bernd, aber ich habe jetzt den Flux-Import über den Table-Stream verstanden. Der Table-Stream aus dem csv.from() wird logischerweise mit |> in die to()-Funktion weitergeleitet.

                  Die Struktur habe ich mit dem (auch bei mir vorhandenen) CSV-Export vorher exportiert und mit den neuen Daten gefüllt. So kommen die Daten jetzt ins Bucket:

                  import "csv"

                  csvData=

                  "
                  #group,false,false,true,true,false,false,true,true
                  #datatype,string,long,dateTime:RFC3339,dateTime:RFC3339,dateTime:RFC3339,double,string,string
                  #default,mean,,,,,,,
                  ,result,table,_start,_stop,_time,_value,_field,_measurement
                  ,,1,2023-08-31T18:00:00Z,2023-08-31T18:14:00Z,2023-08-31T18:14:00Z,50.47,value,sonoff.0.DVES_555192.SML_total_kwh
                  ,,1,2023-08-31T18:15:00Z,2023-08-31T18:16:00Z,2023-08-31T18:16:00Z,50.62,value,sonoff.0.DVES_555192.SML_total_kwh
                  ,,1,2023-08-31T18:30:00Z,2023-08-31T18:39:59Z,2023-08-31T18:39:59Z,50.72,value,sonoff.0.DVES_555192.SML_total_kwh
                  ,,1,2023-08-31T18:45:00Z,2023-08-31T18:59:04Z,2023-08-31T18:59:04Z,50.84,value,sonoff.0.DVES_555192.SML_total_kwh

                  .....

                  ,,0,,,2023-10-07T02:14:59Z,432.21,value,sonoff.0.DVES_555192.SML_Total_out
                  ,,0,,,2023-10-07T02:29:59Z,432.21,value,sonoff.0.DVES_555192.SML_Total_out
                  ,,0,,,2023-10-07T02:44:59Z,432.21,value,sonoff.0.DVES_555192.SML_Total_out
                  ,,0,,,2023-10-07T02:59:59Z,432.21,value,sonoff.0.DVES_555192.SML_Total_out
                  ,,0,,,2023-10-07T03:01:27Z,432.21,value,sonoff.0.DVES_555192.SML_Total_out
                  "

                  csv.from(csv: csvData)
                  |> to (bucket: "Powerfox")

                  _Start und _Stop sind Dummy-Werte, die will er aber drin haben weil er sonst Nil-Werte im Zeitfeld anmeckert.

                  Deine Screenshot, Bernd, ist vermutlich immer noch V1. Bei mir sieht das so aus
                  1ea2162c-45fd-4505-8f9a-3f10e972a63d-image.png

                  Oder es liegt an der Synology-Version, das weiß ich nicht.

                  Jedenfalls: Danke allerseits für die Bemühungen.

                  Chris

                  ? 1 Reply Last reply
                  0
                  • C Chr.Hu

                    Danke für deine Bemühungen, Bernd, aber ich habe jetzt den Flux-Import über den Table-Stream verstanden. Der Table-Stream aus dem csv.from() wird logischerweise mit |> in die to()-Funktion weitergeleitet.

                    Die Struktur habe ich mit dem (auch bei mir vorhandenen) CSV-Export vorher exportiert und mit den neuen Daten gefüllt. So kommen die Daten jetzt ins Bucket:

                    import "csv"

                    csvData=

                    "
                    #group,false,false,true,true,false,false,true,true
                    #datatype,string,long,dateTime:RFC3339,dateTime:RFC3339,dateTime:RFC3339,double,string,string
                    #default,mean,,,,,,,
                    ,result,table,_start,_stop,_time,_value,_field,_measurement
                    ,,1,2023-08-31T18:00:00Z,2023-08-31T18:14:00Z,2023-08-31T18:14:00Z,50.47,value,sonoff.0.DVES_555192.SML_total_kwh
                    ,,1,2023-08-31T18:15:00Z,2023-08-31T18:16:00Z,2023-08-31T18:16:00Z,50.62,value,sonoff.0.DVES_555192.SML_total_kwh
                    ,,1,2023-08-31T18:30:00Z,2023-08-31T18:39:59Z,2023-08-31T18:39:59Z,50.72,value,sonoff.0.DVES_555192.SML_total_kwh
                    ,,1,2023-08-31T18:45:00Z,2023-08-31T18:59:04Z,2023-08-31T18:59:04Z,50.84,value,sonoff.0.DVES_555192.SML_total_kwh

                    .....

                    ,,0,,,2023-10-07T02:14:59Z,432.21,value,sonoff.0.DVES_555192.SML_Total_out
                    ,,0,,,2023-10-07T02:29:59Z,432.21,value,sonoff.0.DVES_555192.SML_Total_out
                    ,,0,,,2023-10-07T02:44:59Z,432.21,value,sonoff.0.DVES_555192.SML_Total_out
                    ,,0,,,2023-10-07T02:59:59Z,432.21,value,sonoff.0.DVES_555192.SML_Total_out
                    ,,0,,,2023-10-07T03:01:27Z,432.21,value,sonoff.0.DVES_555192.SML_Total_out
                    "

                    csv.from(csv: csvData)
                    |> to (bucket: "Powerfox")

                    _Start und _Stop sind Dummy-Werte, die will er aber drin haben weil er sonst Nil-Werte im Zeitfeld anmeckert.

                    Deine Screenshot, Bernd, ist vermutlich immer noch V1. Bei mir sieht das so aus
                    1ea2162c-45fd-4505-8f9a-3f10e972a63d-image.png

                    Oder es liegt an der Synology-Version, das weiß ich nicht.

                    Jedenfalls: Danke allerseits für die Bemühungen.

                    Chris

                    ? Offline
                    ? Offline
                    A Former User
                    wrote on last edited by
                    #9

                    @chr-hu sagte in Altdaten über CSV-Datei in die InfluxDB2 einlesen:

                    Deine Screenshot, Bernd, ist vermutlich immer noch V1. Bei mir sieht das so aus

                    Moin,

                    meine Screenshots sind von der Applikation chronograf, hatte ich auch geschrieben!

                    VG
                    Bernd

                    1 Reply Last reply
                    0
                    Reply
                    • Reply as topic
                    Log in to reply
                    • Oldest to Newest
                    • Newest to Oldest
                    • Most Votes


                    Support us

                    ioBroker
                    Community Adapters
                    Donate

                    266

                    Online

                    32.7k

                    Users

                    82.5k

                    Topics

                    1.3m

                    Posts
                    Community
                    Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                    ioBroker Community 2014-2025
                    logo
                    • Login

                    • Don't have an account? Register

                    • Login or register to search.
                    • First post
                      Last post
                    0
                    • Home
                    • Recent
                    • Tags
                    • Unread 0
                    • Categories
                    • Unreplied
                    • Popular
                    • GitHub
                    • Docu
                    • Hilfe