NEWS
influxdb cloud Daten importieren
-
@dirk_1930 sagte in influxdb cloud Daten importieren:
allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht
mhh ... wie groß ist denn dein Influxd Datenbank mb/ GB oder
Schonmal ein Backup mit dem Backitup adapter gemacht
-
@glasfaser
Sicherung 1x täglich
Die Datenbank ist 226MB groß -
@dirk_1930 sagte in influxdb cloud Daten importieren:
Die Datenbank ist 226MB groß
ist winzig .. klein
-
@glasfaser
Irgend eine Idee, warum er dann die Daten nicht so sichert, wie du vorher beschrieben hast? -
@dirk_1930 sagte in influxdb cloud Daten importieren:
die lokale db hat die Version 1, die Cloud sollte Version 2 sein.
So ganz verstehe ich das nicht , denn Cloud habe ich nicht
Dann wäre von ioBroker aus dann
Instanz.0 für 1.8
Instanz.1 für 2.0sein , die diese Datenpunkte dann beschreiben !!?
-
@dirk_1930 sagte in influxdb cloud Daten importieren:
Irgend eine Idee, warum er dann die Daten nicht so sichert, wie du vorher beschrieben hast?
Sollte eigenlich gehen ...
auch das hier , in eine neue Datenbank schreiben
@dirk_1930 sagte in influxdb cloud Daten importieren:
sudo influxd restore -portable -db iobroker -newdb iobroker2 /tmp/iobroker_backup
iobroker2 darf nicht vorhanden sein !!
-
@glasfaser said in influxdb cloud Daten importieren:
@dirk_1930 sagte in influxdb cloud Daten importieren:
die lokale db hat die Version 1, die Cloud sollte Version 2 sein.
So ganz verstehe ich das nicht , denn Cloud habe ich nicht
Dann wäre von ioBroker aus dann
Instanz.0 für 1.8
Instanz.1 für 2.0sein , die diese Datenpunkte dann beschreiben !!?
Meine Idee wäre es gewesen, die alte Instanz schlafen zu legen und nur noch in die Neue Version zu schreiben
-
Moin,
ich schaffe das heute nicht mehr, aber morgen würde ich mir ein Zugang zur Cloud besorgen, und dann mal Testen, da ich hier sowohl V1.8er und V 2.xer InfluxDb nutze.
VG
Bernd -
@dirk_1930 sagte in influxdb cloud Daten importieren:
die alte Instanz schlafen zu legen
du brauchts doch nur in der vorhandenen Instanz.0 ( 1.8 ) die neuen Zugangsdaten für die InfluxDB 2.0 ändern .
Ich habe auch vor kurzen von 1.8 auf 2.0 gewechselt . ( keine Cloud )
Alte Datenbank übernommen ... ca. 2 GB groß
Habe aber bemerkt das nach der Umstellung immer Fehler im ioBroker Log waren .
Absturz von ioBroker usw.andauert Influx query .... timeout usw.
Auch ein Teilimport von der alten Datenbank brachte nach kuzer Zeit immer diesen Fehler .
Also habe jetzt mit InfluxDB2.0 von 0 angefangen ... ohne Fehler .
-
@dp20eic
-
@glasfaser
Kann man nicht die Daten unter Umständen in eine CSV exportieren und dann in der V2 wieder einlesen? -
@dirk_1930 sagte in influxdb cloud Daten importieren:
Kann man nicht die Daten unter Umständen in eine CSV exportieren und dann in der V2 wieder einlesen?
Habe es nicht so geschafft ...
habe eine neuen VM mit influx 1.8 aufgesetzt , dann ein Backup von 1.8 eingespielt und dann ein Upgrade auf InfluxDB2 gemacht .
-
Moin,
ja, natürlich geht das. Aber wieso noch umständlicher, so wie das bei
influxDB
beschrieben ist, muss das gehen.VG
Bernd -
@dp20eic
Dann warte ich mal auf deinen Test... wenn es bei dir läuft finde ich vielleicht ja meinen Fehler. -
gern, Frauchen ist morgen Arbeiten, da hab ich etwas Zeit zum Spielen, ähm Lernen
VG
Bernd -
@dirk_1930 sagte in influxdb cloud Daten importieren:
Jetzt passiert etwas
writing out tsm file data for iobroker/autogen...allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht
Moin,
den export habe ich auch gerade einmal gemacht, läuft bei mir durch, das Dauert etwas
Das ist was ich aufgerufen habe, ohne
-retention
aber dafür mit-compress
sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -compress -out /tmp/data/iobroker-lp.gzip writing out tsm file data for iobroker/global...complete. writing out wal file data for iobroker/global...complete.
Ich glaube, das das
-retention
nicht gebraucht wird, es seiden Du hast für die Datenbanken eineretention policies
erstellt, default ist* -retention flag with a specific retention policy to export. By default, all retention policies are exported.
Und bei solchen Aktionen, immer eine zweite
ssh
Session auf haben, zum schauen was sich da so tut!Also dieser Schritt funktioniert erst einmal.
VG
Bernd -
@dp20eic
Die Online Version hast du noch nicht getestet?
-
Moin,
habe mir gestern mal einen Account angelegt und auch soweit eingerichtet.
Das Problem, das ich noch habe ist, das ich die Daten nicht rein bekomme
Erst war es ein Problem, das er die Datei nicht wollte wegen "text/plain, UTF-8", das habe ich aber hinbekommen, dann waren ihm die Daten(Struktur) wohl nicht genehm
Hab noch etwas gegooglet, bin gerade dran es noch mal zu versuchenWurmt mich wenn etwas nicht funktioniert
VG
Bernd -
@dp20eic
Hast du eine v2 oder v1 Datenbank versucht? -
Moin,
ich bastel an der Kombi von
influxdb V 1.8
-->influxdb Cloud
Aber ich kapiere es noch nich, denn obwohl er mir alles mittels
influx_inspect
exportiert[dp20eic@influxDB ~]$ mkdir -p /tmp/data && sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -retention global -out /tmp/data/chronograf-lp --compress gzip
Bekomme ich beim schreiben in die Cloud, ist jetzt nicht der original output, da ich zwischenzeitlich noch experimentiert habe
$ influx write --bucket influxdb/global --file /tmp/data/iobroker-lp --header "Content-Type: text/plain; charset=utf-8" --compression 2023/02/07 14:12:38 line 2: no measurement column found 2023/02/07 14:12:38 line 3: no measurement column found 2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument 2023/02/07 14:12:38 line 4: no measurement column found 2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument 2023/02/07 14:12:38 line 5: no measurement column found 2023/02/07 14:12:38 Unable to batcher to error-file: invalid argument 2023/02/07 14:12:38 line 6: no measurement column found
Ich habe mir mal ein Beispiel gesucht
$ cat /tmp/data/example-lp mem,host=host1 used_percent=23.43234543 1556892576842902000 cpu,host=host1 usage_user=3.8234,usage_system=4.23874 1556892726597397000 mem,host=host1 used_percent=21.83599203 1556892777007291000
Nur da bekomme ich auch
15:01:09 dp20eic@test ~ $ influx write --bucket proxmox/autogen --file /tmp/data/example-lp --header "Content-Type: text/plain; charset=utf-8" 2023/02/07 15:02:22 line 2: no measurement column found 2023/02/07 15:02:22 line 3: no measurement column found 2023/02/07 15:02:22 Unable to batcher to error-file: invalid argument 2023/02/07 15:02:22 line 4: no measurement column found 2023/02/07 15:02:22 Unable to batcher to error-file: invalid argument
VG
BerndEdit: Falsches Zeilen, kopiert 🤭
Edit: Aber auch mit dem korrekten Datenmem,host=host1 used_percent=64.23 1577836800000000000 mem,host=host2 used_percent=72.01 1577836800000000000 mem,host=host1 used_percent=62.61 1577836810000000000 mem,host=host2 used_percent=72.98 1577836810000000000 mem,host=host1 used_percent=63.40 1577836820000000000 mem,host=host2 used_percent=73.77 1577836820000000000
kommt noch immer die Meldung:
Man bin ich ein döspaddel, es klappt