NEWS
influxdb cloud Daten importieren
-
@glasfaser said in influxdb cloud Daten importieren:
@dirk_1930 sagte in influxdb cloud Daten importieren:
allerdings schreibt er keine Daten...
Test mit lp :
sudo influx_inspect export -database iobroker -datadir /var/lib/influxdb/data -waldir /var/lib/influxdb/wal -retention autogen -out /tmp/iobroker_backup/influxv1backup.lp -lponly
auch nicht so !?
Jetzt passiert etwas
writing out tsm file data for iobroker/autogen...
allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht
Linux ist nicht wirklich meine Stärke...
-
@dirk_1930 sagte in influxdb cloud Daten importieren:
allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht
mhh ... wie groß ist denn dein Influxd Datenbank mb/ GB oder
Schonmal ein Backup mit dem Backitup adapter gemacht
-
@glasfaser
Sicherung 1x täglich
Die Datenbank ist 226MB groß -
@dirk_1930 sagte in influxdb cloud Daten importieren:
Die Datenbank ist 226MB groß
ist winzig .. klein
-
@glasfaser
Irgend eine Idee, warum er dann die Daten nicht so sichert, wie du vorher beschrieben hast? -
@dirk_1930 sagte in influxdb cloud Daten importieren:
die lokale db hat die Version 1, die Cloud sollte Version 2 sein.
So ganz verstehe ich das nicht , denn Cloud habe ich nicht
Dann wäre von ioBroker aus dann
Instanz.0 für 1.8
Instanz.1 für 2.0sein , die diese Datenpunkte dann beschreiben !!?
-
@dirk_1930 sagte in influxdb cloud Daten importieren:
Irgend eine Idee, warum er dann die Daten nicht so sichert, wie du vorher beschrieben hast?
Sollte eigenlich gehen ...
auch das hier , in eine neue Datenbank schreiben
@dirk_1930 sagte in influxdb cloud Daten importieren:
sudo influxd restore -portable -db iobroker -newdb iobroker2 /tmp/iobroker_backup
iobroker2 darf nicht vorhanden sein !!
-
@glasfaser said in influxdb cloud Daten importieren:
@dirk_1930 sagte in influxdb cloud Daten importieren:
die lokale db hat die Version 1, die Cloud sollte Version 2 sein.
So ganz verstehe ich das nicht , denn Cloud habe ich nicht
Dann wäre von ioBroker aus dann
Instanz.0 für 1.8
Instanz.1 für 2.0sein , die diese Datenpunkte dann beschreiben !!?
Meine Idee wäre es gewesen, die alte Instanz schlafen zu legen und nur noch in die Neue Version zu schreiben
-
Moin,
ich schaffe das heute nicht mehr, aber morgen würde ich mir ein Zugang zur Cloud besorgen, und dann mal Testen, da ich hier sowohl V1.8er und V 2.xer InfluxDb nutze.
VG
Bernd -
@dirk_1930 sagte in influxdb cloud Daten importieren:
die alte Instanz schlafen zu legen
du brauchts doch nur in der vorhandenen Instanz.0 ( 1.8 ) die neuen Zugangsdaten für die InfluxDB 2.0 ändern .
Ich habe auch vor kurzen von 1.8 auf 2.0 gewechselt . ( keine Cloud )
Alte Datenbank übernommen ... ca. 2 GB groß
Habe aber bemerkt das nach der Umstellung immer Fehler im ioBroker Log waren .
Absturz von ioBroker usw.andauert Influx query .... timeout usw.
Auch ein Teilimport von der alten Datenbank brachte nach kuzer Zeit immer diesen Fehler .
Also habe jetzt mit InfluxDB2.0 von 0 angefangen ... ohne Fehler .
-
@dp20eic
-
@glasfaser
Kann man nicht die Daten unter Umständen in eine CSV exportieren und dann in der V2 wieder einlesen? -
@dirk_1930 sagte in influxdb cloud Daten importieren:
Kann man nicht die Daten unter Umständen in eine CSV exportieren und dann in der V2 wieder einlesen?
Habe es nicht so geschafft ...
habe eine neuen VM mit influx 1.8 aufgesetzt , dann ein Backup von 1.8 eingespielt und dann ein Upgrade auf InfluxDB2 gemacht .
-
Moin,
ja, natürlich geht das. Aber wieso noch umständlicher, so wie das bei
influxDB
beschrieben ist, muss das gehen.VG
Bernd -
@dp20eic
Dann warte ich mal auf deinen Test... wenn es bei dir läuft finde ich vielleicht ja meinen Fehler. -
gern, Frauchen ist morgen Arbeiten, da hab ich etwas Zeit zum Spielen, ähm Lernen
VG
Bernd -
@dirk_1930 sagte in influxdb cloud Daten importieren:
Jetzt passiert etwas
writing out tsm file data for iobroker/autogen...allerdings hört er nicht auf, und das Verzeichnis kann ich nicht aufrufen um zu sehen was drin steht
Moin,
den export habe ich auch gerade einmal gemacht, läuft bei mir durch, das Dauert etwas
Das ist was ich aufgerufen habe, ohne
-retention
aber dafür mit-compress
sudo influx_inspect export -lponly -datadir /var/lib/influxdb/data/ -waldir /var/lib/influxdb/wal/ -database iobroker -compress -out /tmp/data/iobroker-lp.gzip writing out tsm file data for iobroker/global...complete. writing out wal file data for iobroker/global...complete.
Ich glaube, das das
-retention
nicht gebraucht wird, es seiden Du hast für die Datenbanken eineretention policies
erstellt, default ist* -retention flag with a specific retention policy to export. By default, all retention policies are exported.
Und bei solchen Aktionen, immer eine zweite
ssh
Session auf haben, zum schauen was sich da so tut!Also dieser Schritt funktioniert erst einmal.
VG
Bernd -
@dp20eic
Die Online Version hast du noch nicht getestet ? -
Moin,
habe mir gestern mal einen Account angelegt und auch soweit eingerichtet.
Das Problem, das ich noch habe ist, das ich die Daten nicht rein bekomme
Erst war es ein Problem, das er die Datei nicht wollte wegen "text/plain, UTF-8", das habe ich aber hinbekommen, dann waren ihm die Daten(Struktur) wohl nicht genehm
Hab noch etwas gegooglet, bin gerade dran es noch mal zu versuchen Wurmt mich wenn etwas nicht funktioniertVG
Bernd -
@dp20eic
Hast du eine v2 oder v1 Datenbank versucht?