Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

  1. ioBroker Community Home
  2. Deutsch
  3. ioBroker Allgemein
  4. Frage : Migrate MySQL nach Influxdb

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.2k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    1.9k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    15
    1
    2.2k

Frage : Migrate MySQL nach Influxdb

Geplant Angeheftet Gesperrt Verschoben ioBroker Allgemein
151 Beiträge 31 Kommentatoren 25.8k Aufrufe 25 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • C ChrPrk

    Hallo zusammen,
    vielen Dank für das Script und da drumherum hier @JackGruber @UlliJ - ich bin gerade dabei, ca 60mio Datensätze von einer SQL auf eine influx zu migrieren.
    Ich stoße hierbei leider immer wieder mitten in der Übertragung auf folgenden Fehler:

    Total metrics in ts_number: 1
    0_userdata.0.Variablen.Strom.Steckdose_Dachgeschoss(ID: 9, type: float) (1/1)
    Processing row 1 to 1,000 from LIMIT 0 / 100,000 ts_number - 0_userdata.0.Variablen.Strom.Steckdose_Dachgeschoss (1/1)
    InfluxDB error
    float() argument must be a string or a real number, not 'NoneType'
    

    Kann ich das entweder irgendwie überspringen oder gar besser konvertieren in eine 0 oder etwas in der Art?

    Vielen Dank

    Gruß

    Christoph

    M Offline
    M Offline
    maxx8888
    schrieb am zuletzt editiert von maxx8888
    #142

    @chrprk

    Hatte gerade genau das gleiche Problem. Scheinbar sind da teilweise "nicht" float Werte in mysql DB vorhanden.
    z.b. null

    Habe es recht simple gelöst, indem einfach alle Werte die nicht Float sind auf 0 gesetzt werden.
    Änderung im Script war einfach beim float konvertieren ein "or 0" anfügen:

                # Daten in richtigen Typ wandeln
                if field_label == "value":
                    if datatype == 0:  # ts_number
                        fields["value"] = float(record["value"] or 0)
                    elif datatype == 1:  # ts_string
                        fields["value"] = str(record["value"])
                    elif datatype == 2:  # ts_bool
                        fields["value"] = bool(record["value"])
    

    @JackGruber
    Vielen Dank für das coole Script. Einfach genial!

    1 Antwort Letzte Antwort
    0
    • umbmU umbm

      @jackgruber sagte in Frage : Migrate MySQL nach Influxdb:

      Hab das script etwas angepasst, damit alle Daten übernommen werden und diese auch auf einem leistungsschwachen Rasperry Pi ausgelesen werden können.

      Frage:
      Läuft das Script auch mit influxdb v2.x?
      Hintergrund:
      Der externe Zugriff wird ab v2 ja über Token abgesichert.
      In der database.json sind aber nur username/password für influxdb hinterlegt.

      B Offline
      B Offline
      bvol
      schrieb am zuletzt editiert von
      #143

      @umbm influx v2 kann auch noch influx v1 api auth influx v1 auth create

      1 Antwort Letzte Antwort
      0
      • Z Offline
        Z Offline
        ZeroQool
        schrieb am zuletzt editiert von
        #144

        Ich muss 3 Jahre Daten importieren, aber irgendwann bekomme ich folgende Fehlermeldung:

        InfluxDB error
        HTTPConnectionPool(host='192.168.178.155', port=8086): Max retries exceeded with url: /write?db=iobroker&rp=autogen (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7fb8267db6d0>: Failed to establish a new connection: [Errno 111] Connection refused'))
        

        Die Batchsize habe ich hoch und runter getestet. Der Fehler ist sehr sporadisch, aber kommt defintiv, entweder am Datensatz X oder Y.

        Hat jemand noch eine Idee. Könnte mir vorstellen, dass es nur eine Server-Einstellung ist, aber ich finde die Stelle nicht. In Google findet man auch kaum etwas. Danke

        Gruß

        1 Antwort Letzte Antwort
        0
        • BananaJoeB Online
          BananaJoeB Online
          BananaJoe
          Most Active
          schrieb am zuletzt editiert von
          #145

          Jetzt muss ich auch noch mal was Banales nachfragen:

          Bei den Datenpunkten ist ja im Moment die Aufzeichnung bei SQL aktiviert.
          Ich nehme an ich muss erst die Aufzeichnung bei InfluxDB aktivieren damit es die Datenpunkte dort gibt und dann die Daten migrieren?

          Oder?

          ioBroker@Ubuntu 24.04 LTS (VMware) für: >260 Geräte, 5 Switche, 7 AP, 9 IP-Cam, 1 NAS 42TB, 1 ESXi 15TB, 4 Proxmox 1TB, 1 Hyper-V 48TB, 14 x Echo, 5x FireTV, 5 x Tablett/Handy VIS || >=160 Tasmota/Shelly || >=95 ZigBee || PV 8.1kW / Akku 14kWh || 2x USV 750W kaskadiert || Creality CR-10 SE 3D-Drucker

          ? 1 Antwort Letzte Antwort
          0
          • BananaJoeB BananaJoe

            Jetzt muss ich auch noch mal was Banales nachfragen:

            Bei den Datenpunkten ist ja im Moment die Aufzeichnung bei SQL aktiviert.
            Ich nehme an ich muss erst die Aufzeichnung bei InfluxDB aktivieren damit es die Datenpunkte dort gibt und dann die Daten migrieren?

            Oder?

            ? Offline
            ? Offline
            Ein ehemaliger Benutzer
            schrieb am zuletzt editiert von
            #146

            @bananajoe sagte in Frage : Migrate MySQL nach Influxdb:

            Jetzt muss ich auch noch mal was Banales nachfragen:

            Bei den Datenpunkten ist ja im Moment die Aufzeichnung bei SQL aktiviert.
            Ich nehme an ich muss erst die Aufzeichnung bei InfluxDB aktivieren damit es die Datenpunkte dort gibt und dann die Daten migrieren?

            Oder?

            Moin,

            ich bin mir mal wieder nicht sicher, ob ich alles korrekt verstehe, aber hilft Dir evtl. diese Lösung weiter?

            Query SQL-DB und SQL Funktion damit solltest Du dir eigentlich das Bucket und layout in InfluxDb automatisch anlegen.

            Alles nicht getestet, da ich gerade keine Postgresql oder mariadb zur Hand habe.

            VG
            Bernd

            1 Antwort Letzte Antwort
            0
            • BananaJoeB Online
              BananaJoeB Online
              BananaJoe
              Most Active
              schrieb am zuletzt editiert von
              #147

              Ich meinte das:
              df105aca-eb46-44e7-bb15-238c21efdc4f-image.png

              ioBroker@Ubuntu 24.04 LTS (VMware) für: >260 Geräte, 5 Switche, 7 AP, 9 IP-Cam, 1 NAS 42TB, 1 ESXi 15TB, 4 Proxmox 1TB, 1 Hyper-V 48TB, 14 x Echo, 5x FireTV, 5 x Tablett/Handy VIS || >=160 Tasmota/Shelly || >=95 ZigBee || PV 8.1kW / Akku 14kWh || 2x USV 750W kaskadiert || Creality CR-10 SE 3D-Drucker

              ? T 2 Antworten Letzte Antwort
              0
              • BananaJoeB BananaJoe

                Ich meinte das:
                df105aca-eb46-44e7-bb15-238c21efdc4f-image.png

                ? Offline
                ? Offline
                Ein ehemaliger Benutzer
                schrieb am zuletzt editiert von
                #148

                @bananajoe

                ok, habe schon wieder zu kompliziert gedacht.

                VG
                Bernd

                1 Antwort Letzte Antwort
                0
                • BananaJoeB BananaJoe

                  Ich meinte das:
                  df105aca-eb46-44e7-bb15-238c21efdc4f-image.png

                  T Offline
                  T Offline
                  thomassch
                  schrieb am zuletzt editiert von
                  #149

                  Hallo Zusammen,

                  erst mal vielen Dank an @JackGruber für das Script, es hat mir viel Arbeit erspart.
                  Da ich eine Microsoft SQL Datenbank haben, musste ich das Script etwas umschreiben (sorry @JackGruber ).

                  Falls jemand diese Änderung benötigt, hier ist sie:

                  1. Ihr benötigt Python, ich habe diese Version installiert
                    https://www.python.org/downloads/release/python-3125/

                  2. Die Jason Datei wie folgt ergänzen. Ich habe Sie als migrateMSQL.py umbenannt:
                    Bitte MSQL Login Daten entsprechend anpassen <xxxxx> und auch für die Influx Datenbank die Zugangsdaten anpassen. Hier ist es wichtig das Token zu verwenden das man
                    bei INfluxDB V2 anlegen muss.
                    Bei mir ist InfluxDB ein extra Container im Proxmox und daher musste ich hier auch noch die IP Adresse angeben.

                  {
                    "MSQL": {
                      "server": "localhost",
                      "user": "iobroker",
                      "password": "xxxxxxxx",
                      "database": "iobroker"
                    },
                    "MySQL": {
                      "host": "localhost",
                      "port": 3306,
                      "database": "iobroker",
                      "user": "iobroker",
                      "password": "iobroker"
                    },
                    "InfluxDB": {
                      "host": "192.168.2.xxx",
                      "ssl": false,
                      "port": 8086,
                      "database": "iobroker",
                      "retention_policy": "autogen",
                      "user": "admin",
                      "password": "7TBAUCsxxxxxY2Sde9QAiAYTDo0WzwerJ8BqfOvxxxx19a8jwYzociuB_4RFVGIDAkN7MA==",
                      "store_ack_boolean": true
                    }
                  }
                  
                  1. Bitte dann die PYMSSQL Bibliothek installieren, diese wird für den Zugriff auf MSQL benötigt.
                    Ich habe das in der Commandozeile unter einem Windows Betriebsystem gemacht, in dieser Reihenfolge:
                  pip install -r requirements.txt
                  pip install pymssql
                  
                  1. Achtet darauf, dass Ihr im IOBroker die InfluxDB Schnittstelle zusätzlich zu euren SQL Interface installiert und ich musste leider für alle Datenpunkte die InfluxDB Protokollierung einzeln aktivieren und ein
                    stellen. Da die InfluxDB Schnittstelle keine individuelle Löschung pro Datenpunkte erlaubt, habe ich 2 InfluxDB Instanzen installiert mit unterschiedlichen Löschzeiten (eigentlich eine für unbegrenzt und eine für 1 Jahr).
                    Hier werde ich noch schauen was InfluxDB kann, soweit ich weiß sollte man das in Influx direkt programmieren und damit entsprechende Daten verdichten bzw. löschen.

                  2. Und nun das Phyton Script ausführen, hier gibt es ein paar Anpassungen wegen MSQL z.B. "import pymssql", wie Ihr unten im geänderten SourceCode seht.
                    Ich habe bewusst darauf verzichtet meine Änderungen "schön zu machen", da ich es nur einmalig brauche, aber wichtig für mich war, es funktioniert.
                    Die Ausführung kann sehr sehr lange dauern, daher habt Geduld. Damit Ihr die Scriptausgaben auch seht, nicht einfach auf migrateMSQL.py klicken, sonst geht das Command Fenster sofort wieder zu.
                    Öffnet am Besten ein CMD, wechselt in der Verzeichnis wo Ihr requirements.txt und migrateMSQL.py abgelegt habt und gebt dann folgende Zeile ein.

                  python migrateMSQL.py ALL
                  

                  Und hier nun der Inhalt von migrateMSQL.py:

                  import json
                  import os
                  import sys
                  import time
                  import pymssql
                  
                  try:
                      from influxdb import InfluxDBClient
                      import pymssql
                  except Exception as ex:
                      print(ex)
                      print("Please install all requirements!")
                      sys.exit(1)
                  
                  if not sys.version_info >= (3, 6):
                      print("Python version to old!")
                      print(sys.version)
                      sys.exit(1)
                  
                  # Load DB Settings
                  database_file = os.path.join(os.path.dirname(
                      os.path.realpath(__file__)), "database.json")
                  if not os.path.exists(database_file):
                      print("Please rename database.json.example to database.json")
                      sys.exit(1)
                  
                  f = open(database_file, 'r')
                  db = f.read()
                  f.close()
                  
                  try:
                      db = json.loads(db)
                  except json.decoder.JSONDecodeError as ex:
                      print(database_file + "Json is not valid!")
                      print(ex)
                      sys.exit(1)
                  except Exception as ex:
                      print("Unhandeld Exception")
                      print(ex)
                      sys.exit(1)
                  
                  try:
                      print("SQL CONNECT: server="+db['MSQL']['server'])
                      MSSQL_CONNECTION = pymssql.connect(server=db['MSQL']['server'],
                                                         user=db['MSQL']['user'],
                                                         password=db['MSQL']['password'],
                                                         database=db['MSQL']['database'],
                  					as_dict=True)
                  
                  #    MYSQL_CONNECTION = pymysql.connect(host=db['MySQL']['host'],
                  #                                       port=db['MySQL']['port'],
                  #                                       user=db['MySQL']['user'],
                  #                                       password=db['MySQL']['password'],
                  #                                       db=db['MySQL']['database'])
                  
                  
                  except pymssql.OperationalError as error:
                      print(error)
                      sys.exit(1)
                  except Exception as ex:
                      print("MSSQL connection error")
                      print(ex)
                      sys.exit(1)
                  
                  
                  INFLUXDB_CONNECTION = InfluxDBClient(host=db['InfluxDB']['host'],
                                                       ssl=db['InfluxDB']['ssl'],
                                                       verify_ssl=True,
                                                       port=db['InfluxDB']['port'],
                                                       username=db['InfluxDB']['user'],
                                                       password=db['InfluxDB']['password'],
                                                       database=db['InfluxDB']['database'])
                  
                  # Select datapoints
                  if len(sys.argv) > 1 and sys.argv[1].upper().strip() == "ALL":
                      MIGRATE_DATAPOINT = ""
                      print("Migrate ALL datapoints ...")
                  elif len(sys.argv) == 2:
                      MIGRATE_DATAPOINT = " AND name LIKE '" + sys.argv[1] + "' "
                      print("Migrate '" + sys.argv[1] + "' datapoint(s) ...")
                  else:
                      print("To migrate all datapoints run '" + sys.argv[0] + " ALL'")
                      print("To migrate one datapoints run '" + sys.argv[0] + " <DATAPONTNAME>'")
                      print("To migrate a set of datapoints run '" +
                            sys.argv[0] + ' "hm-rega.0.%"' + "'")
                      sys.exit(1)
                  print("")
                  
                  # dictates how columns will be mapped to key/fields in InfluxDB
                  SCHEMA = {
                      "time_column": "time",  # the column that will be used as the time stamp in influx
                      # columns that will map to fields
                      "columns_to_fields": ["ack", "q", "from", "value"],
                      # "columns_to_tags" : ["",...], # columns that will map to tags
                      # table name that will be mapped to measurement
                      "table_name_to_measurement": "name",
                  }
                  
                  DATATYPES = ["float", "string", "boolean"]
                  
                  #####
                  # Generates an collection of influxdb points from the given SQL records
                  #####
                  def generate_influx_points(datatype, records):
                      influx_points = []
                      for record in records:
                          #tags = {},
                          fields = {}
                          # for tag_label in SCHEMA['columns_to_tags']:
                          #   tags[tag_label] = record[tag_label]
                          for field_label in SCHEMA['columns_to_fields']:
                              if db['InfluxDB']['store_ack_boolean'] == True:
                                  if field_label == "ack":
                                      if (record[field_label] == 1 or record[field_label] == "True" or record[field_label] == True):
                                          record[field_label] = True
                                      else:
                                          record[field_label] = False
                  
                              fields[field_label] = record[field_label]
                              
                              # Daten in richtigen Typ wandeln
                              if field_label == "value":
                                  if datatype == 0: # ts_number
                                      fields["value"] = float(record["value"] or 0)
                                  elif datatype == 1: # ts_string
                                      fields["value"] = str(record["value"])
                                  elif datatype == 2: # ts_bool
                                      fields["value"] = bool(record["value"])
                  
                          influx_points.append({
                              "measurement": record[SCHEMA['table_name_to_measurement']],
                              # "tags": tags,
                              "time": record[SCHEMA['time_column']],
                              "fields": fields
                          })
                  
                      return influx_points
                  
                  
                  def query_metrics(table):
                      MSSQL_CURSOR.execute(
                          "SELECT name, id, type FROM datapoints WHERE id IN(SELECT DISTINCT id FROM " + table + ")" + MIGRATE_DATAPOINT)
                      rows = MSSQL_CURSOR.fetchall()
                      print('Total metrics in ' + table + ": " + str(MSSQL_CURSOR.rowcount))
                      return rows
                  
                  
                  def migrate_datapoints(table):
                      query_max_rows = 100000  # prevent run out of mermory limit on SQL DB
                      process_max_rows = 1000
                  
                      migrated_datapoints = 0
                      metrics = query_metrics(table)
                      metric_nr = 0
                      metric_count = str(len(metrics))
                      processed_rows = 0
                      for metric in metrics:
                          metric_nr += 1
                          print(metric['name'] + "(ID: " + str(metric['id']) + ", type: " + DATATYPES[metric['type']] + ")" +
                                " (" + str(metric_nr) + "/" + str(metric_count) + ")")
                  
                          start_row = 0
                          processed_rows = 0
                          while True:
                              query = """SELECT d.name,
                                  m.ack AS ack,
                                  CAST(m.q AS FLOAT) AS q,
                                  s.name AS [from],
                                  m.val AS value,
                                  CAST(m.ts * 1000000 AS BIGINT) AS time
                                  FROM [dbo].[""" + table + """] AS m
                                  LEFT JOIN [dbo].[datapoints] AS d ON m.id = d.id
                                  LEFT JOIN [dbo].[sources] AS s ON m._from = s.id
                                  WHERE m.q = 0 AND d.id = """ + str(metric['id']) + """
                                  ORDER BY m.ts DESC
                                  OFFSET """ + str(start_row) + """ ROWS 
                                  FETCH NEXT """ + str(query_max_rows) + """ ROWS ONLY; """
                  #### alte query für MySQL
                  #            query = """SELECT d.name,
                  #                                m.ack AS 'ack',
                  #                                (m.q*1.0) AS 'q',
                  #                                s.name AS "from",
                  #                                m.val AS 'value',
                  #                                (m.ts*1000000) AS'time'
                  #                                FROM """ + table + """ AS m
                  #                                LEFT JOIN datapoints AS d ON m.id=d.id
                  #                                LEFT JOIN sources AS s ON m._from=s.id
                  #                                WHERE q=0 AND d.id = """ + str(metric['id']) + """
                  #                                ORDER BY m.ts desc
                  #                                LIMIT """ + str(start_row) + """, """ + str(query_max_rows)
                  #
                              MSSQL_CURSOR.execute(query)
                              if MSSQL_CURSOR.rowcount == 0:
                                  break
                  
                              # process x records at a time
                              while True:
                                  selected_rows = MSSQL_CURSOR.fetchmany(process_max_rows)
                                  if len(selected_rows) == 0:
                                      break
                  
                                  print(f"Processing row {processed_rows + 1:,} to {processed_rows + len(selected_rows):,} from LIMIT {start_row:,} / {start_row + query_max_rows:,} " +
                                        table + " - " + metric['name'] + " (" + str(metric_nr) + "/" + str(metric_count) + ")")
                                  migrated_datapoints += len(selected_rows)
                  
                                  try:
                                      INFLUXDB_CONNECTION.write_points(generate_influx_points(metric['type'], 
                                          selected_rows), retention_policy=db['InfluxDB']['retention_policy'])
                                  except Exception as ex:
                                      print("InfluxDB error")
                                      print(ex)
                                      sys.exit(1)
                  
                                  processed_rows += len(selected_rows)
                  
                              start_row += query_max_rows
                          print("")
                  
                      return migrated_datapoints
                  
                  
                  #MSSQL_CURSOR = MSSQL_CONNECTION.cursor(cursor=pymssql.cursors.DictCursor)
                  MSSQL_CURSOR = MSSQL_CONNECTION.cursor()
                  migrated = 0
                  migrated += migrate_datapoints("ts_number")
                  migrated += migrate_datapoints("ts_bool")
                  migrated += migrate_datapoints("ts_string")
                  print(f"Migrated: {migrated:,}")
                  
                  
                  MSSQL_CONNECTION.close()
                  
                  1. Ausgeführt

                  Final habe ich damit 45,770,061 Datensätzen auf einmal migrieren können und stichprobenartig mal über die Weboberfläche von INfluxDB geprüft ob soweit alles passt, noch ist mir kein Fehler aufgefallen.

                  Ich hoffe diese Anleitung hilft denen weiter die statt mySQL ein MSSQL verwenden.

                  Danke nochmals an @JackGruber für die tolle Arbeit.

                  Gruss
                  Thomas

                  ******* iobroker auf Intel PC, Raspberry PI4 + Homematic CCU *******

                  1 Antwort Letzte Antwort
                  0
                  • M Offline
                    M Offline
                    Micha70
                    schrieb am zuletzt editiert von
                    #150

                    Ich versuche das Script von @JackGruber zu benutzen um meine Daten aus der Homeassistant MariaDB nach Influx zu transferieren. Bekomme aber leider folgenden Fehler:

                    (.venv) pi@raspberrypi:~/migrate2influxdb_JackGruber $ python migrate.py ALL
                    (1698, "Access denied for user 'homeassistant'@'localhost'")
                    (.venv) pi@raspberrypi:~/migrate2influxdb_JackGruber $
                    

                    Der User homeassistant hat aber meiner Meinung nach die richtigen Rechte:
                    769af8cf-8699-4434-a83e-57cdbf924f4e-grafik.png

                    Anbei auch die Konfiguration von database.json:

                    {
                      "MySQL": {
                        "host": "localhost",
                        "port": 3306,
                        "database": "homeassistant",
                        "user": "homeassistant",
                        "password": "XXXXXX"
                      },
                      "InfluxDB": {
                        "host": "localhost",
                        "ssl": false,
                        "port": 8086,
                        "database": "Test_temp",
                        "retention_policy": "autogen",
                        "user": "Micha",
                        "password": "XXXXXX",
                        "store_ack_boolean": true
                      }
                    }
                    

                    Hat jemand eine Idee und kann mir helfen? Vielen Dank schonmal ....

                    BananaJoeB 1 Antwort Letzte Antwort
                    0
                    • M Micha70

                      Ich versuche das Script von @JackGruber zu benutzen um meine Daten aus der Homeassistant MariaDB nach Influx zu transferieren. Bekomme aber leider folgenden Fehler:

                      (.venv) pi@raspberrypi:~/migrate2influxdb_JackGruber $ python migrate.py ALL
                      (1698, "Access denied for user 'homeassistant'@'localhost'")
                      (.venv) pi@raspberrypi:~/migrate2influxdb_JackGruber $
                      

                      Der User homeassistant hat aber meiner Meinung nach die richtigen Rechte:
                      769af8cf-8699-4434-a83e-57cdbf924f4e-grafik.png

                      Anbei auch die Konfiguration von database.json:

                      {
                        "MySQL": {
                          "host": "localhost",
                          "port": 3306,
                          "database": "homeassistant",
                          "user": "homeassistant",
                          "password": "XXXXXX"
                        },
                        "InfluxDB": {
                          "host": "localhost",
                          "ssl": false,
                          "port": 8086,
                          "database": "Test_temp",
                          "retention_policy": "autogen",
                          "user": "Micha",
                          "password": "XXXXXX",
                          "store_ack_boolean": true
                        }
                      }
                      

                      Hat jemand eine Idee und kann mir helfen? Vielen Dank schonmal ....

                      BananaJoeB Online
                      BananaJoeB Online
                      BananaJoe
                      Most Active
                      schrieb am zuletzt editiert von BananaJoe
                      #151

                      @micha70 pffft % könnte sein das das für alle Hosts steht ...

                      was passiert denn wenn du

                      mysql -uhomeassistent -pdeinpasswort homeassistent
                      

                      eingibst? kannst du dich verbinden oder nicht? Wenn nicht passen die rechte eben nicht.

                      Benutzertyp "datenbankspezifisch" macht mich nachdenklich.
                      Was hats du denn im SQL-Adapater von ioBroker eingetragen als Benutzer?

                      ioBroker@Ubuntu 24.04 LTS (VMware) für: >260 Geräte, 5 Switche, 7 AP, 9 IP-Cam, 1 NAS 42TB, 1 ESXi 15TB, 4 Proxmox 1TB, 1 Hyper-V 48TB, 14 x Echo, 5x FireTV, 5 x Tablett/Handy VIS || >=160 Tasmota/Shelly || >=95 ZigBee || PV 8.1kW / Akku 14kWh || 2x USV 750W kaskadiert || Creality CR-10 SE 3D-Drucker

                      1 Antwort Letzte Antwort
                      0
                      Antworten
                      • In einem neuen Thema antworten
                      Anmelden zum Antworten
                      • Älteste zuerst
                      • Neuste zuerst
                      • Meiste Stimmen


                      Support us

                      ioBroker
                      Community Adapters
                      Donate
                      FAQ Cloud / IOT
                      HowTo: Node.js-Update
                      HowTo: Backup/Restore
                      Downloads
                      BLOG

                      785

                      Online

                      32.4k

                      Benutzer

                      81.4k

                      Themen

                      1.3m

                      Beiträge
                      Community
                      Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                      ioBroker Community 2014-2025
                      logo
                      • Anmelden

                      • Du hast noch kein Konto? Registrieren

                      • Anmelden oder registrieren, um zu suchen
                      • Erster Beitrag
                        Letzter Beitrag
                      0
                      • Home
                      • Aktuell
                      • Tags
                      • Ungelesen 0
                      • Kategorien
                      • Unreplied
                      • Beliebt
                      • GitHub
                      • Docu
                      • Hilfe