Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Tester
  4. Test Adapter AI Toolbox v0.1.3 GitHub/Latest

NEWS

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    22
    1
    1.1k

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    9.1k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    14
    1
    2.4k

Test Adapter AI Toolbox v0.1.3 GitHub/Latest

Geplant Angeheftet Gesperrt Verschoben Tester
39 Beiträge 10 Kommentatoren 5.9k Aufrufe 19 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • T Offline
    T Offline
    ToGe88
    Developer
    schrieb am zuletzt editiert von
    #8

    Danke für das Feedback!

    Ich habe gerade nochmal ein neues Release auf GitHub gepusht. Der Fehler mit OpenAI ist nun behoben und Requests sollten sauber laufen.

    Neues Feature:

    • Vision / Image Fähigkeiten: Es ist nun möglich Tools zu erstellen welche Bilder analysieren können @David-G

    @oxident Ja da ist durchaus Optimierungspotential bei der Usability :sweat_smile: Ich hatte die Idee mit dem Auslesen verworfen weil die APIs teilweise auch Modelle zurück liefern welche nicht für den Adapter geeignet sind. (z.B. Audio-Modelle etc.)

    Bei der Beispielfrage / Antwort gab es einen Bug in der ersten Version. Diese werden nun an den Anfang der Nachrichten gesetzt und immer mit übergeben um das Modell in die gewünschte Ausgabeform zu lenken falls der System Prompt nicht ausreicht.

    O 1 Antwort Letzte Antwort
    1
    • T ToGe88

      Danke für das Feedback!

      Ich habe gerade nochmal ein neues Release auf GitHub gepusht. Der Fehler mit OpenAI ist nun behoben und Requests sollten sauber laufen.

      Neues Feature:

      • Vision / Image Fähigkeiten: Es ist nun möglich Tools zu erstellen welche Bilder analysieren können @David-G

      @oxident Ja da ist durchaus Optimierungspotential bei der Usability :sweat_smile: Ich hatte die Idee mit dem Auslesen verworfen weil die APIs teilweise auch Modelle zurück liefern welche nicht für den Adapter geeignet sind. (z.B. Audio-Modelle etc.)

      Bei der Beispielfrage / Antwort gab es einen Bug in der ersten Version. Diese werden nun an den Anfang der Nachrichten gesetzt und immer mit übergeben um das Modell in die gewünschte Ausgabeform zu lenken falls der System Prompt nicht ausreicht.

      O Online
      O Online
      oxident
      schrieb am zuletzt editiert von
      #9

      @toge88 Super, danke, dass Du dranbleibst!
      Verstehe Dein Argument mit den Modellen auch sehr gut...

      Ich frage mich, ob der Adapter mittelfristig nicht sogar optional die Datenpunkte anderer Adapter mit übergeben könnte. Wäre doch toll, wenn die KI die "irgendwie" verstehen könnte.

      Beim HomeAssistant geht man doch, glaube ich, derzeit auch diesen Weg.

      1 Antwort Letzte Antwort
      -1
      • T Offline
        T Offline
        ToGe88
        Developer
        schrieb am zuletzt editiert von
        #10

        In Version 0.0.7 gibt es nun auch die Möglichkeit lokale Pfade zu Bildern anzugeben (siehe Readme auf Github). Dies ermöglicht es z.B. direkt Bildanfragen vom Telegram Adapter von KI Tools verarbeiten bzw analysieren zu lassen.

        @oxident Ich habe da noch einen zweiten Adapter in Entwicklung welcher eher in die Richtung geht als vollumfänglicher Assistent in ioBroker zu funktionieren. Den werde ich die Tage auch mal auf Github stellen zum testen. :grin:

        David G.D O 2 Antworten Letzte Antwort
        2
        • T ToGe88

          In Version 0.0.7 gibt es nun auch die Möglichkeit lokale Pfade zu Bildern anzugeben (siehe Readme auf Github). Dies ermöglicht es z.B. direkt Bildanfragen vom Telegram Adapter von KI Tools verarbeiten bzw analysieren zu lassen.

          @oxident Ich habe da noch einen zweiten Adapter in Entwicklung welcher eher in die Richtung geht als vollumfänglicher Assistent in ioBroker zu funktionieren. Den werde ich die Tage auch mal auf Github stellen zum testen. :grin:

          David G.D Online
          David G.D Online
          David G.
          schrieb am zuletzt editiert von
          #11

          @toge88 sagte in Test Adapter AI Toolbox v0.0.7 GitHub/Latest:

          In Version 0.0.7 gibt es nun auch die Möglichkeit lokale Pfade zu Bildern anzugeben (siehe Readme auf Github). Dies ermöglicht es z.B. direkt Bildanfragen vom Telegram Adapter von KI Tools verarbeiten bzw analysieren zu lassen.

          Klappt auch wunderbar um snapshots von der Überwachungskamera auszuwerten. Liegt ein Paket vor der Tür, steht ein Auto in der Einfahrt etc. Man kann den Bot ja so definieren, dass er bei Bedarf ein true oder false ausgibt.

          Zeigt eure Lovelace-Visualisierung klick
          (Auch ideal um sich Anregungen zu holen)

          Meine Tabellen für eure Visualisierung klick

          1 Antwort Letzte Antwort
          0
          • T ToGe88

            In Version 0.0.7 gibt es nun auch die Möglichkeit lokale Pfade zu Bildern anzugeben (siehe Readme auf Github). Dies ermöglicht es z.B. direkt Bildanfragen vom Telegram Adapter von KI Tools verarbeiten bzw analysieren zu lassen.

            @oxident Ich habe da noch einen zweiten Adapter in Entwicklung welcher eher in die Richtung geht als vollumfänglicher Assistent in ioBroker zu funktionieren. Den werde ich die Tage auch mal auf Github stellen zum testen. :grin:

            O Online
            O Online
            oxident
            schrieb am zuletzt editiert von
            #12

            @toge88 Sehr genial. Dann startet das neue Jahr definitiv spannend!

            1 Antwort Letzte Antwort
            0
            • T ToGe88
              Aktuelle Test Version 0.1.3
              Veröffentlichungsdatum 27.12.2024
              Github Link https://github.com/ToGe3688/ioBroker.ai-toolbox

              Hallo zusammen,

              ich möchte euch den neuen ioBroker AI Toolbox Adapter vorstellen, den ich kürzlich entwickelt habe. Der Adapter bringt KI-Modelle in eure ioBroker Smart-Home-Umgebung.

              Was macht der Adapter?

              Der AI Toolbox Adapter ermöglicht die Integration von KI-Modellen (Large Language Models, LLMs) in ioBroker. Damit könnt ihr maßgeschneiderte Tools erstellen, die spezifische Aufgaben automatisieren oder auch als intelligente Chatbots dienen. Die wichtigsten Features sind:

              • Unterstützung für verschiedene KI-Anbieter, darunter OpenAI, Anthropic, OpenRouter, Perplexity und lokale / selbst gehostete Modelle wie LocalAI oder LM Studio.
              • Erstellung individueller Tools mit flexiblen Einstellungen wie System-Prompts, Beispielnachrichten, Nachrichtenverläufen und Kreativitätsparametern.
              • Direkte Kommunikation mit euren Tools und den Modellen über Datenpunkte oder via sendTo über Scripte im Javascript Adapter
              • Token- und Nutzungsstatistiken zur Optimierung und Kostenkontrolle.
              • Vision / Image Fähigkeiten für Tools. Bilder analysieren und nach eigener Vorgabe auswerten lassen.

              Beispiele für die Anwendung

              • Chatbots: Eigene Assistenten die sich wie ein Chatbot verhalten und zur Kommunikation genutzt werden können.
              • Wetter-Bot: Personalisierte Wetterberichte basierend auf euren Sensordaten die ihr via ioBroker zur Verfügung stellt.
              • Musik-Assistent: Musikempfehlungen passend zur Stimmung oder zum Wetter für Smartspeaker z.B. Alexa
              • Lichtsteuerung: Automatische RGB-Beleuchtungsvorschläge je nach Musikrichtung. Hier können JSON Daten zur weiteren Verwendung in Scripten erzeugt werden.
              • Individuelle Begrüßungen: Erzeuge individuelle Begrüßungen basierend auf den zur Verfügung gestellten Daten. Die Begrüßungen können gekoppelt mit der Anwesenheit z.B. über Alexa ausgegeben werden.
              • Bild Analyse: Bildmaterial nach eigenen Vorgaben auswerten lassen

              Wie funktioniert’s?

              Nach der Installation könnt ihr eure Tools direkt im Admin Interface anlegen und konfigurieren. Mit einem Klick stehen Datenpunkte für Anfragen (text_request) und Antworten (text_response) bereit. Beachtet dabei eure Tools so präzise wie möglich zu formulieren um gute Ergebnisse zu erhalten. Die Beispielanfragen und -antworten helfen hierbei das Model zu formen um konsistente Ausgaben zu erhalten. Auch die Integration in Skripte ist möglich, z. B.:

              Mit Tools interagieren

              sendTo('ai-toolbox.0', 'tool_request', {
                tool: 'simple-chatbot',
                text: 'Hallo, wie geht’s?',
              }, (result) => {
                console.log(result); // Antwort vom Tool als Textstring
              });
              

              Direkt mit Modellen interagieren

              sendTo('ai-toolbox.0', 'model_request', {
                  'model': 'MODEL-NAME',
                  'system_prompt': 'System prompt for your request'
                  'temperature': 'Temperature setting for your request'
                  'max_tokens': 'Max number of tokens to generate'
                  'text': 'The message for the tool to respond to',
              }, async (result) => {
                  console.info(result.text); // Text response of the model
                  console.info(result.model); // Used model for request
                  console.info(result.tokens_input); // Used input tokens
                  console.info(result.tokens_output); // Used output tokens
                  console.info(result.error); // Error, populated if request fails
                  console.info(result.request_data); // JSON object with request data
                  console.info(result.response_data); // JSON object with raw response of the API call
              });
              

              Feedback gesucht!

              Ich freue mich über euer Feedback, sei es zu den Funktionen, der Benutzerfreundlichkeit oder Ideen für neue Anwendungsfälle. Auch Bug-Reports und Verbesserungsvorschläge sind willkommen! Da es mein erster Adapter für ioBroker ist bitte ich um Nachsicht falls ich Dinge nicht korrekt umgesetzt habe. :astonished:

              Den Adapter findet ihr auf Github unter https://github.com/ToGe3688/ioBroker.ai-toolbox

              Eine detaillierte Anleitung und ein Quick-Start Guide ist im Readme enthalten.

              Danke schon jetzt für eure Rückmeldungen! 🙏

              Viele Grüße!

              David G.D Online
              David G.D Online
              David G.
              schrieb am zuletzt editiert von
              #13

              @toge88

              Ich habe mal eine kleine Offtopic Frage.
              Evtl hast du da ja schon mal was zu gelesen.

              Weißt du, warum die Ergebnisse der Api zur Bildanalyse VIEL schlechter sind als über die Website bzw App direkt? Mit den Tokens die man einstellt hat es nichts zu tun.
              Ich habe gelesen, dass bei der Api die Auflösung vom Bild angepasst wird vor der Analyse. Aber das macht der "normale" weg ja vermutlich auch....

              Zeigt eure Lovelace-Visualisierung klick
              (Auch ideal um sich Anregungen zu holen)

              Meine Tabellen für eure Visualisierung klick

              T 1 Antwort Letzte Antwort
              0
              • David G.D David G.

                @toge88

                Ich habe mal eine kleine Offtopic Frage.
                Evtl hast du da ja schon mal was zu gelesen.

                Weißt du, warum die Ergebnisse der Api zur Bildanalyse VIEL schlechter sind als über die Website bzw App direkt? Mit den Tokens die man einstellt hat es nichts zu tun.
                Ich habe gelesen, dass bei der Api die Auflösung vom Bild angepasst wird vor der Analyse. Aber das macht der "normale" weg ja vermutlich auch....

                T Offline
                T Offline
                ToGe88
                Developer
                schrieb am zuletzt editiert von
                #14

                @david-g Ich habe noch nicht wirklich viel mit der Bilderkennung ausprobiert daher fehlen mir da ein wenig die Vergleichswerte. Ist das Verhalten denn bei allen Modellen gleich?

                Der Adapter wandelt das Bild lediglich in einen Base64 String um und übergibt es an die jeweiligen Anbieter Schnittstelle, wenn es da eine Reduzierung der Auflösung gibt müsste das auf Anbieterseite passieren.

                Ein Ansatz wäre vielleicht dem Modell einen gewissen "Freiraum" zum denken zu geben bei seiner Antwort. Damit konnte ich für Textausgaben zumindest die Qualität deutlich steigern. Ich löse dass so das ich das Werkzeug im Adapter Json ausgeben lasse und als erstes Attribut "reasoning" festlege. In diesen soll das Modell dann seinen Prozess schreiben wie es zu seinem Ergebnis gekommen ist. Bei der weiteren Verarbeitung verwerfe ich diesen Inhalt dann einfach und nutze nur die für mich relevanten Daten weiter.

                Könnte sein dass es bei der Bildverarbeitung auch klappt.

                David G.D 1 Antwort Letzte Antwort
                0
                • T ToGe88

                  @david-g Ich habe noch nicht wirklich viel mit der Bilderkennung ausprobiert daher fehlen mir da ein wenig die Vergleichswerte. Ist das Verhalten denn bei allen Modellen gleich?

                  Der Adapter wandelt das Bild lediglich in einen Base64 String um und übergibt es an die jeweiligen Anbieter Schnittstelle, wenn es da eine Reduzierung der Auflösung gibt müsste das auf Anbieterseite passieren.

                  Ein Ansatz wäre vielleicht dem Modell einen gewissen "Freiraum" zum denken zu geben bei seiner Antwort. Damit konnte ich für Textausgaben zumindest die Qualität deutlich steigern. Ich löse dass so das ich das Werkzeug im Adapter Json ausgeben lasse und als erstes Attribut "reasoning" festlege. In diesen soll das Modell dann seinen Prozess schreiben wie es zu seinem Ergebnis gekommen ist. Bei der weiteren Verarbeitung verwerfe ich diesen Inhalt dann einfach und nutze nur die für mich relevanten Daten weiter.

                  Könnte sein dass es bei der Bildverarbeitung auch klappt.

                  David G.D Online
                  David G.D Online
                  David G.
                  schrieb am zuletzt editiert von
                  #15

                  @toge88
                  Habe hier glaube was gefunden.
                  https://www.ai-for-devs.com/blog/gpt-vision-learn-how-to-use-gpt-4-to-understand-images

                  Unter "Improving Image Fidelity: Low and High Resolution Image Understanding" steht ein wenig.

                  Das Modell entscheidet scheinbar selber, wenn man keine Qualität der Verarbeitung angibt.
                  Vermutlich ist er bei der Api was konservativer.

                  Wenn ich in meine frage mit schreibe, dass das Bild in einer hohen Qualität verarbeiten soll ist das Ergebnis schon besser.
                  ML sehen, ob man das in den Einstellungen vom bot mitgegeben bekommt.

                  Zeigt eure Lovelace-Visualisierung klick
                  (Auch ideal um sich Anregungen zu holen)

                  Meine Tabellen für eure Visualisierung klick

                  T 1 Antwort Letzte Antwort
                  0
                  • M Online
                    M Online
                    mick70
                    schrieb am zuletzt editiert von
                    #16

                    Habe gerade mal einen Test versucht mit Perplexity/LLama huge und dem simple-chatbot Tool. Die Eingabe der Anfrage über ai-toolbox.0.Tools.simple-chatbot.text_request funktioniert zwar, aber über ai-toolbox.0.Tools.simple-chatbot.text_response kommt nichts zurück. Im Datenpunkt ai-toolbox.0.Tools.simple-chatbot.response.raw steht dennoch eine passende JSON Antwort und auch im Debug Log ist die Antwort enthalten. Die Anfrage über request/response beim Datenmodell selbst funktioniert dagegen anscheinend wie beabsichtigt.

                    Mache ich da noch etwas falsch oder sollte man hier die raw Response einfach selbst zerlegen?

                    T 1 Antwort Letzte Antwort
                    0
                    • M mick70

                      Habe gerade mal einen Test versucht mit Perplexity/LLama huge und dem simple-chatbot Tool. Die Eingabe der Anfrage über ai-toolbox.0.Tools.simple-chatbot.text_request funktioniert zwar, aber über ai-toolbox.0.Tools.simple-chatbot.text_response kommt nichts zurück. Im Datenpunkt ai-toolbox.0.Tools.simple-chatbot.response.raw steht dennoch eine passende JSON Antwort und auch im Debug Log ist die Antwort enthalten. Die Anfrage über request/response beim Datenmodell selbst funktioniert dagegen anscheinend wie beabsichtigt.

                      Mache ich da noch etwas falsch oder sollte man hier die raw Response einfach selbst zerlegen?

                      T Offline
                      T Offline
                      ToGe88
                      Developer
                      schrieb am zuletzt editiert von ToGe88
                      #17

                      @mick70 Das könnte ein Bug sein, da ich selber keinen Perplexity API Zugang habe wäre es super wenn du mal das Debug Log einer Anfrage schicken könntest!

                      Edit: Der Inhalt von raw response wäre auch hilfreich

                      1 Antwort Letzte Antwort
                      1
                      • David G.D David G.

                        @toge88
                        Habe hier glaube was gefunden.
                        https://www.ai-for-devs.com/blog/gpt-vision-learn-how-to-use-gpt-4-to-understand-images

                        Unter "Improving Image Fidelity: Low and High Resolution Image Understanding" steht ein wenig.

                        Das Modell entscheidet scheinbar selber, wenn man keine Qualität der Verarbeitung angibt.
                        Vermutlich ist er bei der Api was konservativer.

                        Wenn ich in meine frage mit schreibe, dass das Bild in einer hohen Qualität verarbeiten soll ist das Ergebnis schon besser.
                        ML sehen, ob man das in den Einstellungen vom bot mitgegeben bekommt.

                        T Offline
                        T Offline
                        ToGe88
                        Developer
                        schrieb am zuletzt editiert von
                        #18

                        @david-g Das klingt tatsächlich so als ob man das am besten über den Prompt bzw die Anfrage lösen sollte. Es gibt ja laut deinem Link den Parameter in der API um die höhere Qualität zu erzwingen, ich glaube es wäre aber nicht zielführend das für jede Anfrage an OpenAI zu setzen. Kannst du das Verhalten über den Prompt denn konsistent steuern?

                        1 Antwort Letzte Antwort
                        0
                        • liv-in-skyL Offline
                          liv-in-skyL Offline
                          liv-in-sky
                          schrieb am zuletzt editiert von
                          #19

                          ein wahrlich interessantes projekt - leider fehlt mir die weitsicht, wenn es um anwendungen geht - daher die hoffnung, ihr werdet projekte oder tests in einem evlt. eignenen thread vorstellen :-)

                          nach einem gelösten Thread wäre es sinnvoll dies in der Überschrift des ersten Posts einzutragen [gelöst]-... Bitte benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat. Forum-Tools: PicPick https://picpick.app/en/download/ und ScreenToGif https://www.screentogif.com/downloads.html

                          1 Antwort Letzte Antwort
                          1
                          • T ToGe88
                            Aktuelle Test Version 0.1.3
                            Veröffentlichungsdatum 27.12.2024
                            Github Link https://github.com/ToGe3688/ioBroker.ai-toolbox

                            Hallo zusammen,

                            ich möchte euch den neuen ioBroker AI Toolbox Adapter vorstellen, den ich kürzlich entwickelt habe. Der Adapter bringt KI-Modelle in eure ioBroker Smart-Home-Umgebung.

                            Was macht der Adapter?

                            Der AI Toolbox Adapter ermöglicht die Integration von KI-Modellen (Large Language Models, LLMs) in ioBroker. Damit könnt ihr maßgeschneiderte Tools erstellen, die spezifische Aufgaben automatisieren oder auch als intelligente Chatbots dienen. Die wichtigsten Features sind:

                            • Unterstützung für verschiedene KI-Anbieter, darunter OpenAI, Anthropic, OpenRouter, Perplexity und lokale / selbst gehostete Modelle wie LocalAI oder LM Studio.
                            • Erstellung individueller Tools mit flexiblen Einstellungen wie System-Prompts, Beispielnachrichten, Nachrichtenverläufen und Kreativitätsparametern.
                            • Direkte Kommunikation mit euren Tools und den Modellen über Datenpunkte oder via sendTo über Scripte im Javascript Adapter
                            • Token- und Nutzungsstatistiken zur Optimierung und Kostenkontrolle.
                            • Vision / Image Fähigkeiten für Tools. Bilder analysieren und nach eigener Vorgabe auswerten lassen.

                            Beispiele für die Anwendung

                            • Chatbots: Eigene Assistenten die sich wie ein Chatbot verhalten und zur Kommunikation genutzt werden können.
                            • Wetter-Bot: Personalisierte Wetterberichte basierend auf euren Sensordaten die ihr via ioBroker zur Verfügung stellt.
                            • Musik-Assistent: Musikempfehlungen passend zur Stimmung oder zum Wetter für Smartspeaker z.B. Alexa
                            • Lichtsteuerung: Automatische RGB-Beleuchtungsvorschläge je nach Musikrichtung. Hier können JSON Daten zur weiteren Verwendung in Scripten erzeugt werden.
                            • Individuelle Begrüßungen: Erzeuge individuelle Begrüßungen basierend auf den zur Verfügung gestellten Daten. Die Begrüßungen können gekoppelt mit der Anwesenheit z.B. über Alexa ausgegeben werden.
                            • Bild Analyse: Bildmaterial nach eigenen Vorgaben auswerten lassen

                            Wie funktioniert’s?

                            Nach der Installation könnt ihr eure Tools direkt im Admin Interface anlegen und konfigurieren. Mit einem Klick stehen Datenpunkte für Anfragen (text_request) und Antworten (text_response) bereit. Beachtet dabei eure Tools so präzise wie möglich zu formulieren um gute Ergebnisse zu erhalten. Die Beispielanfragen und -antworten helfen hierbei das Model zu formen um konsistente Ausgaben zu erhalten. Auch die Integration in Skripte ist möglich, z. B.:

                            Mit Tools interagieren

                            sendTo('ai-toolbox.0', 'tool_request', {
                              tool: 'simple-chatbot',
                              text: 'Hallo, wie geht’s?',
                            }, (result) => {
                              console.log(result); // Antwort vom Tool als Textstring
                            });
                            

                            Direkt mit Modellen interagieren

                            sendTo('ai-toolbox.0', 'model_request', {
                                'model': 'MODEL-NAME',
                                'system_prompt': 'System prompt for your request'
                                'temperature': 'Temperature setting for your request'
                                'max_tokens': 'Max number of tokens to generate'
                                'text': 'The message for the tool to respond to',
                            }, async (result) => {
                                console.info(result.text); // Text response of the model
                                console.info(result.model); // Used model for request
                                console.info(result.tokens_input); // Used input tokens
                                console.info(result.tokens_output); // Used output tokens
                                console.info(result.error); // Error, populated if request fails
                                console.info(result.request_data); // JSON object with request data
                                console.info(result.response_data); // JSON object with raw response of the API call
                            });
                            

                            Feedback gesucht!

                            Ich freue mich über euer Feedback, sei es zu den Funktionen, der Benutzerfreundlichkeit oder Ideen für neue Anwendungsfälle. Auch Bug-Reports und Verbesserungsvorschläge sind willkommen! Da es mein erster Adapter für ioBroker ist bitte ich um Nachsicht falls ich Dinge nicht korrekt umgesetzt habe. :astonished:

                            Den Adapter findet ihr auf Github unter https://github.com/ToGe3688/ioBroker.ai-toolbox

                            Eine detaillierte Anleitung und ein Quick-Start Guide ist im Readme enthalten.

                            Danke schon jetzt für eure Rückmeldungen! 🙏

                            Viele Grüße!

                            H Offline
                            H Offline
                            halsi82
                            schrieb am zuletzt editiert von
                            #20

                            @toge88 Super Projekt. Herzlichen Dank. Nutze es für eine Wettervorhersage für den Tag 2x pro Tag via Pushover bekommen wir jetzt eine Wettervorhersage auf das Smartphone.

                            Funktioniert top. Bin schon am überlegen welche anderen Daten und Möglichkeiten ich nutzen werde. Sobald ich noch neue Use Cases am Laufen habe, melde ich mich.

                            Weiter so - echt genial :-)

                            T O 2 Antworten Letzte Antwort
                            0
                            • H halsi82

                              @toge88 Super Projekt. Herzlichen Dank. Nutze es für eine Wettervorhersage für den Tag 2x pro Tag via Pushover bekommen wir jetzt eine Wettervorhersage auf das Smartphone.

                              Funktioniert top. Bin schon am überlegen welche anderen Daten und Möglichkeiten ich nutzen werde. Sobald ich noch neue Use Cases am Laufen habe, melde ich mich.

                              Weiter so - echt genial :-)

                              T Offline
                              T Offline
                              ToGe88
                              Developer
                              schrieb am zuletzt editiert von
                              #21

                              @halsi82 Danke für das Feedback! Bin gespannt welche Anwendungsfälle den Benutzern hier noch so einfallen :grinning:

                              Der Adapter hat heute nochmal ein Update bekommen und sollte dann bald im Beta Repo veröffentlicht werden. Neben kleinen Korrekturen und Verbesserungen wurde Deepseek als API Anbieter mit aufgenommen.

                              ? 1 Antwort Letzte Antwort
                              1
                              • T ToGe88

                                @halsi82 Danke für das Feedback! Bin gespannt welche Anwendungsfälle den Benutzern hier noch so einfallen :grinning:

                                Der Adapter hat heute nochmal ein Update bekommen und sollte dann bald im Beta Repo veröffentlicht werden. Neben kleinen Korrekturen und Verbesserungen wurde Deepseek als API Anbieter mit aufgenommen.

                                ? Offline
                                ? Offline
                                Ein ehemaliger Benutzer
                                schrieb am zuletzt editiert von
                                #22

                                @toge88 super, ich wollte gerade fragen, ob deepseek machbar ist.. leider busy.. wegen apikey..

                                1 Antwort Letzte Antwort
                                0
                                • H halsi82

                                  @toge88 Super Projekt. Herzlichen Dank. Nutze es für eine Wettervorhersage für den Tag 2x pro Tag via Pushover bekommen wir jetzt eine Wettervorhersage auf das Smartphone.

                                  Funktioniert top. Bin schon am überlegen welche anderen Daten und Möglichkeiten ich nutzen werde. Sobald ich noch neue Use Cases am Laufen habe, melde ich mich.

                                  Weiter so - echt genial :-)

                                  O Online
                                  O Online
                                  oxident
                                  schrieb am zuletzt editiert von
                                  #23

                                  @halsi82 Kannst Du grob umreißen, wie Du das umgesetzt hast?

                                  haselchenH H 2 Antworten Letzte Antwort
                                  0
                                  • O oxident

                                    @halsi82 Kannst Du grob umreißen, wie Du das umgesetzt hast?

                                    haselchenH Offline
                                    haselchenH Offline
                                    haselchen
                                    Most Active
                                    schrieb am zuletzt editiert von haselchen
                                    #24

                                    Kann ich mich nur @liv-in-sky anschliessen.
                                    Ich denke, hier ist, für den Laien, zuviel Text und zu wenig Beispiel(bilder).
                                    Aus Neugier habe ich es mal installiert und selbst nach dem 100. Durchlesen hab ich kein Plan , was ich damit machen kann , soll oder wie es funktioniert.
                                    Ich zähle mich noch zu der 40+ Generation, also eigentlich noch sehr aufnahmefähig :) , aber hier bin ich tatsächlich ratlos.

                                    Eventuell gibt es demnächst nen Thread mit ein paar Beispielen , mit Screenshots und leichterer Erklärkost :)

                                    Edit:
                                    @ToGe88
                                    Damit will ich in keinster Weise Deine Anleitung am Anfang schmälern!
                                    Ich kriege es halt nicht in meine Birne :grimacing:

                                    Synology DS218+ & 2 x Fujitsu Esprimo (VM/Container) + FritzBox7590 + 2 AVM 3000 Repeater & Homematic & HUE & Osram & Xiaomi, NPM 10.9.4, Nodejs 22.21.0 ,JS Controller 7.0.7 ,Admin 7.7.19

                                    David G.D T 2 Antworten Letzte Antwort
                                    1
                                    • haselchenH haselchen

                                      Kann ich mich nur @liv-in-sky anschliessen.
                                      Ich denke, hier ist, für den Laien, zuviel Text und zu wenig Beispiel(bilder).
                                      Aus Neugier habe ich es mal installiert und selbst nach dem 100. Durchlesen hab ich kein Plan , was ich damit machen kann , soll oder wie es funktioniert.
                                      Ich zähle mich noch zu der 40+ Generation, also eigentlich noch sehr aufnahmefähig :) , aber hier bin ich tatsächlich ratlos.

                                      Eventuell gibt es demnächst nen Thread mit ein paar Beispielen , mit Screenshots und leichterer Erklärkost :)

                                      Edit:
                                      @ToGe88
                                      Damit will ich in keinster Weise Deine Anleitung am Anfang schmälern!
                                      Ich kriege es halt nicht in meine Birne :grimacing:

                                      David G.D Online
                                      David G.D Online
                                      David G.
                                      schrieb am zuletzt editiert von
                                      #25

                                      @haselchen

                                      Ich fand die Anleitung sehr gut, und wusste direkt was los war. Zumindest wenn man den Adapter dann einmal auf hatte.

                                      Im Endeffekt holt der Adapter "nur" Zb ChatGPT in den iobroker, wo du über einen Bot für verschiedene Fälle sein verhalten bestimmen kannst wie er reagiert.

                                      Für mich ist der Adapter eine schlauere Alexa mir mehr Einstellungen.

                                      Nutze Ihn aber auch noch nicht wirklich produktiv, das kommt wenn die Ausenkamera aufgehangen wird.

                                      Zeigt eure Lovelace-Visualisierung klick
                                      (Auch ideal um sich Anregungen zu holen)

                                      Meine Tabellen für eure Visualisierung klick

                                      1 Antwort Letzte Antwort
                                      0
                                      • O oxident

                                        @halsi82 Kannst Du grob umreißen, wie Du das umgesetzt hast?

                                        H Offline
                                        H Offline
                                        halsi82
                                        schrieb am zuletzt editiert von
                                        #26

                                        Generell kann ich euch allen nur empfehlen, legt euch bei openai oder openrouter oder bei anderen KI Instanzen einen TestAccount/API Account an. Openrouter ist kostenlos bei vielen KI Modellen. Allerdings habe ich meine besten Ergebnise mit GTP-4 bei OpenAI bekommen, ist allerdings kostenpflichtig und wird pro Anfrage abgerechnet.

                                        Wenn ihr dort mal einen Account habt, dann macht den Chat auf.
                                        Schickt die Beschreibung zum Chat - die Beispielanfrage und die Beispielantwort.
                                        Und dann spielt euch mit dem Chatbot herum. Das hilft im Normalfall die KI besser zu verstehen und zu bedienen.

                                        Jedes Werkzeug das man im Adapter anlegt hat ein Text_request und ein Text_response als Objekt. Ähnlich wie ein KI Chat. Thats it.

                                        Ich habe mittlerweile ein Werkzeug angelegt um meine Heizkurve zu steuern. Das bedeutet - je nach Wettervorhersage und Daten der Bewölkung (bei viel Sonne muss ich viel weniger heizen in meinem Haus, weil wir viel Fensterfläche Richtung Süden haben) meine Heizkurve jeden Tag bevor die Heizung startet anhand der Prognose zwischen einer bestimmten Range 0,3-0,5 angepasst wird.
                                        Folgende Beschreibung habe ich da der KI zum Beispiel gegeben.

                                        92ac6101-8895-4fc8-9ec7-ee22b4450cee-image.png

                                        @oxident
                                        Mit dem AI Adapter gibst du ja der KI zunächst die Beschreibung was die KI tun soll, dann eine Beispielanfrage und eine Beispielantwort. Siehe Screenshot unterhalb.

                                        4270e1f4-ff09-44c3-967e-0a1c3469b819-image.png

                                        Danach muss man über ein Javascript dem Adapter für das jeweilige Modell die Daten übermitteln - sprich das muss gleich sein wie die Beispielanfrage.

                                        In meinem Fall ein Javascript das so aussieht:

                                        var day =  new  Date().toLocaleString();
                                        var cloudCover = getState('weatherunderground.0.forecast.0d.cloudCover').val;
                                        var rlf = getState('javascript.0.Wetterstation.Aussenfeuchtigkeit').val;
                                        var pressure = getState('javascript.0.Wetterstation.Druck_absolut').val;
                                        var rain = getState('javascript.0.Wetterstation.Regen_Stunde').val;
                                        var temp = getState('mqtt.0.ebusd.700.DisplayedOutsideTemp').val;
                                        var wind = getState('javascript.0.Wetterstation.Wind').val;
                                        var trend = getState('javascript.0.Wetterstation.Wetter_Trend').val;
                                        var tempmax = getState('weatherunderground.0.forecast.0d.tempMax').val;
                                        var sonnenstrahlung = getState('javascript.0.Wetterstation.Sonnenstrahlung').val;
                                        
                                        var message =  'Aktuelles Datum und Uhrzeit '  + day +  '. Wetterdaten: Temperatur '  + temp +  '°C, ' + 'Vorhersage Tageshöchstemperatur' + tempmax +  '°C, ' +  'Luftfeuchtigkeit '  + rlf +  '%, '  +  'Wolkendecke '  + cloudCover +  '%, '  +  'Wind '  + wind +  'kmh, '  +  'Regenmenge pro Stunde '  + rain +  'mm, ' + 'Sonnenstrahlung ' + sonnenstrahlung + +'W/m2, ' + 'Trend: ' + trend +'.';
                                        
                                        sendTo('ai-toolbox.0',  'tool_request',  {
                                        	'tool':  'weather-reporter',
                                        	'text': message,
                                        },  async  (result)  =>  {
                                        	log(result);
                                        });
                                        

                                        Dann hab ich ein Blockly gebaut, dass mir 2 mal täglich das Javascript auslöst und mir das Ergebnis des AI Adapters und des jeweiligen Modells (Objekt Text-Response) per Push Nachricht auf mein Smartphone schickt.

                                        4a998de4-958a-4d34-8414-856f939e6b7f-image.png

                                        M 1 Antwort Letzte Antwort
                                        3
                                        • H halsi82

                                          Generell kann ich euch allen nur empfehlen, legt euch bei openai oder openrouter oder bei anderen KI Instanzen einen TestAccount/API Account an. Openrouter ist kostenlos bei vielen KI Modellen. Allerdings habe ich meine besten Ergebnise mit GTP-4 bei OpenAI bekommen, ist allerdings kostenpflichtig und wird pro Anfrage abgerechnet.

                                          Wenn ihr dort mal einen Account habt, dann macht den Chat auf.
                                          Schickt die Beschreibung zum Chat - die Beispielanfrage und die Beispielantwort.
                                          Und dann spielt euch mit dem Chatbot herum. Das hilft im Normalfall die KI besser zu verstehen und zu bedienen.

                                          Jedes Werkzeug das man im Adapter anlegt hat ein Text_request und ein Text_response als Objekt. Ähnlich wie ein KI Chat. Thats it.

                                          Ich habe mittlerweile ein Werkzeug angelegt um meine Heizkurve zu steuern. Das bedeutet - je nach Wettervorhersage und Daten der Bewölkung (bei viel Sonne muss ich viel weniger heizen in meinem Haus, weil wir viel Fensterfläche Richtung Süden haben) meine Heizkurve jeden Tag bevor die Heizung startet anhand der Prognose zwischen einer bestimmten Range 0,3-0,5 angepasst wird.
                                          Folgende Beschreibung habe ich da der KI zum Beispiel gegeben.

                                          92ac6101-8895-4fc8-9ec7-ee22b4450cee-image.png

                                          @oxident
                                          Mit dem AI Adapter gibst du ja der KI zunächst die Beschreibung was die KI tun soll, dann eine Beispielanfrage und eine Beispielantwort. Siehe Screenshot unterhalb.

                                          4270e1f4-ff09-44c3-967e-0a1c3469b819-image.png

                                          Danach muss man über ein Javascript dem Adapter für das jeweilige Modell die Daten übermitteln - sprich das muss gleich sein wie die Beispielanfrage.

                                          In meinem Fall ein Javascript das so aussieht:

                                          var day =  new  Date().toLocaleString();
                                          var cloudCover = getState('weatherunderground.0.forecast.0d.cloudCover').val;
                                          var rlf = getState('javascript.0.Wetterstation.Aussenfeuchtigkeit').val;
                                          var pressure = getState('javascript.0.Wetterstation.Druck_absolut').val;
                                          var rain = getState('javascript.0.Wetterstation.Regen_Stunde').val;
                                          var temp = getState('mqtt.0.ebusd.700.DisplayedOutsideTemp').val;
                                          var wind = getState('javascript.0.Wetterstation.Wind').val;
                                          var trend = getState('javascript.0.Wetterstation.Wetter_Trend').val;
                                          var tempmax = getState('weatherunderground.0.forecast.0d.tempMax').val;
                                          var sonnenstrahlung = getState('javascript.0.Wetterstation.Sonnenstrahlung').val;
                                          
                                          var message =  'Aktuelles Datum und Uhrzeit '  + day +  '. Wetterdaten: Temperatur '  + temp +  '°C, ' + 'Vorhersage Tageshöchstemperatur' + tempmax +  '°C, ' +  'Luftfeuchtigkeit '  + rlf +  '%, '  +  'Wolkendecke '  + cloudCover +  '%, '  +  'Wind '  + wind +  'kmh, '  +  'Regenmenge pro Stunde '  + rain +  'mm, ' + 'Sonnenstrahlung ' + sonnenstrahlung + +'W/m2, ' + 'Trend: ' + trend +'.';
                                          
                                          sendTo('ai-toolbox.0',  'tool_request',  {
                                          	'tool':  'weather-reporter',
                                          	'text': message,
                                          },  async  (result)  =>  {
                                          	log(result);
                                          });
                                          

                                          Dann hab ich ein Blockly gebaut, dass mir 2 mal täglich das Javascript auslöst und mir das Ergebnis des AI Adapters und des jeweiligen Modells (Objekt Text-Response) per Push Nachricht auf mein Smartphone schickt.

                                          4a998de4-958a-4d34-8414-856f939e6b7f-image.png

                                          M Online
                                          M Online
                                          mick70
                                          schrieb am zuletzt editiert von
                                          #27

                                          @halsi82 Die Heizkurve musst du demnach noch manuell anpassen, d.h. deine Heizung hat keinen Datenpunkt für die Heizkurve?

                                          H 1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          788

                                          Online

                                          32.5k

                                          Benutzer

                                          81.6k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe