Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. Plauderecke
  5. Freies Modell bei OpenAI -gpt-4o-mini-

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    3.0k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.1k

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    2.4k

Freies Modell bei OpenAI -gpt-4o-mini-

Geplant Angeheftet Gesperrt Verschoben Plauderecke
12 Beiträge 4 Kommentatoren 146 Aufrufe 3 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • F fastfoot

    Nun, erklären kann ich dir das nicht. Ein Token ist in etwa eine Silbe. Geld verballern war auch meine große Sorge aber für meinen Anwendungszweck kann ich sagen dass ich in 3Monaten Abo (nennt sich PLUS, 23,-, mtl. kündbar) nie an das Limit gekommen bin. Mein Vorschlag, hau rein und schau wann du das Limit erreicht hast. Die 20 scheint mir in Millionen zu sein, das ist was auch bei den Modellen immer steht. Ich gehe davon aus dass die KK nur zur Verifizierung angegeben wurde, nicht um dir ohne dein Wollen das Konto zu räumen
    Es gibt auch noch die API Nutzung, die wird getrennt abgerechnet und ist für Programmierer bzw. programmatische Abfragen. Da lädst du einen Betrag hoch und kannst noch einstellen wieviel Geld du max. zuschiessen willst pro Monat. Ich denke dass dein Programm diese Schnittstelle nutzt, du müsstest dann eig einen API-Key haben und den dort eintragen?
    Ich programmiere gerade einen Bot für einen Freund und hab da gefühlt unendlich viele Abfragen gemacht. Etwas besorgt wieviel ich denn verbraten habe waren das gerade mal 1,78Eur.

    Also mit der mtl. Kündigung und diesem 'Prepaid' (für API) konnte ich keine Fallstricke erkennen. Wenn irgendwelche Limits erreicht werden(modellabhängig, zb. Token/Minute) sagt dir das OpenAi und dann geht es nach Ablauf dieser Minute wieder weiter.

    haselchenH Offline
    haselchenH Offline
    haselchen
    Most Active
    schrieb am zuletzt editiert von haselchen
    #3

    @fastfoot

    Hey, danke , dass Du Dich dem Thema annimmst.
    Ich musste 5$ Dollar "hochladen" von meiner Kreditkarte.
    Habe eingestellt, dass nicht nachgeladen werden soll.
    Ich habe da auch nichts wildes abgeschlossen.
    Eigentlich das kostenlose Abo.
    Hab das KI Modell gewählt gpt-4o-mini.
    Und den Secret Key eingetragen in HA (Blueprint)

    Es handelt sich um das Projekt:

    https://www.youtube.com/watch?v=95qyHtzljsU

    Ich hab das Limit schon runtergesetzt.
    1968a0d4-43e8-4078-bc13-75d94159624d-grafik.png

    In ein paar Stunden sind 55 Cent zusammengekommen. Wenn ich das mal hochrechne....

    fd607c98-ecc8-42a5-9158-c8f66716d6ad-grafik.png

    Ich wollte das eigentlich in meiner VIS abbilden (Bild mit Beschreibung). Aber , wie ich schon sagte, gerät das Kostentechnisch ausser Kontrolle.

    Synology DS218+ & 2 x Fujitsu Esprimo (VM/Container) + FritzBox7590 + 2 AVM 3000 Repeater & Homematic & HUE & Osram & Xiaomi, NPM 10.9.4, Nodejs 22.21.0 ,JS Controller 7.0.7 ,Admin 7.7.19

    OliverIOO 1 Antwort Letzte Antwort
    0
    • haselchenH haselchen

      @fastfoot

      Hey, danke , dass Du Dich dem Thema annimmst.
      Ich musste 5$ Dollar "hochladen" von meiner Kreditkarte.
      Habe eingestellt, dass nicht nachgeladen werden soll.
      Ich habe da auch nichts wildes abgeschlossen.
      Eigentlich das kostenlose Abo.
      Hab das KI Modell gewählt gpt-4o-mini.
      Und den Secret Key eingetragen in HA (Blueprint)

      Es handelt sich um das Projekt:

      https://www.youtube.com/watch?v=95qyHtzljsU

      Ich hab das Limit schon runtergesetzt.
      1968a0d4-43e8-4078-bc13-75d94159624d-grafik.png

      In ein paar Stunden sind 55 Cent zusammengekommen. Wenn ich das mal hochrechne....

      fd607c98-ecc8-42a5-9158-c8f66716d6ad-grafik.png

      Ich wollte das eigentlich in meiner VIS abbilden (Bild mit Beschreibung). Aber , wie ich schon sagte, gerät das Kostentechnisch ausser Kontrolle.

      OliverIOO Offline
      OliverIOO Offline
      OliverIO
      schrieb am zuletzt editiert von
      #4

      @haselchen

      Bilder sind halt immer viele Daten und damit Inputtoken
      Je nachdem wie dein prompt lautet gibt die KI viel aus. Das sind dann die Output Token. Per prompt kann man aber vorgeben wie umfangreich ausgegeben werden soll. Bspw könntest du sagen:
      Liste mir alle Objekte kommasepariert auf.
      Dann wird es schon weniger.

      4o mini ist jetzt aber auch nicht ganz so intelligent wie die aktuellen Modelle.

      Für kontinuierliche Bildanalyse wirst du dich aktuell wahrscheinlich schon tot zahlen.
      Da bleibt eigentlich nur ein lokales Modell.
      Die passende Hardware ist aber leider auch nicht so ganz günstig und Strom schluckt das dann auch entsprechend.

      Alles mit Text ist eigentlich unproblematisch von der Menge. OpenAI hat zwar auch ein paar spezielle Modelle, bei denen auch bei Text der Input Output entsprechend teuer ist.. Die braucht der normale Mensch aber nicht.

      Meine Adapter und Widgets
      TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
      Links im Profil

      haselchenH Jey CeeJ 2 Antworten Letzte Antwort
      0
      • OliverIOO OliverIO

        @haselchen

        Bilder sind halt immer viele Daten und damit Inputtoken
        Je nachdem wie dein prompt lautet gibt die KI viel aus. Das sind dann die Output Token. Per prompt kann man aber vorgeben wie umfangreich ausgegeben werden soll. Bspw könntest du sagen:
        Liste mir alle Objekte kommasepariert auf.
        Dann wird es schon weniger.

        4o mini ist jetzt aber auch nicht ganz so intelligent wie die aktuellen Modelle.

        Für kontinuierliche Bildanalyse wirst du dich aktuell wahrscheinlich schon tot zahlen.
        Da bleibt eigentlich nur ein lokales Modell.
        Die passende Hardware ist aber leider auch nicht so ganz günstig und Strom schluckt das dann auch entsprechend.

        Alles mit Text ist eigentlich unproblematisch von der Menge. OpenAI hat zwar auch ein paar spezielle Modelle, bei denen auch bei Text der Input Output entsprechend teuer ist.. Die braucht der normale Mensch aber nicht.

        haselchenH Offline
        haselchenH Offline
        haselchen
        Most Active
        schrieb am zuletzt editiert von haselchen
        #5

        @OliverIO

        Da ist so das Sparsamste, was man eingeben kann, so denke ich.

        d33d73c0-caec-4b94-9cf8-e76fdb2c009c-grafik.png

        Es kommt ein Bild mit max. 15 Wörtern als Beschreibung. Ich, als Laie würde sagen, spartanisch.

        Synology DS218+ & 2 x Fujitsu Esprimo (VM/Container) + FritzBox7590 + 2 AVM 3000 Repeater & Homematic & HUE & Osram & Xiaomi, NPM 10.9.4, Nodejs 22.21.0 ,JS Controller 7.0.7 ,Admin 7.7.19

        OliverIOO 1 Antwort Letzte Antwort
        0
        • haselchenH haselchen

          @OliverIO

          Da ist so das Sparsamste, was man eingeben kann, so denke ich.

          d33d73c0-caec-4b94-9cf8-e76fdb2c009c-grafik.png

          Es kommt ein Bild mit max. 15 Wörtern als Beschreibung. Ich, als Laie würde sagen, spartanisch.

          OliverIOO Offline
          OliverIOO Offline
          OliverIO
          schrieb am zuletzt editiert von
          #6

          @haselchen

          Wenn es um Analyse von beweglichen Bildern geht, Gesichtserkennung, Objekterkennung, Tracking

          Dann könnte man es auch mit opencv probieren.
          Das ist Open Source, läuft auf normaler Hardware und hat auch KI Fähigkeiten (eine andere Art von KI, die aktuell bekannten sind ja alles sogenannte LLMs)
          https://opencv.org/

          Das kann das sogar auf normale Hardware

          Meine Adapter und Widgets
          TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
          Links im Profil

          1 Antwort Letzte Antwort
          0
          • OliverIOO OliverIO

            @haselchen

            Bilder sind halt immer viele Daten und damit Inputtoken
            Je nachdem wie dein prompt lautet gibt die KI viel aus. Das sind dann die Output Token. Per prompt kann man aber vorgeben wie umfangreich ausgegeben werden soll. Bspw könntest du sagen:
            Liste mir alle Objekte kommasepariert auf.
            Dann wird es schon weniger.

            4o mini ist jetzt aber auch nicht ganz so intelligent wie die aktuellen Modelle.

            Für kontinuierliche Bildanalyse wirst du dich aktuell wahrscheinlich schon tot zahlen.
            Da bleibt eigentlich nur ein lokales Modell.
            Die passende Hardware ist aber leider auch nicht so ganz günstig und Strom schluckt das dann auch entsprechend.

            Alles mit Text ist eigentlich unproblematisch von der Menge. OpenAI hat zwar auch ein paar spezielle Modelle, bei denen auch bei Text der Input Output entsprechend teuer ist.. Die braucht der normale Mensch aber nicht.

            Jey CeeJ Online
            Jey CeeJ Online
            Jey Cee
            Developer
            schrieb am zuletzt editiert von
            #7

            @OliverIO sagte in Freies Modell bei OpenAI -gpt-4o-mini-:

            Bilder sind halt immer viele Daten und damit Inputtoken

            Ja und Nein. Ich hab vor ein paar Wochen gelesen das Forscher fest gestellt haben das Bilder mit der selben Token Anzahl wie ein Text deutlich mehr Informationen beinhalten als wenn sie als Text in ein LLM geladen werden.

            @haselchen sagte in Freies Modell bei OpenAI -gpt-4o-mini-:

            Da ist so das Sparsamste, was man eingeben kann, so denke ich.

            LLMs kommen gut damit klar wenn die Bild Auflösung niedriger ist. Je nachdem was man erkennen will kann man also durch Reduzierung der Auflösung auch Token Sparen.
            Das machst du bereits wie im Screenshot zu sehen.
            Je nachdem was deine Kameras können, kannst du jetzt noch die Bild Anzahl reduzieren. Die Reolink Kameras erkennen Menschen, Tiere und Autos, das kann man sich zu nutze machen und entsprechend nur Bilder nehmen auf denen mindestens eins davon erkannt wurde.

            @OliverIO sagte in Freies Modell bei OpenAI -gpt-4o-mini-:

            Dann könnte man es auch mit opencv probieren.

            Damit hab ich auch schon gespielt und das ist wirklich gut. Der größte Vorteil ist das es auch mit Intel Grafik Chips beschleunigt werden kann, die meistens in den Mini PCs zu finden sind.

            @OliverIO sagte in Freies Modell bei OpenAI -gpt-4o-mini-:

            Da bleibt eigentlich nur ein lokales Modell.

            Ich hab qwen3-vl auf dem Smartphone getestet und muss sagen es war Überraschend schnell und hat gute Ergebnisse geliefert.

            Persönlicher Support
            Spenden -> paypal.me/J3YC33

            1 Antwort Letzte Antwort
            0
            • haselchenH Offline
              haselchenH Offline
              haselchen
              Most Active
              schrieb am zuletzt editiert von haselchen
              #8

              Kleines Update:
              Mit dem OpenAI war ich nach Stunden soweit, dass meine 5 Dollar aufgebraucht waren.
              Also hab ich auf Google umgestellt.
              Erst wieder auf gemini-2.5-flash-lite.
              Da wurde dann mal nen Bild interpretiert und dann wieder gabs nen Fehler (Couldn't generate content. Check logs for details.)
              Vermutlich das Ratelimit.
              Komischerweise wurde dann das nächste Bild wieder interpretiert.
              Das macht natürlich wenig Sinn, wenn man vernünftig damit arbeiten will.
              Also das nächste Modell genommen. Angeblich die Speerspitze aktuell bei Google: gemini-3-flash-preview
              Leute, Leute, was da für ein Mist rauskam. Unglaublich.
              "Fehler bei System gesehen oder Fehler bei Inhaltsgenerierung gesehen" war noch das Harmlostete, was die gute KI als Bildüberschrift da rausgeschmissen hat.
              Wie gesagt, es soll ein Bild(Snapshot) mit einem Tier interpretiert werden.

              @oliverio
              @jey-cee
              Für die KIs, die ihr mir genannt habt, da fehlt mir das Wissen zu und definitiv die Zeit, mich da sicher einzuarbeiten.
              Ich geb gerne 5 oder 10€ aus im Monat für die "Spielerei", aber nicht für ne Sache, die ausser Kontrolle gerät.
              Und das tut es vermutlich, weil mir das Wissen fehlt.

              Wenn jemand ein KI Modell kennt, welches sich einfach integrieren lässt und transparent/überschaubar von Nutzen & Kosten ist, immer her damit.

              Synology DS218+ & 2 x Fujitsu Esprimo (VM/Container) + FritzBox7590 + 2 AVM 3000 Repeater & Homematic & HUE & Osram & Xiaomi, NPM 10.9.4, Nodejs 22.21.0 ,JS Controller 7.0.7 ,Admin 7.7.19

              OliverIOO 1 Antwort Letzte Antwort
              0
              • haselchenH haselchen

                Kleines Update:
                Mit dem OpenAI war ich nach Stunden soweit, dass meine 5 Dollar aufgebraucht waren.
                Also hab ich auf Google umgestellt.
                Erst wieder auf gemini-2.5-flash-lite.
                Da wurde dann mal nen Bild interpretiert und dann wieder gabs nen Fehler (Couldn't generate content. Check logs for details.)
                Vermutlich das Ratelimit.
                Komischerweise wurde dann das nächste Bild wieder interpretiert.
                Das macht natürlich wenig Sinn, wenn man vernünftig damit arbeiten will.
                Also das nächste Modell genommen. Angeblich die Speerspitze aktuell bei Google: gemini-3-flash-preview
                Leute, Leute, was da für ein Mist rauskam. Unglaublich.
                "Fehler bei System gesehen oder Fehler bei Inhaltsgenerierung gesehen" war noch das Harmlostete, was die gute KI als Bildüberschrift da rausgeschmissen hat.
                Wie gesagt, es soll ein Bild(Snapshot) mit einem Tier interpretiert werden.

                @oliverio
                @jey-cee
                Für die KIs, die ihr mir genannt habt, da fehlt mir das Wissen zu und definitiv die Zeit, mich da sicher einzuarbeiten.
                Ich geb gerne 5 oder 10€ aus im Monat für die "Spielerei", aber nicht für ne Sache, die ausser Kontrolle gerät.
                Und das tut es vermutlich, weil mir das Wissen fehlt.

                Wenn jemand ein KI Modell kennt, welches sich einfach integrieren lässt und transparent/überschaubar von Nutzen & Kosten ist, immer her damit.

                OliverIOO Offline
                OliverIOO Offline
                OliverIO
                schrieb am zuletzt editiert von
                #9

                @haselchen

                Dann musst du genauer beschreiben was du eigentlich erreichen willst.
                Bisher hast du nur von den Erfahrungen mit Bilder und ki geschrieben

                Meine Adapter und Widgets
                TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
                Links im Profil

                haselchenH 1 Antwort Letzte Antwort
                0
                • OliverIOO OliverIO

                  @haselchen

                  Dann musst du genauer beschreiben was du eigentlich erreichen willst.
                  Bisher hast du nur von den Erfahrungen mit Bilder und ki geschrieben

                  haselchenH Offline
                  haselchenH Offline
                  haselchen
                  Most Active
                  schrieb am zuletzt editiert von
                  #10

                  @OliverIO

                  Ich hatte doch oben genau beschrieben worum es geht (mit Link zum Video)
                  Ich habe das Projekt von Simon42 "nachgebastelt".
                  Es wird ein Bild gemacht bei Bewegung und die KI beschreibt es.
                  Ziel ist es, dass mir dann Alexa sagt, wer auf der Terrasse ist.
                  Dazu müsste das alles schon perfekt funktionieren.

                  Synology DS218+ & 2 x Fujitsu Esprimo (VM/Container) + FritzBox7590 + 2 AVM 3000 Repeater & Homematic & HUE & Osram & Xiaomi, NPM 10.9.4, Nodejs 22.21.0 ,JS Controller 7.0.7 ,Admin 7.7.19

                  OliverIOO Jey CeeJ 2 Antworten Letzte Antwort
                  0
                  • haselchenH haselchen

                    @OliverIO

                    Ich hatte doch oben genau beschrieben worum es geht (mit Link zum Video)
                    Ich habe das Projekt von Simon42 "nachgebastelt".
                    Es wird ein Bild gemacht bei Bewegung und die KI beschreibt es.
                    Ziel ist es, dass mir dann Alexa sagt, wer auf der Terrasse ist.
                    Dazu müsste das alles schon perfekt funktionieren.

                    OliverIOO Offline
                    OliverIOO Offline
                    OliverIO
                    schrieb zuletzt editiert von
                    #11

                    @haselchen

                    Habe keine detaillierte Beschreibung gefunden, auch jetzt nicht,
                    Videos schaue ich mir nicht an, um ein Nutzerproblem zu verstehen. Kostet mir etwas zu viel Zeit und wenn es dem nutzer auch zu viel ist, dann passt es für mich schon

                    Meine Adapter und Widgets
                    TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
                    Links im Profil

                    1 Antwort Letzte Antwort
                    0
                    • haselchenH haselchen

                      @OliverIO

                      Ich hatte doch oben genau beschrieben worum es geht (mit Link zum Video)
                      Ich habe das Projekt von Simon42 "nachgebastelt".
                      Es wird ein Bild gemacht bei Bewegung und die KI beschreibt es.
                      Ziel ist es, dass mir dann Alexa sagt, wer auf der Terrasse ist.
                      Dazu müsste das alles schon perfekt funktionieren.

                      Jey CeeJ Online
                      Jey CeeJ Online
                      Jey Cee
                      Developer
                      schrieb zuletzt editiert von
                      #12

                      Soweit ich mich an das Video erinnern kann soll alles was den Tag über passiert ist zusammengefasst werden.

                      Du Schreibst jetzt aber:

                      @haselchen sagte in Freies Modell bei OpenAI -gpt-4o-mini-:

                      Ziel ist es, dass mir dann Alexa sagt, wer auf der Terrasse ist.

                      Da liegen Welten dazwischen. Zum einen könnte man eben die Bild Anzahl drastisch reduzieren wenn man eine Kamera hat die Menschen erkennt. Dann ist Personenerkennung (also wer ist das) nur möglich wenn das LLM entsprechende Informationen hat oder bekommt.

                      @haselchen sagte in Freies Modell bei OpenAI -gpt-4o-mini-:

                      Angeblich die Speerspitze aktuell bei Google: gemini-3-flash-preview
                      Leute, Leute, was da für ein Mist rauskam. Unglaublich.

                      Wundert mich nicht, LLMs werden auf bestimmte Inhalte trainiert. Für Bild braucht es ein LLM das entsprechend darauf trainiert wurde.
                      Deswegen hab ich ja qwen3-vl in den Raum geworfen das wurde dafür trainiert.
                      Das ist auch nicht so schwer zu installieren mit ollama, ähnlich wie die ioBroker Installation.
                      Die Frage ist halt ob deine Software ollama als Anbieter anbietet.

                      Persönlicher Support
                      Spenden -> paypal.me/J3YC33

                      1 Antwort Letzte Antwort
                      0
                      Antworten
                      • In einem neuen Thema antworten
                      Anmelden zum Antworten
                      • Älteste zuerst
                      • Neuste zuerst
                      • Meiste Stimmen


                      Support us

                      ioBroker
                      Community Adapters
                      Donate

                      350

                      Online

                      32.7k

                      Benutzer

                      82.3k

                      Themen

                      1.3m

                      Beiträge
                      Community
                      Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                      ioBroker Community 2014-2025
                      logo
                      • Anmelden

                      • Du hast noch kein Konto? Registrieren

                      • Anmelden oder registrieren, um zu suchen
                      • Erster Beitrag
                        Letzter Beitrag
                      0
                      • Home
                      • Aktuell
                      • Tags
                      • Ungelesen 0
                      • Kategorien
                      • Unreplied
                      • Beliebt
                      • GitHub
                      • Docu
                      • Hilfe