Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. Plauderecke
  5. Freies Modell bei OpenAI -gpt-4o-mini-

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    3.2k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.1k

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    2.4k

Freies Modell bei OpenAI -gpt-4o-mini-

Geplant Angeheftet Gesperrt Verschoben Plauderecke
12 Beiträge 4 Kommentatoren 173 Aufrufe 3 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • F Offline
    F Offline
    fastfoot
    schrieb am zuletzt editiert von
    #2

    Nun, erklären kann ich dir das nicht. Ein Token ist in etwa eine Silbe. Geld verballern war auch meine große Sorge aber für meinen Anwendungszweck kann ich sagen dass ich in 3Monaten Abo (nennt sich PLUS, 23,-, mtl. kündbar) nie an das Limit gekommen bin. Mein Vorschlag, hau rein und schau wann du das Limit erreicht hast. Die 20 scheint mir in Millionen zu sein, das ist was auch bei den Modellen immer steht. Ich gehe davon aus dass die KK nur zur Verifizierung angegeben wurde, nicht um dir ohne dein Wollen das Konto zu räumen
    Es gibt auch noch die API Nutzung, die wird getrennt abgerechnet und ist für Programmierer bzw. programmatische Abfragen. Da lädst du einen Betrag hoch und kannst noch einstellen wieviel Geld du max. zuschiessen willst pro Monat. Ich denke dass dein Programm diese Schnittstelle nutzt, du müsstest dann eig einen API-Key haben und den dort eintragen?
    Ich programmiere gerade einen Bot für einen Freund und hab da gefühlt unendlich viele Abfragen gemacht. Etwas besorgt wieviel ich denn verbraten habe waren das gerade mal 1,78Eur.

    Also mit der mtl. Kündigung und diesem 'Prepaid' (für API) konnte ich keine Fallstricke erkennen. Wenn irgendwelche Limits erreicht werden(modellabhängig, zb. Token/Minute) sagt dir das OpenAi und dann geht es nach Ablauf dieser Minute wieder weiter.

    iobroker läuft unter Docker auf QNAP TS-451+
    SkriptRecovery: https://forum.iobroker.net/post/930558

    haselchenH 1 Antwort Letzte Antwort
    0
    • F fastfoot

      Nun, erklären kann ich dir das nicht. Ein Token ist in etwa eine Silbe. Geld verballern war auch meine große Sorge aber für meinen Anwendungszweck kann ich sagen dass ich in 3Monaten Abo (nennt sich PLUS, 23,-, mtl. kündbar) nie an das Limit gekommen bin. Mein Vorschlag, hau rein und schau wann du das Limit erreicht hast. Die 20 scheint mir in Millionen zu sein, das ist was auch bei den Modellen immer steht. Ich gehe davon aus dass die KK nur zur Verifizierung angegeben wurde, nicht um dir ohne dein Wollen das Konto zu räumen
      Es gibt auch noch die API Nutzung, die wird getrennt abgerechnet und ist für Programmierer bzw. programmatische Abfragen. Da lädst du einen Betrag hoch und kannst noch einstellen wieviel Geld du max. zuschiessen willst pro Monat. Ich denke dass dein Programm diese Schnittstelle nutzt, du müsstest dann eig einen API-Key haben und den dort eintragen?
      Ich programmiere gerade einen Bot für einen Freund und hab da gefühlt unendlich viele Abfragen gemacht. Etwas besorgt wieviel ich denn verbraten habe waren das gerade mal 1,78Eur.

      Also mit der mtl. Kündigung und diesem 'Prepaid' (für API) konnte ich keine Fallstricke erkennen. Wenn irgendwelche Limits erreicht werden(modellabhängig, zb. Token/Minute) sagt dir das OpenAi und dann geht es nach Ablauf dieser Minute wieder weiter.

      haselchenH Offline
      haselchenH Offline
      haselchen
      Most Active
      schrieb am zuletzt editiert von haselchen
      #3

      @fastfoot

      Hey, danke , dass Du Dich dem Thema annimmst.
      Ich musste 5$ Dollar "hochladen" von meiner Kreditkarte.
      Habe eingestellt, dass nicht nachgeladen werden soll.
      Ich habe da auch nichts wildes abgeschlossen.
      Eigentlich das kostenlose Abo.
      Hab das KI Modell gewählt gpt-4o-mini.
      Und den Secret Key eingetragen in HA (Blueprint)

      Es handelt sich um das Projekt:

      https://www.youtube.com/watch?v=95qyHtzljsU

      Ich hab das Limit schon runtergesetzt.
      1968a0d4-43e8-4078-bc13-75d94159624d-grafik.png

      In ein paar Stunden sind 55 Cent zusammengekommen. Wenn ich das mal hochrechne....

      fd607c98-ecc8-42a5-9158-c8f66716d6ad-grafik.png

      Ich wollte das eigentlich in meiner VIS abbilden (Bild mit Beschreibung). Aber , wie ich schon sagte, gerät das Kostentechnisch ausser Kontrolle.

      Synology DS218+ & 2 x Fujitsu Esprimo (VM/Container) + FritzBox7590 + 2 AVM 3000 Repeater & Homematic & HUE & Osram & Xiaomi, NPM 10.9.4, Nodejs 22.21.0 ,JS Controller 7.0.7 ,Admin 7.7.19

      OliverIOO 1 Antwort Letzte Antwort
      0
      • haselchenH haselchen

        @fastfoot

        Hey, danke , dass Du Dich dem Thema annimmst.
        Ich musste 5$ Dollar "hochladen" von meiner Kreditkarte.
        Habe eingestellt, dass nicht nachgeladen werden soll.
        Ich habe da auch nichts wildes abgeschlossen.
        Eigentlich das kostenlose Abo.
        Hab das KI Modell gewählt gpt-4o-mini.
        Und den Secret Key eingetragen in HA (Blueprint)

        Es handelt sich um das Projekt:

        https://www.youtube.com/watch?v=95qyHtzljsU

        Ich hab das Limit schon runtergesetzt.
        1968a0d4-43e8-4078-bc13-75d94159624d-grafik.png

        In ein paar Stunden sind 55 Cent zusammengekommen. Wenn ich das mal hochrechne....

        fd607c98-ecc8-42a5-9158-c8f66716d6ad-grafik.png

        Ich wollte das eigentlich in meiner VIS abbilden (Bild mit Beschreibung). Aber , wie ich schon sagte, gerät das Kostentechnisch ausser Kontrolle.

        OliverIOO Offline
        OliverIOO Offline
        OliverIO
        schrieb am zuletzt editiert von
        #4

        @haselchen

        Bilder sind halt immer viele Daten und damit Inputtoken
        Je nachdem wie dein prompt lautet gibt die KI viel aus. Das sind dann die Output Token. Per prompt kann man aber vorgeben wie umfangreich ausgegeben werden soll. Bspw könntest du sagen:
        Liste mir alle Objekte kommasepariert auf.
        Dann wird es schon weniger.

        4o mini ist jetzt aber auch nicht ganz so intelligent wie die aktuellen Modelle.

        Für kontinuierliche Bildanalyse wirst du dich aktuell wahrscheinlich schon tot zahlen.
        Da bleibt eigentlich nur ein lokales Modell.
        Die passende Hardware ist aber leider auch nicht so ganz günstig und Strom schluckt das dann auch entsprechend.

        Alles mit Text ist eigentlich unproblematisch von der Menge. OpenAI hat zwar auch ein paar spezielle Modelle, bei denen auch bei Text der Input Output entsprechend teuer ist.. Die braucht der normale Mensch aber nicht.

        Meine Adapter und Widgets
        TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
        Links im Profil

        haselchenH Jey CeeJ 2 Antworten Letzte Antwort
        0
        • OliverIOO OliverIO

          @haselchen

          Bilder sind halt immer viele Daten und damit Inputtoken
          Je nachdem wie dein prompt lautet gibt die KI viel aus. Das sind dann die Output Token. Per prompt kann man aber vorgeben wie umfangreich ausgegeben werden soll. Bspw könntest du sagen:
          Liste mir alle Objekte kommasepariert auf.
          Dann wird es schon weniger.

          4o mini ist jetzt aber auch nicht ganz so intelligent wie die aktuellen Modelle.

          Für kontinuierliche Bildanalyse wirst du dich aktuell wahrscheinlich schon tot zahlen.
          Da bleibt eigentlich nur ein lokales Modell.
          Die passende Hardware ist aber leider auch nicht so ganz günstig und Strom schluckt das dann auch entsprechend.

          Alles mit Text ist eigentlich unproblematisch von der Menge. OpenAI hat zwar auch ein paar spezielle Modelle, bei denen auch bei Text der Input Output entsprechend teuer ist.. Die braucht der normale Mensch aber nicht.

          haselchenH Offline
          haselchenH Offline
          haselchen
          Most Active
          schrieb am zuletzt editiert von haselchen
          #5

          @OliverIO

          Da ist so das Sparsamste, was man eingeben kann, so denke ich.

          d33d73c0-caec-4b94-9cf8-e76fdb2c009c-grafik.png

          Es kommt ein Bild mit max. 15 Wörtern als Beschreibung. Ich, als Laie würde sagen, spartanisch.

          Synology DS218+ & 2 x Fujitsu Esprimo (VM/Container) + FritzBox7590 + 2 AVM 3000 Repeater & Homematic & HUE & Osram & Xiaomi, NPM 10.9.4, Nodejs 22.21.0 ,JS Controller 7.0.7 ,Admin 7.7.19

          OliverIOO 1 Antwort Letzte Antwort
          0
          • haselchenH haselchen

            @OliverIO

            Da ist so das Sparsamste, was man eingeben kann, so denke ich.

            d33d73c0-caec-4b94-9cf8-e76fdb2c009c-grafik.png

            Es kommt ein Bild mit max. 15 Wörtern als Beschreibung. Ich, als Laie würde sagen, spartanisch.

            OliverIOO Offline
            OliverIOO Offline
            OliverIO
            schrieb am zuletzt editiert von
            #6

            @haselchen

            Wenn es um Analyse von beweglichen Bildern geht, Gesichtserkennung, Objekterkennung, Tracking

            Dann könnte man es auch mit opencv probieren.
            Das ist Open Source, läuft auf normaler Hardware und hat auch KI Fähigkeiten (eine andere Art von KI, die aktuell bekannten sind ja alles sogenannte LLMs)
            https://opencv.org/

            Das kann das sogar auf normale Hardware

            Meine Adapter und Widgets
            TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
            Links im Profil

            1 Antwort Letzte Antwort
            0
            • OliverIOO OliverIO

              @haselchen

              Bilder sind halt immer viele Daten und damit Inputtoken
              Je nachdem wie dein prompt lautet gibt die KI viel aus. Das sind dann die Output Token. Per prompt kann man aber vorgeben wie umfangreich ausgegeben werden soll. Bspw könntest du sagen:
              Liste mir alle Objekte kommasepariert auf.
              Dann wird es schon weniger.

              4o mini ist jetzt aber auch nicht ganz so intelligent wie die aktuellen Modelle.

              Für kontinuierliche Bildanalyse wirst du dich aktuell wahrscheinlich schon tot zahlen.
              Da bleibt eigentlich nur ein lokales Modell.
              Die passende Hardware ist aber leider auch nicht so ganz günstig und Strom schluckt das dann auch entsprechend.

              Alles mit Text ist eigentlich unproblematisch von der Menge. OpenAI hat zwar auch ein paar spezielle Modelle, bei denen auch bei Text der Input Output entsprechend teuer ist.. Die braucht der normale Mensch aber nicht.

              Jey CeeJ Online
              Jey CeeJ Online
              Jey Cee
              Developer
              schrieb am zuletzt editiert von
              #7

              @OliverIO sagte in Freies Modell bei OpenAI -gpt-4o-mini-:

              Bilder sind halt immer viele Daten und damit Inputtoken

              Ja und Nein. Ich hab vor ein paar Wochen gelesen das Forscher fest gestellt haben das Bilder mit der selben Token Anzahl wie ein Text deutlich mehr Informationen beinhalten als wenn sie als Text in ein LLM geladen werden.

              @haselchen sagte in Freies Modell bei OpenAI -gpt-4o-mini-:

              Da ist so das Sparsamste, was man eingeben kann, so denke ich.

              LLMs kommen gut damit klar wenn die Bild Auflösung niedriger ist. Je nachdem was man erkennen will kann man also durch Reduzierung der Auflösung auch Token Sparen.
              Das machst du bereits wie im Screenshot zu sehen.
              Je nachdem was deine Kameras können, kannst du jetzt noch die Bild Anzahl reduzieren. Die Reolink Kameras erkennen Menschen, Tiere und Autos, das kann man sich zu nutze machen und entsprechend nur Bilder nehmen auf denen mindestens eins davon erkannt wurde.

              @OliverIO sagte in Freies Modell bei OpenAI -gpt-4o-mini-:

              Dann könnte man es auch mit opencv probieren.

              Damit hab ich auch schon gespielt und das ist wirklich gut. Der größte Vorteil ist das es auch mit Intel Grafik Chips beschleunigt werden kann, die meistens in den Mini PCs zu finden sind.

              @OliverIO sagte in Freies Modell bei OpenAI -gpt-4o-mini-:

              Da bleibt eigentlich nur ein lokales Modell.

              Ich hab qwen3-vl auf dem Smartphone getestet und muss sagen es war Überraschend schnell und hat gute Ergebnisse geliefert.

              Persönlicher Support
              Spenden -> paypal.me/J3YC33

              1 Antwort Letzte Antwort
              0
              • haselchenH Offline
                haselchenH Offline
                haselchen
                Most Active
                schrieb am zuletzt editiert von haselchen
                #8

                Kleines Update:
                Mit dem OpenAI war ich nach Stunden soweit, dass meine 5 Dollar aufgebraucht waren.
                Also hab ich auf Google umgestellt.
                Erst wieder auf gemini-2.5-flash-lite.
                Da wurde dann mal nen Bild interpretiert und dann wieder gabs nen Fehler (Couldn't generate content. Check logs for details.)
                Vermutlich das Ratelimit.
                Komischerweise wurde dann das nächste Bild wieder interpretiert.
                Das macht natürlich wenig Sinn, wenn man vernünftig damit arbeiten will.
                Also das nächste Modell genommen. Angeblich die Speerspitze aktuell bei Google: gemini-3-flash-preview
                Leute, Leute, was da für ein Mist rauskam. Unglaublich.
                "Fehler bei System gesehen oder Fehler bei Inhaltsgenerierung gesehen" war noch das Harmlostete, was die gute KI als Bildüberschrift da rausgeschmissen hat.
                Wie gesagt, es soll ein Bild(Snapshot) mit einem Tier interpretiert werden.

                @oliverio
                @jey-cee
                Für die KIs, die ihr mir genannt habt, da fehlt mir das Wissen zu und definitiv die Zeit, mich da sicher einzuarbeiten.
                Ich geb gerne 5 oder 10€ aus im Monat für die "Spielerei", aber nicht für ne Sache, die ausser Kontrolle gerät.
                Und das tut es vermutlich, weil mir das Wissen fehlt.

                Wenn jemand ein KI Modell kennt, welches sich einfach integrieren lässt und transparent/überschaubar von Nutzen & Kosten ist, immer her damit.

                Synology DS218+ & 2 x Fujitsu Esprimo (VM/Container) + FritzBox7590 + 2 AVM 3000 Repeater & Homematic & HUE & Osram & Xiaomi, NPM 10.9.4, Nodejs 22.21.0 ,JS Controller 7.0.7 ,Admin 7.7.19

                OliverIOO 1 Antwort Letzte Antwort
                0
                • haselchenH haselchen

                  Kleines Update:
                  Mit dem OpenAI war ich nach Stunden soweit, dass meine 5 Dollar aufgebraucht waren.
                  Also hab ich auf Google umgestellt.
                  Erst wieder auf gemini-2.5-flash-lite.
                  Da wurde dann mal nen Bild interpretiert und dann wieder gabs nen Fehler (Couldn't generate content. Check logs for details.)
                  Vermutlich das Ratelimit.
                  Komischerweise wurde dann das nächste Bild wieder interpretiert.
                  Das macht natürlich wenig Sinn, wenn man vernünftig damit arbeiten will.
                  Also das nächste Modell genommen. Angeblich die Speerspitze aktuell bei Google: gemini-3-flash-preview
                  Leute, Leute, was da für ein Mist rauskam. Unglaublich.
                  "Fehler bei System gesehen oder Fehler bei Inhaltsgenerierung gesehen" war noch das Harmlostete, was die gute KI als Bildüberschrift da rausgeschmissen hat.
                  Wie gesagt, es soll ein Bild(Snapshot) mit einem Tier interpretiert werden.

                  @oliverio
                  @jey-cee
                  Für die KIs, die ihr mir genannt habt, da fehlt mir das Wissen zu und definitiv die Zeit, mich da sicher einzuarbeiten.
                  Ich geb gerne 5 oder 10€ aus im Monat für die "Spielerei", aber nicht für ne Sache, die ausser Kontrolle gerät.
                  Und das tut es vermutlich, weil mir das Wissen fehlt.

                  Wenn jemand ein KI Modell kennt, welches sich einfach integrieren lässt und transparent/überschaubar von Nutzen & Kosten ist, immer her damit.

                  OliverIOO Offline
                  OliverIOO Offline
                  OliverIO
                  schrieb am zuletzt editiert von
                  #9

                  @haselchen

                  Dann musst du genauer beschreiben was du eigentlich erreichen willst.
                  Bisher hast du nur von den Erfahrungen mit Bilder und ki geschrieben

                  Meine Adapter und Widgets
                  TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
                  Links im Profil

                  haselchenH 1 Antwort Letzte Antwort
                  0
                  • OliverIOO OliverIO

                    @haselchen

                    Dann musst du genauer beschreiben was du eigentlich erreichen willst.
                    Bisher hast du nur von den Erfahrungen mit Bilder und ki geschrieben

                    haselchenH Offline
                    haselchenH Offline
                    haselchen
                    Most Active
                    schrieb am zuletzt editiert von
                    #10

                    @OliverIO

                    Ich hatte doch oben genau beschrieben worum es geht (mit Link zum Video)
                    Ich habe das Projekt von Simon42 "nachgebastelt".
                    Es wird ein Bild gemacht bei Bewegung und die KI beschreibt es.
                    Ziel ist es, dass mir dann Alexa sagt, wer auf der Terrasse ist.
                    Dazu müsste das alles schon perfekt funktionieren.

                    Synology DS218+ & 2 x Fujitsu Esprimo (VM/Container) + FritzBox7590 + 2 AVM 3000 Repeater & Homematic & HUE & Osram & Xiaomi, NPM 10.9.4, Nodejs 22.21.0 ,JS Controller 7.0.7 ,Admin 7.7.19

                    OliverIOO Jey CeeJ 2 Antworten Letzte Antwort
                    0
                    • haselchenH haselchen

                      @OliverIO

                      Ich hatte doch oben genau beschrieben worum es geht (mit Link zum Video)
                      Ich habe das Projekt von Simon42 "nachgebastelt".
                      Es wird ein Bild gemacht bei Bewegung und die KI beschreibt es.
                      Ziel ist es, dass mir dann Alexa sagt, wer auf der Terrasse ist.
                      Dazu müsste das alles schon perfekt funktionieren.

                      OliverIOO Offline
                      OliverIOO Offline
                      OliverIO
                      schrieb am zuletzt editiert von
                      #11

                      @haselchen

                      Habe keine detaillierte Beschreibung gefunden, auch jetzt nicht,
                      Videos schaue ich mir nicht an, um ein Nutzerproblem zu verstehen. Kostet mir etwas zu viel Zeit und wenn es dem nutzer auch zu viel ist, dann passt es für mich schon

                      Meine Adapter und Widgets
                      TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
                      Links im Profil

                      1 Antwort Letzte Antwort
                      0
                      • haselchenH haselchen

                        @OliverIO

                        Ich hatte doch oben genau beschrieben worum es geht (mit Link zum Video)
                        Ich habe das Projekt von Simon42 "nachgebastelt".
                        Es wird ein Bild gemacht bei Bewegung und die KI beschreibt es.
                        Ziel ist es, dass mir dann Alexa sagt, wer auf der Terrasse ist.
                        Dazu müsste das alles schon perfekt funktionieren.

                        Jey CeeJ Online
                        Jey CeeJ Online
                        Jey Cee
                        Developer
                        schrieb am zuletzt editiert von
                        #12

                        Soweit ich mich an das Video erinnern kann soll alles was den Tag über passiert ist zusammengefasst werden.

                        Du Schreibst jetzt aber:

                        @haselchen sagte in Freies Modell bei OpenAI -gpt-4o-mini-:

                        Ziel ist es, dass mir dann Alexa sagt, wer auf der Terrasse ist.

                        Da liegen Welten dazwischen. Zum einen könnte man eben die Bild Anzahl drastisch reduzieren wenn man eine Kamera hat die Menschen erkennt. Dann ist Personenerkennung (also wer ist das) nur möglich wenn das LLM entsprechende Informationen hat oder bekommt.

                        @haselchen sagte in Freies Modell bei OpenAI -gpt-4o-mini-:

                        Angeblich die Speerspitze aktuell bei Google: gemini-3-flash-preview
                        Leute, Leute, was da für ein Mist rauskam. Unglaublich.

                        Wundert mich nicht, LLMs werden auf bestimmte Inhalte trainiert. Für Bild braucht es ein LLM das entsprechend darauf trainiert wurde.
                        Deswegen hab ich ja qwen3-vl in den Raum geworfen das wurde dafür trainiert.
                        Das ist auch nicht so schwer zu installieren mit ollama, ähnlich wie die ioBroker Installation.
                        Die Frage ist halt ob deine Software ollama als Anbieter anbietet.

                        Persönlicher Support
                        Spenden -> paypal.me/J3YC33

                        1 Antwort Letzte Antwort
                        0
                        Antworten
                        • In einem neuen Thema antworten
                        Anmelden zum Antworten
                        • Älteste zuerst
                        • Neuste zuerst
                        • Meiste Stimmen


                        Support us

                        ioBroker
                        Community Adapters
                        Donate

                        551

                        Online

                        32.7k

                        Benutzer

                        82.3k

                        Themen

                        1.3m

                        Beiträge
                        Community
                        Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                        ioBroker Community 2014-2025
                        logo
                        • Anmelden

                        • Du hast noch kein Konto? Registrieren

                        • Anmelden oder registrieren, um zu suchen
                        • Erster Beitrag
                          Letzter Beitrag
                        0
                        • Home
                        • Aktuell
                        • Tags
                        • Ungelesen 0
                        • Kategorien
                        • Unreplied
                        • Beliebt
                        • GitHub
                        • Docu
                        • Hilfe