NEWS
Chat GPT - muss man gesehen haben
-
Wie wär's denn mit einer direkten Einbindung in ioB?
OpenAI bietet nicht nur den Chat, sondern auch eine API.
Damit kann man sich die AI/KI (oder wie man das auch immer nennen möchte) direkt in seine eigene Applikation einbinden.@chaot said in Chat GPT - muss man gesehen haben:
die Datenlage endet offensichtlich 2021
Die Macher werden zunächst das Projekt in die Breite treiben und dann parallel dazu das vorhandene "Wissen" mit Sicherheit regelmäßig dem aktuellen Stand anpassen.
Im ersten Release ist das meistens nicht der Hauptfokus.@liv-in-sky said in Chat GPT - muss man gesehen haben:
was ich nicht so gut finde: elon musk ist dabei - bin kein fan !
Zum einen muss ja nicht jeder mitmachen / diese Technologie nutzen. Man kann von dieser Technologie halten was man möchte: Wir werden uns damit abfinden müssen, dass sie existiert und weiter entwickelt werden wird. Und eine gewisen Kenntnis der Technologie ist sicher hilfreich, um sich seine eigenen Gedanken dazu zu machen und die Vor- und Nachteile zu kennen.
Das ist wie soziale Netze: Man muss sie nicht nutzen, aber man sollte wissen, dass man trotzdem darin ist
Ob ein Personenkult oder eine Abneigung gegenüber einzelnen Leuten hilft, kann ich nicht sagen.@oliverio said in Chat GPT - muss man gesehen haben:
Das Problem mit chatgpt ist, das du nicht weißt ob die Antwort richtig oder falsch ist.
Bei wem oder was habe ich denn die Garantie, dass die Antwort auf meine Frage richtig ist? Es gilt auch hier, dass die Akzeptanz der Antwort auf meinen Vertrauen an die Gegenseite beruht. Und auch hier ist es hilfreich, gewisse Grundkenntnisse über die (Kompetenz der ) Gegenseite zu haben.
Das Ding hat auf jeden Fall das Potential weitere Jobs obsolet werden zu lassen. Hier wurden diese ja schon implizit erwähnt: Wer braucht noch Softwareentwickler, wenn's die KI auch kann?
-
@hans_999 sagte in Chat GPT - muss man gesehen haben:
Bei wem oder was habe ich denn die Garantie, dass die Antwort auf meine Frage richtig ist? Es gilt auch hier, dass die Akzeptanz der Antwort auf meinen Vertrauen an die Gegenseite beruht. Und auch hier ist es hilfreich, gewisse Grundkenntnisse über die (Kompetenz der ) Gegenseite zu haben.
na die datenqualität ist wohl geringer, wie man bei wikipedia davon ausgehen kann.
daher hat stackoverflow das momentan untersagt
https://www.zdnet.com/article/stack-overflow-temporarily-bans-answers-from-openais-chatgpt-chatbot/Auch wird ChatGPT nicht immer kostenlos bleiben. Hier Zitat von OpenAI
During the research preview, usage of ChatGPT is free
@hans_999 sagte in Chat GPT - muss man gesehen haben:
Wie wär's denn mit einer direkten Einbindung in ioB?
wie sollte die "Einbindung" aussehen?
versuch mal den usecase genauer zu beschreiben.
Per IFrame kannst du heute schon einbinden.
oder sollte direkt code irgendwohin übernommen werden?
ich glaube so vollständig sind die antrorten dann doch nicht -
Mit dem Einbinden der GPT3 API gibt es noch ein anderes Problem:
Die Kosten sind schwer ab zu schätzen da sie von der Menge der Verarbeiteten Daten abhängt.
Außerdem nimmt sich openAI raus selbst zu entscheiden ob man die API für sein Projekt überhaupt nutzen darf. Dafür muss man die Nutzung aber sehr genau beschreiben. Könnte Schwierig werden.Und zu guter letzt Analysieren die auch alle Daten.
Nur deswegen konnten sie ChatGPT überhaupt erstellen. Es gibt nämlich schon seit letztem Jahr einen Chatbot der auf GPT3 Basiert, der sich eben auch möglichst Menschlich verhält.Ansosten kann ich sagen, da fehlt noch viel bis GPT egal in welcher Form Eigenständig funktionsfähigen Code erstellt denn man nicht Kontrollieren muss. Ich Arbeite mit Github CoPilot und das nimmt schon einiges an Arbeit ab, wenn man immer wieder code nachdem selben Muster schreibt. Das ist dann ne Copy & Paste Funktion auf Steroiden.
Aber oft genug kommt es vor das er Plötzlich in einer Schleife steckt und den exakt selben code Wiederholt.
Ich Kontrolliere auch immer jede Zeile Code weil immer mal wieder kleine Fehler drin sind. Wenn man den Code nicht versteht ist es aber recht Schwer Fehler zu finden.
Also sollte man schon ein gutes Verständnis für die Sprache haben.Ja ich weis chatGPT verbessert seinen Code auch selbst wenn man ihn frägt.
Aber vergesst eins nicht, die gezeigten Beispiele was ChatGPT programmieren kann sind zu 95% Themen die man als Anfänger macht. Dazu gibt es im Internet Millionenfach Beispiele und Antworten. Aber bei Fortgeschrittenen Themen wird das sehr schnell weniger. -
@oliverio sagte in Chat GPT - muss man gesehen haben:
na die datenqualität ist wohl geringer, wie man bei wikipedia davon ausgehen kann.
daher hat stackoverflow das momentan untersagtDas wird wohl eher daran liegen, dass stackoverflow berechtigterweise sauer ist, dass hier jemand mal einfach so letztlich gesammeltes Schwarmwissen monetarisieren will. Github und Copilot lassen grüßen.
Ich glaube (nach erstem Rumspielen) auch nicht, dass ChatGPT alle Programmierer überflüssig machen wird, aber es kann die Effizienz enorm steigern und damit wesentlich schneller zu fertigen Code kommen.
Und das bedeutet dann doch wieder, dass wesentlich weniger Leute zum coden nötig sein werden. Kann man ja im Moment gerade gut beobachten.
Überhaupt bleibt es spannend wohin die Reise geht.
Aber die Dinger sind nun mal in der Welt und mir fällt kein Beispiel in der Geschichte ein, wo Maschinenstürmer etwas nachhaltig verhindern konnten. -
Hallo ihr alle,
ich klinke mich hier auch mal ein, bitte aber zur Kenntnis zu nehmen, dass ich ein absoluter "Voll-Noob" bin, kein weiterführendes Wissen bzgl. Programmieren habe und eher aus "Spaß an der Freude" mein Smart Home aufgebaut habe. Ich bitte daher, mich und meine Aussagen noch als "Laie" einzustufen.
Aufgrund der Diskussionen der letzten Wochen/Monate bzgl. Midjourney, ChatGPT usw. bin auch ich auf die Idee gekommen, ob man dies nicht auch im Bereich Smart Home bzw. ioBroker verwenden könnte. Hierzu bin ich gestern über hierrüber im Forum gestolpert:
https://forum.iobroker.net/topic/8428/gedanken-zu-self-learning-ki-engine
und heute nun über diesen Beitrag hier.
Grundsätzlich finde ich die Idee, KI im Smart Home einzusetzen ziemlich spannend. Hierzu folgende Punkte (zum Teil aus dem verlinkten Beitrag:
- Man könnte hier die bisherigen, KI-technisch eher enttäuschenden Sprachassistenten ersetzen/erweitern
- Wäre es evtl. möglich, dass die KI Adapter, Instanzen und zugehörige Objekte beigebracht bekommt (sie sich selbst raussucht) und dann mit diesen umgehen kann bzw. dies lernt
2.1 Dies könnte es erleichtern, grade für Einsteiger oder Leute wie mich, die nicht viel Zeit haben, um sich alle notwendigen Kenntnisse anzueignen, Skripte zu erstellen. Direkt mit den Richtigen Verknüpfungen und Befehlen, einfach dadurch, dass man per Sprache beschreibt, was man möchte. - Auch eine einfachere Bedienung des gesamten Systems per Sprache wäre möglich (Verknüpfungen schaffen, Skripte erstellen, Objekte steuern, Adapter und Instanzen anlegen usw.)
- Durch das Lernen der KI kann dieser auch Verbindungen beigebracht werden (verschiedene Begriffe die dasselbe meinen, Verbindungen miteinander, Logiken die nicht erst als schwieriges Skript erstellt werden müssen z.B.: wenn ich fernsehen möchte, müssen bestimmte Geräte angeschaltet werden; oder ähnliches was für einen selbst klar ist, ein System aber nicht wissen kann)
- Bezug nehmen auf verschiedene Quellen, sei es Internet oder Sensoren
- Aufeinander aufbauende oder auf frühere Dinge Bezug nehmende Fragen/Befehle
Und natürlich noch vieles vieles mehr.
Natürlich gibt es hierbei auch Probleme, welche allerdings auch auf die ein oder andere Weise gelöst werden können. Die Nachfrage der KI, ob Dinge aktiviert werden sollen (von der KI erstellte Skripte zum Beispiel) oder das beschränken von Dingen innerhalb der Struktur (bestimmte Objekte oder Instanzen in ioBroker zum Beispiel), damit diese nicht verarbeitet bzw. geändert werden dürfen (öffnen eines Türschlosses als Beispiel).
Natürlich ist das noch mal mehr Aufwand zum Programieren bzw. zum Einbinden in ioBroker, ich meine nur, dass es hier auch sicher möglichkeiten gibt die KI zu beschränken.Ich für meinen Teil fände die Idee ersteinmal ziehmlich gut! Auch und wie gesagt weil es in meinen Augen auch einige der derzeitigen Probleme mit dem Smart Home lösen könnte und Smart Home "Intuitiver" machen könnte.
Vielleicht ist das ganze noch Zukunftsmusik, aber wenn wir jetzt nicht damit anfangen, wird es nur noch länger dauern bis wir wirklich ein "Smartes" Zuhause haben. Außerdem durchaus denkbar, dass wir dann der Technik hinterher hinken.
Ach ja, eins fällt mir noch ein: Ich glaube es war auch in dem verlinkten Beitrag. Hier wurde darüber diskutiert, dass man wissen müsste wer grade wo ist bzw. wer grade bestimmte befehle gibt. Hier ist doch selbst Alexa mittlerweile zumindest dazu in der Lage, verschiedene Menschen anhand der Stimme zu erkennen. Ok, ich habe dies noch nicht ausprobiert, aber ich gehe mal davon aus, dass es mehr oder weniger gut funktioniert.
Gruß
Jan -
Das ist sehr beeindruckend. Zumal ChatGPT den Kontext versteht.
gib mir php code für eine dreispalttige ausgabe auf einer webseite
--> schwupps kommt da code
Im gleiche Chat danndie daten sollen aus einer mysql datenbank kommen. die spalten enthalten name, vorname, telefonnummer
--> erweiterter code plus Hinweise
Vergewissern Sie sich, dass Sie die Verbindungsdetails für Ihre MySQL-Datenbank entsprechend anpassen ($servername, $username, $password, $dbname). Außerdem müssen Sie den Namen der Tabelle (table_name) und die Spaltennamen (name, vorname, telefonnummer) anpassen.
Microsoft investiert gerade Milliarden in die Firma, ChatGPT wird in Bing eingebunden und bei Google haben sie Alarmstufe Rot ausgerufen. Das ist sicher keine Eintagsfliege
-
@rewenode sagte in Chat GPT - muss man gesehen haben:
Das wird wohl eher daran liegen, dass stackoverflow berechtigterweise sauer ist, dass hier jemand mal einfach so letztlich gesammeltes Schwarmwissen monetarisieren will
Das sehe ich anders. Ein Windparkbetreiber monetarisiert auch nicht den Wind der sowieso da ist, sondern er lässt sich bezahlen, dass er die Energie im Wind in für alle nutzbare elektrische Energie umwandelt. openAI monetarisiert nicht den Zugriff auf Schwarmwissen, der ist nämlich immer noch kostenlos, sondern ihr Geschäftsmodell ist dieses Wissen aufzuarbeiten, aufzubereiten, zueinander in Beziehung zu setzen und in verständlicher Form auszugeben.
-
Die Herausforderungen der KIs ist nicht das Wissen, sondern das Lernen.
Alle die genannten KIs mussten erst einmal lernen.
Leider funktioniert das nicht so, das man einer KI unstrukturierte Inhalte hinwirft und sagt: Mach mal.Bei ChatGPT hat man der KI beigrebracht ein Verständnis für den Aufbau von Sprache und vor allem Kontext beizubringen. Dann hat man ihr/ihm ne Menge Internetseiten zum lernen gegeben. Die hat die KI dann gespeichert (aber nicht Wort für Wort, sondern als Beziehungen der Wörter zu einem Kontext.
Wenn du dann eine Frage stellst, dann analysiert die KI die Worte wiederum nach dem Kontext. Der Output erfolgt dann auf Basis der statistischen Wahrscheinlichkeit welches Wort auf die zuvor geschriebenen und vor allem dem analysierten Kontext am besten passt.
Ich hab mal gelesen das ChatGPT ca 1000 Tokens (Ein Wort <> ein Token) sich merken kann. Danach weiß es nicht mehr was zuvor gesagt/gefragt wurde.Bei den Bilder KIs sind der KI viele Bilder mit einer Bildbeschreibung vorgesetzt worden. Die KI ist in der Lage einzelne Elemente des Bildes zu erkennen und einem mitgelieferten Tagging zuzuordnen.
Mit Google funktioniert das heute schon mit der Bildersuche. Wenn ihr bspw "Sonnenuntergang im Wald" oder eine andere Bildbeschreibung eingebt, dann liefert euch Google heute schon entsprechende Bilder. Halt keine generierten, sondern echte Bilder aus dem Netz.Zu deinem Wunsch, das die KI weiß wie man mit irgendeinem beliebigen Gerät umgehen kann: Dazu muss man die KI trainieren, so das sie dann bei neuen Geräten dann weiß was es können müsste.
Wenn es einen Standard geben würde, mit dem alle Geräte gleichartig angesprochen werden könnten bzw. gleichartig nach seinen Fähigkeiten befragt werden könnten, dann würde da schon viel gehen. Mal schauen was Matter bringt und wie viele Firmen da ihre proprietären Erweiterungen mit reinbringen, das es nicht ganz so einfach bleibt.Wenn das soweit ist, dann können die Sprachassistenten dann auch flexibler reagieren.
Das was du heute kennst, würde ich sagen, sind Sprachassistenten der alten Generation. Wart mal ab, bis ChatGPT (oder irgendeine andere KI) schnell genug ist, das es mit dir auch sprechen kann.
Ich warte ja noch auf ein OpenSource GPT. Für Bilder gibts das schon. StableDiffusion kann sich jeder laden und selber trainieren. Ich habe bspw einige meiner Profilfotos trainiert und kann mir selbst Bilder rauslassen, wie teuer bei Lensa sonst.
Wer Link zu Video haben will, Bescheid geben. Ein wenig technisches Verständnis gehört allerdings dazu. -
@oliverio sagte in Chat GPT - muss man gesehen haben:
Wer Link zu Video haben will, Bescheid geben.
Bescheid
-
Hier der Link
https://www.youtube.com/watch?v=mnCY8uM7E50Genau so macht es Lensa auch. die haben es halt automatisiert.
Denen ihre Kunst ist es aber, die richtigen Prompts definiert zu haben
mit einer hohen Trefferwahrscheinlichkeit für gute Bilder. -
Darf ich mit plaudern und mit experimentieren?
Ich habe jetzt schon einige Unterhaltungen geführt.
Die ersten waren recht ernüchternd. Ich frage nach überprüfbaren Fakten meist aus Technik oder sonstigem Allgemeinwissen wie "Wo ist die größte Pelton Turbine und welche Leistung hat sie". Die ersten Antworten klangen gut, waren aber falsch. Durch weiteres nachfragen wurden die Antworten besser.
Nach einigen Wochen kamen die richtigen Antworten schneller.Jetzt habe ich mal versucht, mir ein JavaScript Programm zur Histogrammbildung schreiben zu lassen.
Hier meine Eingaben:
<<I have the home automation system ioBroker which is based on javascriptin time intervals of ca. 1 to 3 seconds I get a new data value p representimg a physical power value with the unit W.
I also get the time in epoch (milliseconds) when this data p was delivered. I already calculated the time duration between the two last data inputs as a variable timeDurationPlease, create a Javascript which calculates a histogram
The input data p has a range between 0 and pMax. As an examle pMax = 10000
The input data comes in diverse time distances but together with a time stamp in epoch
The bin size of the histogram is binSize and the numbers of bins is binNumber as an example we use a bin size of 500 and a bin number of 20The histogram data is the cumulated time when the input was within the bin, that means timeDuration. As an example If the input data p would bb 1200 and the timeDuration 1850, than we have to add 1850 to the bin value of the bin between 1000 and 1500
At the end of the day at 23:50 I want to store a daily CSV file with the histogram data. The histogram data should be converted from ms into hour
Additionally at the end of the day at 23:50 the daily histogram values have to be added to a long term histogram. The values of the long term histotogram have the unit hour too.
After that, the daily histogram has to be cleared to be reset for the next day>>Als Antwort kam folgender Code:
// Initialize histogram bins const binSize = 500; // W const binNumber = 20; const binValues = new Array(binNumber).fill(0); const binEdges = [...Array(binNumber + 1).keys()].map((i) => i * binSize); // Initialize variables for long-term histogram let longTermHistogram = new Array(binNumber).fill(0); // Function to update histogram function updateHistogram(power, timeDuration) { // Find the bin where the power value belongs const binIndex = binEdges.findIndex((edge) => power < edge); // Add the time duration to the corresponding bin if (binIndex > 0) { binValues[binIndex - 1] += timeDuration; } // Update long-term histogram longTermHistogram = longTermHistogram.map((value, index) => { return value + binValues[index]; }); // Clear daily histogram at 23:50 const currentDate = new Date(); if (currentDate.getHours() === 23 && currentDate.getMinutes() === 50) { // Convert daily histogram from ms to hour and store as CSV const dailyHistogram = binValues.map((value) => value / 3600000); // ms to h const dailyHistogramCsv = dailyHistogram.join(","); // TODO: store daily histogram CSV to file // Reset daily histogram binValues.fill(0); } }
To use this function, you would need to call it with the power and timeDuration values every time you receive a new data input. For example:
javascript
// Example usage const pMax = 10000; // Wh const power = Math.floor(Math.random() * pMax); // Random power value const time = Date.now(); // Current time in epoch const timeDuration = ... // Calculate time duration since last input updateHistogram(power, timeDuration);
Note that you need to implement the calculation of timeDuration based on the timestamp of the current input and the previous input. Also, you need to add the code to store the daily histogram CSV file to a file (e.g., using the fs module in Node.js).
Meine Antwort:
<<Thanks a lot, I will test it. Is it allowed to discuss this program also in a public forum?>>ChatGPT antwortet:
<<Yes, you are welcome to discuss this program in a public forum. However, please note that the code I provided is just one possible implementation and there may be other ways to achieve the same result. Also, please make sure to properly credit the original source if you are using or modifying the code.>>Offensichtlich kennt ChatGPT deutlich mehr JavaScript Funktionen als ich - was allerdings sicher keine große Kunst ist.
Fängt schon damit an, daß ich mit => nichts anfangen kann, ChatGPT damit aber kräftig herumjongliert.
Und auch solche Anweisungen wieconst binEdges = [...Array(binNumber + 1).keys()].map((i) => i * binSize);
sind mir unklar.
Also weiter gehts mit der Frage an ChatGPT:
<<Sorry, I just have basic knowledge of javascript, but I am willing to learn. You are using the operator => What does it do?>>
ChatGPT:
<<The operator => is called the arrow function expression or arrow function syntax in JavaScript. It is a shorthand syntax for defining a function.Here is an example of a regular function that adds two numbers:
function add(a, b) { return a + b; }
And here is the same function defined using arrow function syntax:
const add = (a, b) => { return a + b; };
The arrow function syntax has several benefits:
- It is more concise and easier to read, especially for small functions.
- It does not create a new scope, so it uses the this value of the enclosing scope.
- It does not bind its own this value, so it can be used as a callback function without losing the original this value.
In the code I provided, I used arrow function syntax in two places:
- In the map function to update the long-term histogram:
javascript
longTermHistogram = longTermHistogram.map((value, index) => {
return value + binValues[index];
});This is equivalent to:
javascript
longTermHistogram = longTermHistogram.map(function(value, index) {
return value + binValues[index];
});- In the findIndex function to find the bin index for the power value:
javascript
const binIndex = binEdges.findIndex((edge) => power < edge);
This is equivalent to:
javascript
const binIndex = binEdges.findIndex(function(edge) {
return power < edge;
});I hope that clarifies what the => operator does in JavaScript!>>
Nächste Frage von mir:
<<Thanks a lot. And what does this do: const binEdges = [...Array(binNumber + 1).keys()].map((i) => i * binSize);>>
ChatGPT erklärt:
<<This line of code creates an array of bin edges for the histogram.First, it creates an array of numbers from 0 to binNumber using the keys() method of a new array of length binNumber + 1:
csharp
[0, 1, 2, ..., binNumber]
Then, it multiplies each number by the binSize using the map() method to get the bin edges:
csharp
[0, binSize, 2 * binSize, ..., binNumber * binSize]
The spread operator (...) is used to convert the array returned by keys() into separate arguments for the Array constructor, which creates a new array with binNumber + 1 elements.
For example, if binNumber is 20 and binSize is 500, then the resulting binEdges array will be:
yaml
[0, 500, 1000, 1500, 2000, 2500, 3000, 3500, 4000, 4500, 5000, 5500, 6000, 6500, 7000, 7500, 8000, 8500, 9000, 9500, 10000]
These bin edges define the ranges for each bin in the histogram.>>
Das macht doch einen guten Eindruck. Oder?
-
@klassisch sagte in Chat GPT - muss man gesehen haben:
Die ersten Antworten klangen gut, waren aber falsch. Durch weiteres nachfragen wurden die Antworten besser.
Nach einigen Wochen kamen die richtigen Antworten schneller.Ja, die Erfahrung habe ich auch gemacht. ChatGPT ist richtig gut, wenn mann selber die Antwort schon weis.
Ich sag dann immer
..kalt ...kalt .. nicht mehr ganz so...
..wärmer... ja, noch ein bisschennicht ganz ernst gemeint
Aber mal ehrlich, was soll man damit anfangen, wenn man sich nicht auf die Antwort verlassen kann. -
@rewenode sagte in Chat GPT - muss man gesehen haben:
Aber mal ehrlich, was soll man damit anfangen, wenn man sich nicht auf die Antwort verlassen kann.
Wenn das System lernfähig ist, wird es dadurch immer besser. Alles fängt mal klein und unvollständig an. Also hat erst mal das System den Vorteil. Wenn das System dann richtig viel gelernt hat, die Menschen. Und wenn sich die Menschen daran gewöhnt haben, dann profitieren die, die das System beherreschen und manipulieren können. Ist aber auch nichts Neues.
-
@klassisch Den Nagel auf den Kopf getroffen.
Und hier kommt noch dazu, dass dass System ja mit allen möglichen und unmöglichen Quellen aus dem Inet gefüttert wird.
Und genau das macht mir Angst. -
Ja, aber das ist eigentlich auch nicht komplett neu. Problematisch können Monopole werden. Und da nehme ich Wikipedia nicht aus und auch die Medien sind in manchen Themen eigenartig homogen.
-
Hier liegt ein Grundlegendes Verständnisproblem vor. ChatGPT ist keine Wissensdatenbank sondern soll die Kommunikation zwischen Mensch und Maschine vereinfachen.
Dazu ist es in der Lage gegebene Informationen zu verstehen, Analysieren und eine Antwort dazu zu geben die ein Mensch versteht.Das macht das Teil wirklich gut.
Das ein gewisses Wissen dafür Notwendig ist, ist selbstverständlich, aber ohne Anbindung an externe Quellen oder zumindest Datenbanken mit Wissen ist das Ding relativ Dumm und bleibt es auch.
Neue Informationen können nicht in das Neuronale Netz von GPT eingebracht werden, dazu müsste es neu Trainiert werden. -
@jey-cee sagte in Chat GPT - muss man gesehen haben:
dazu müsste es neu Trainiert werden.
Davon gehe ich aus. Wir tragen durch unsere Beiträge gerade zu einer Trainingsdatenbank bei.
Wir werden sehen, wohin sich die Sache entwickelt.
Ich hoffe auf einen möglichst freien Wettbewerb, damit man unterschiedliche Quellen nutzen kann.
Hauptsache es stellt sich kein Monopol oder gar ein sozialistisches Staatsmonopol ein. -
@klassisch sagte in Chat GPT - muss man gesehen haben:
Wir werden sehen, wohin sich die Sache entwickelt.
Musst nur mal nach Bing Chat suchen. Der Basiert auf einem neueren GPT model. Und das macht keinen so guten Eindruck. Der hat Benutzer beschimpft und war insgesamt Emotional, da gibt es einige Berichte darüber.
Das Problem ist das sich die Neuronalen Netze auch durch die Trainingsdaten anders verhalten.
Dazu kommt das jeder Durchlauf an sich auch immer Unterschiedliche Ergebnise liefert.@klassisch sagte in Chat GPT - muss man gesehen haben:
Ich hoffe auf einen möglichst freien Wettbewerb, damit man unterschiedliche Quellen nutzen kann.
Das hoffe ich auch.
-
@jey-cee Das Problem mit den CNN ist mir leidlich bekannt.
Bereits Anfang der 90er Jahre arbeiteten wir an sogenannten Expertensystemen. Im Grunde neuronae Netzwerke mit ganz wenig Knoten, weil die Rechenleistung damals halt sehr klein war. Vax und PDP11 Klasse.
Die Dinger sind sehr schnell konvergiert auf sehr gute Trefferwahrscheinlichkeiten um die 98%. Allerdings wurde es danach nicht wirklich besser. Und wenn man täglich ein paar tausend Entscheidungen zu treffen hat, dann reichen 98% bei weitem nicht.
Aber besser machen ging nicht mit den paar Knoten, den dann doch beschränkten Trainingsdaten und der geringen Rechneleistung.
Also ging es damals wieder zurück zu traditionellen Algos.
Die Jungen Kollegen heute tendieren dazu, gelich ein CNN aufzusetzen. Oft schon bevor sie halbwegs die Physik verstanden haben. -
regex mit chatgpt
https://youtu.be/U--ZQoZaJPU?list=TLPQMTEwNDIwMjP9NI2IriU9yw&t=62
ps: habe vor kurzem ein yaml für esphome mit chatgpt erstellt