@fuchs1978
eigentlich nicht. allerdings ist es wahrscheinlich mit einem online ki provider wie chatgpt noch zu teuer. kommt aber auch auf dieanzahl der täglichen abfragen bei der ki ab.
beim einsatz einer grafikkarte, die zunächst für den betrieb eines ki modells notwendig ist, kommt das geld entsprechend an stromkosten zusammen
wenn die ki-chips, welche aktuell in den ersten rechnern und handys verbaut werden kostengünstig werden, kann man auch an lokal betriebene ki modelle denken.
von der logikbehandlung müsste es jetzt schon gehen. du kannst ja mal am besten mit einem custom gpt von openai deine situation beschreiben und chatgpt sagen anhand welchen regeln du das ergebnis erhalten möchtest.
die stärke der aktuellen ki modelle liegt natürlich eher an der erkennung von künstlicher sprache, wie das einordnen von zahlen und vor allem rechnen.