Mein persönliches KI-Archiv — Self-Hosted
Ich habe mir eine eigene Wissensdatenbank gebaut die ich per KI durchsuchen kann. Alles läuft bei mir zuhause auf einem Server.
Programmiert mit Claude und die Anweisungen befolgt :-)
Was kann das System?
Ich kann Texte, Webseiten und Dateien in das Archiv speichern — und später per Suche wiederfinden. Die Suche ist "intelligent": sie versteht den Sinn einer Frage, nicht nur einzelne Wörter. Wer nach "Nudelgericht" sucht, findet auch "Spaghetti carbonara".
Links ohne Auth werden gelesen und der Inhalt auch abgelegt. Das selbe passiert auch mit PDF Files - dadurch wird auch deren Inhalt gefunden.
Jeder Eintrag bekommt eine Kategorie (Rezepte, ioBroker, Allgemein usw.) und eine eigene Seite die ich direkt im Browser aufrufen kann.
Botti (OpenClaw) hilft mit
Mein KI-Assistent Botti ist direkt angebunden. Ich schreibe ihm einfach:
`ARCH: text Unsere Backup strategie für deinen Server
ARCH: link https://... — er schickt die Seite ins Archiv
ARCH: suche Backup-Strategie — er sucht und antwortet
Das funktioniert auch per Telegram. Botti fragt vor dem Speichern kurz nach und schickt mir danach den direkten Link zum gespeicherten Eintrag.
Komponente
Technologie
Datenbank
PostgreSQL 15 + pgvector
Embeddings
Ollama + nomic-embed-text (768 Dimensionen)
Webserver
Node.js + Express
Workflows
n8n (self-hosted)
Frontend
Vanilla HTML/CSS/JS
KI-Agent
OpenClaw (Botti)
Vektorindex
HNSW + IVFFlat
!
Worauf läuft es:
PostgreSQL-Container — Datenbank mit pgvector-Erweiterung für Vektor-Embeddings, Node.js Webserver
n8n-Container — Workflow-Automatisierung für Upload, Scraping und Indexierung
Ollama-Server — Lokales KI-Modell nomic-embed-text für die Embedding-Generierung
OpenClaw-eigenes Gerät — KI-Agenten-Management, hier läuft Botti
[image: 1771785155382-image-22-02-19-30-13.png]
[image: 1771785169772-image-22-02-19-31-33.png]
[image: 1771785181015-image-22-02-19-29-33.png]