RAG ohne Magie: Auditierbare Wissensintegration für lokale LLMs
Dieser Artikel erklärt strukturiert und praxisnah, wie man eine lokale, auditierbare Wissens-Pipeline für LLMs aufbaut: Markdown → Chunking → Embeddings → SQLite → Retrieval → Prompt → llama-server. Eine minimalistische, reproduzierbare RAG-Implementierung ohne Cloud und ohne Blackbox....
Mehr lesen