By Matthias Petermann / on
18.11.2025
Local LLM mit Tiefgang - volle Transparenz statt Blackbox
Ollama ist bequem, abstrahiert aber viele Details. Dieser Artikel zeigt Schritt für Schritt, wie man die komplette LLM-Lieferkette selbst kontrolliert — vom eigenen llama.cpp-Build über transparente GGUF-Modelle bis zur schlanken lokalen API....
Mehr lesen