Ollama GUI Projekt
GitHubEntwicklung einer Streamlit-Oberfläche für Ollama — von der Motivation über die Umsetzung bis zum fertigen Profil- und Token-Tracking-System.
Inhalt
Motivation
Ollama stellt lokale Sprachmodelle als REST-API bereit, bietet aber keine grafische Benutzeroberfläche. Ziel war eine einfache, konfigurierbare GUI, die verschiedene Modelle und Profile verwaltet und direkt im Browser bedienbar ist.
Technologie
Umgesetzt mit Streamlit als Frontend-Framework. Streamlit ermöglicht schnelle UI-Entwicklung in reinem Python ohne separate Frontend-Kenntnisse. Die Kommunikation mit Ollama läuft über dessen REST-API.
Profile & Konfiguration
Jedes Profil speichert Modell, System-Prompt, Temperatur und maximale Token-Anzahl. Profile lassen sich zur Laufzeit wechseln. Konfigurationen werden als JSON lokal gespeichert.
Token-Tracking
Jede Anfrage wird mit Input- und Output-Token protokolliert. Eine Session-Übersicht zeigt den kumulierten Verbrauch. Das hilft beim Vergleich von Modellen und beim Optimieren von Prompts auf Effizienz.