20th August 2025
Ollama mit neuer UI – Einfacher Zugriff auf lokale KI-Modelle
Vor einiger Zeit habe ich bereits über Ollama berichtet – eine Plattform, mit der sich KI-Modelle lokal auf dem eigenen Rechner ausführen lassen. Bisher lief die Interaktion in erster Linie über die Kommandozeile. Das war zwar für Entwickler praktisch, stellte aber für viele Anwender eine gewisse Einstiegshürde dar.
14th August 2024
Verwendung von Ollama zur Ausführung lokaler LLMs auf deinem Computer
Mit Ollama ist es möglich, Large Language Models (LLMs) lokal auf deinem PC auszuführen. In diesem Beitrag zeige ich dir, wie du die Software installieren und nutzen kannst.