Ollama bringt Cloud-Modelle
Wenn du mir schon eine Weile auf diesem Blog folgst, weißt du: Ollama war bislang vor allem eine Lösung, um große Sprachmodelle lokal auf dem eigenen Rechner laufen zu lassen. Ich habe Ollama hier im Blog schon mehrmals vorgestellt und darüber geschrieben, wie man Modelle zieht, betreibt und mit ihnen interagiert – mit dem Vorteil, dass die Daten lokal bleiben und man Unabhängigkeit gewinnt. Aber natürlich war das mit Nachteilen verbunden: Wenn dein Rechner nicht genügend Rechenpower hat, kannst du spürbare Geschwindigkeitseinbußen erleben.
Ollama mit neuer UI – Einfacher Zugriff auf lokale KI-Modelle
Vor einiger Zeit habe ich bereits über Ollama berichtet – eine Plattform, mit der sich KI-Modelle lokal auf dem eigenen Rechner ausführen lassen. Bisher lief die Interaktion in erster Linie über die Kommandozeile. Das war zwar für Entwickler praktisch, stellte aber für viele Anwender eine gewisse Einstiegshürde dar.
Verwendung von Ollama zur Ausführung lokaler LLMs auf deinem Computer
Mit Ollama ist es möglich, Large Language Models (LLMs) lokal auf deinem PC auszuführen. In diesem Beitrag zeige ich dir, wie du die Software installieren und nutzen kannst.