AI 21 Aug 2024 Phi-3 Mini mit ONNX als lokales Small Language Model nutzen In diesem Blog-Post möchte ich die Vorbereitungen klären, die notwendig sind, um das Phi-3 Mini-Modell mithilfe von ONNX als lokales Small Language Model...
AI 14 Aug 2024 Verwendung von Ollama zur Ausführung lokaler LLMs auf deinem Computer Mit Ollama ist es möglich, Large Language Models (LLMs) lokal auf deinem PC auszuführen. In diesem Beitrag zeige ich dir, wie du die Software installieren...