Ollama bringt Cloud-Modelle
Wenn du mir schon eine Weile auf diesem Blog folgst, weißt du: Ollama war bislang vor allem eine Lösung, um große Sprachmodelle lokal auf dem eigenen Rechner laufen zu lassen. Ich habe Ollama hier im Blog schon mehrmals vorgestellt und darüber geschrieben, wie man Modelle zieht, betreibt und mit ihnen interagiert – mit dem Vorteil, dass die Daten lokal bleiben und man Unabhängigkeit gewinnt. Aber natürlich war das mit Nachteilen verbunden: Wenn dein Rechner nicht genügend Rechenpower hat, kannst du spürbare Geschwindigkeitseinbußen erleben.
Azure Functions im Docker Container
Im vergangenen Jahr habe ich zusammen mit meinen Arbeitskollegen Thomas und Robert immer mal wieder über Azure Functions berichtet. Diese haben wir immer über Microsoft Azure betrieben und vorgeführt, da die Integration zwischen diesen beiden Produkten hervorragend ist. Damit ist die Funktionalität aber auch auf den Servern von Microsoft vorhanden und technisch weltweit abruf- und verwendbar. Ich habe dann mal geschaut, wie man vielleicht eine Azure Function auch ohne Microsoft Azure betreiben kann und bin dann bei einem Docker-Container hängen geblieben. Bei Docker handelt es sich um eine Software, welche die Bereitstellung einer Anwendung vereinfachen möchte. Hierzu werden Container verwendet, welche bereits alle notwendigen Pakete beinhalten und daher leicht in Form von Dateien transportiert und installiert werden können. Als Basis dient hierbei ein Image, welches alle nötigen Komponenten beinhaltet und aus dem dann später ein Container erstellt werden kann. Ich möchte jetzt einmal aufzeigen, wie wir mit wenig Aufwand ein Azure Function Projekt in einem Docker Container laufen lassen können, so dass wir dies auch ohne Probleme auf den eigenen Servern laufen lassen können.
Zunächst öffnen wir Visual Studio und legen eine neues Azure Functions Projekt an.

