Ollama bringt Cloud-Modelle
Wenn du mir schon eine Weile auf diesem Blog folgst, weißt du: Ollama war bislang vor allem eine Lösung, um große Sprachmodelle lokal auf dem eigenen Rechner laufen zu lassen. Ich habe Ollama hier im Blog schon mehrmals vorgestellt und darüber geschrieben, wie man Modelle zieht, betreibt und mit ihnen interagiert – mit dem Vorteil, dass die Daten lokal bleiben und man Unabhängigkeit gewinnt. Aber natürlich war das mit Nachteilen verbunden: Wenn dein Rechner nicht genügend Rechenpower hat, kannst du spürbare Geschwindigkeitseinbußen erleben.
Ollama mit neuer UI – Einfacher Zugriff auf lokale KI-Modelle
Vor einiger Zeit habe ich bereits über Ollama berichtet – eine Plattform, mit der sich KI-Modelle lokal auf dem eigenen Rechner ausführen lassen. Bisher lief die Interaktion in erster Linie über die Kommandozeile. Das war zwar für Entwickler praktisch, stellte aber für viele Anwender eine gewisse Einstiegshürde dar.
GitHub Models: Dein Playground zum Erkunden und Vergleichen von KI-Modellen
Manchmal kann es herausfordernd sein, das richtige KI-Modell für eine bestimmte Aufgabe zu finden. Mit GitHub Models hast du die Möglichkeit, verschiedene Optionen zu testen und miteinander zu vergleichen.
GitHub Copilot Workspace: Per AI GitHub Issues bearbeiten
Heute möchte ich euch ein Feature vorstellen, an dem GitHub gerade arbeitet. Dabei handelt es sich um GitHub Copilot Workspace. Aktuell ist der Dienst als Preview verfügbar und auf der GitHub Next Webseite kann man sich auf die Warteliste setzen lassen. Ich habe dies natürlich direkt getan und habe seit kurzem entsprechend Zugriff.
Azure.AI.OpenAI NuGet Package in Version 2.0.0 veröffentlicht
In der Welt der künstlichen Intelligenz schreiten die Entwicklungen rasant voran, und Entwickler erhalten zunehmend leistungsstarke Tools, die es ihnen ermöglichen, innovative Lösungen schneller und effizienter zu entwickeln. Eines dieser Tools ist das Azure.AI.OpenAI NuGet Package, das in der Version 2.0.0 einen großen Sprung nach vorne macht. In diesem Blog-Post werfen wir einen genaueren Blick auf die Neuerungen und Vorteile dieser Version, um zu verstehen, wie sie die Arbeit mit KI in Azure revolutioniert.
SnakeAI – ChatGPT vs. Grok vs. Gemini
Ich habe bereits vor einiger Zeit einmal ChatGPT genutzt, um das klassische Spiel Snake per AI als Python-Script erstellen zu lassen. Seitdem ist einiges an Zeit vergangen und man bekommt Zugriff auf neue Modelle und daher habe ich mir gedacht, dass ich einfach mal einen Prompt nutze und damit die bekannten Large Language Models füttere. In diesem Beitrag gibt es nun das Ergebnis.
Einrichtung von Azure OpenAI
In diesem Blog-Post möchte ich die Vorbereitungen klären, die notwendig sind, um mit Azure OpenAI zu arbeiten. Wie der Name schon vermuten lässt, handelt es sich um die OpenAI-Dienste, die innerhalb von Azure laufen und dort administriert werden. Die APIs sind nahezu identisch und man kann mit dem Azure.AI.OpenAI NuGet-Package sowohl mit OpenAI als auch Azure OpenAI kommunizieren.
Einrichtung von OpenAI
In diesem Blog-Post möchte ich die Vorbereitungen klären, die notwendig sind, um mit OpenAI zu arbeiten. Dabei werde ich Schritt für Schritt aufzeigen, wie man den notwendigen Account anlegen und administrieren kann.
Abkürzungen der Künstlichen Intelligenz
In diesem Beitrag möchte ich gerne auf ein paar Abkürzungen eingehen, welche im Umfeld der Künstlichen Intelligenz immer wieder auftreten. Dabei ist zu beachten, dass die meisten Abkürzungen einen englischen Ursprung haben, aber natürlich erfolgt eine Beschreibung in deutscher Sprache.
Unvollständige Geschichte der KI
Seit geraumer Zeit ist der Begriff Künstliche Intelligenz (Artificial Intelligence) aus unserem Sprachgebrauch nicht mehr wegzudenken. Im Oktober 2022 veröffentlichte OpenAI ChatGPT und ermöglichte es damit jedem, Künstliche Intelligenz zu nutzen. Seitdem sind zahlreiche neue Modelle und Dienste aufgetaucht, aber in diesem Beitrag möchten wir uns die Geschichte der KI genauer ansehen.
Snake-Spiel in Python mit ChatGPT entwickelt
Man hört ja immer wieder von ChatGPT und die Möglichkeit, dass die künstliche Intelligenz Aufgaben übernehmen kann und einen bei verschiedenen Aufgaben unterstützen kann. Ich dachte mir einfach mal, dass ich versuchen möchte das klassische Snake-Spiel in Python mit der Hilfe von ChatGPT zu entwickeln.
Bereitstellen von Azure Open AI Services mit LLM Deployments mit Bicep
Natürlich ist es möglich, die benötigten Azure-Ressourcen über das Azure-Portal zu erstellen, aber da wir versuchen, alles zu automatisieren, können wir Bicep verwenden, um die benötigten Dienste zu erstellen. In diesem Blogbeitrag werde ich erklären, wie ihr die Bicep-Dateien schreiben könnt. Dieser Beitrag ist auch in englischer Sprache bereits auf Medium veröffentlicht worden.