Blog

  • Lokaler Copilot in VSCode

    Lokaler Copilot in VSCode

    Effizienzsteigerung beim Programmieren mit lokalen KI-Modellen in VSCode Einführung In der sich ständig weiterentwickelnden Landschaft von Programmierwerkzeugen und -technologien sind Effizienz und Produktivität von größter Bedeutung. Entwickler suchen ständig nach Möglichkeiten, ihre Arbeitsabläufe zu optimieren und ihre Entwicklungsprozesse zu optimieren. Ein aufkommender Trend in diesem Bereich ist die Integration lokaler KI-Modelle direkt in integrierte Entwicklungsumgebungen…

    Weiterlesen

  • Ollama-Server mit Docker

    Ollama-Server mit Docker

    Einleitung Wenn du deine Entwicklungsprozesse auf die nächste Stufe bringen möchtest, ist ein KI-Assistent ein unverzichtbares Werkzeug. In diesem Artikel zeige ich dir, wie du mithilfe von Docker einen Ollama-Server einrichtest. Ich habe das Docker-Image ‚ollama/ollama‘ aus dem Docker Hub heruntergeladen und dabei die benutzerfreundliche Software Docker Desktop verwendet. Warum Docker und Ollama? Docker ermöglicht…

    Weiterlesen