Alexandr.Studio
Claude Code Ollama

Ollama trifft auf Claude Code

Alexander Sedeke | 01/25/2026

Ein echter Game-Changer für lokales KI-Coding

Gerade passiert etwas ziemlich Spannendes in der Welt der KI-Tools.

Anthropics Claude Code – ihr starkes Kommandozeilen-Coding-Agent – lässt sich jetzt problemlos mit Ollama kombinieren. Das bedeutet: Du kannst es komplett lokal betreiben, mit offenen Gewichtsmodellen, ohne auf die Cloud-API von Anthropic angewiesen zu sein.

Das ist ehrlich gesagt ein ziemlicher Hammer.

Anthropic hat seine Claude-Modelle immer sehr streng geschützt und sie nur über die eigene API zugänglich gemacht – offene Tools durften sie quasi nicht anfassen. Und jetzt machen sie plötzlich ihr richtig gutes Kommandozeilen-Tool kompatibel mit selbst gehosteten Modellen. Das hätte ich so nicht erwartet.

Was steckt wirklich dahinter?

Einerseits wirkt es, als würde Anthropic ganz bewusst die Tooling-Tür öffnen, um im Wettbewerb um Entwickler die Nase vorn zu haben.
Sie lassen dich ihre tolle agentische Coding-Erfahrung kostenlos und lokal erleben – aber die richtig starken Claude-Modelle bleiben weiterhin fest in ihrer Hand.

Das ist clever gemacht:

  • Die Haustür steht offen (das Tool selbst)
  • Der Tresor bleibt zu (ihre besten Modelle)

Natürlich ist die Mauer nicht komplett dicht.
Über Dienste wie OpenRouter kannst du Claude-Modelle trotzdem in anderen Tools nutzen, die keine native Anthropic-Unterstützung haben.
Aber die entscheidende Frage lautet:
Funktionieren diese umgeleiteten Versionen genauso schnell, zuverlässig und mit der gleichen Qualität wie die offizielle Anthropic-API?
In vielen Fällen vermutlich nicht – vor allem bei intensiver oder echtzeitnaher Nutzung.

Trotzdem: Für alle, die Datenschutz, Offline-Fähigkeit oder einfach keine Lust auf Token-Kosten haben, ist die Kombi Ollama + Claude Code gerade ein riesiger Gewinn.

Claude Code


Wie einfach ist die Einrichtung wirklich?

Die Integration ist erstaunlich sauber und unkompliziert.

Schritt 1: Claude Code installieren

1curl -fsSL https://claude.ai/install.sh | bash


Schritt 2: Mit Ollama verbinden

Du sagst Claude Code im Grunde nur, dass es deinen lokalen Ollama-Server benutzen soll.

Schnellste Variante:

1ollama launch claude


Oder nur konfigurieren, ohne direkt zu starten:

1ollama launch claude --config


Manuelle / flexiblere Einrichtung

Umgebungsvariablen setzen:

1export ANTHROPIC_AUTH_TOKEN=ollama
2export ANTHROPIC_API_KEY=""
3export ANTHROPIC_BASE_URL=http://localhost:11434


Danach Claude Code mit einem beliebigen Ollama-Modell starten:

1claude --model qwen3-coder


Oder alles in einer Zeile:

1ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 ANTHROPIC_API_KEY="" claude --model glm-4.7


Welche Modelle laufen am besten?

Aus meinen eigenen Tests und dem, was ich in der Community sehe, glänzt Claude Code besonders mit Modellen, die große Kontextfenster haben. Diese laufen aktuell richtig stark:

  • qwen3-coder
  • glm-4.7
  • gpt-oss:20b
  • gpt-oss:120b

Je größer das Kontextfenster, desto besser kann das Modell langen Coding-Sitzungen, komplexen Refactorings und Änderungen über mehrere Dateien folgen.

Mein Fazit

Das fühlt sich für mich wie eine sehr kalkulierte, aber durchaus entwicklerfreundliche Öffnung von Anthropic an.

Sie lassen dich ihr hervorragendes Kommandozeilen-Coding-Tool kostenlos und lokal nutzen (mit offenen Modellen), schützen aber weiterhin ihre stärksten Claude-Modelle.
Es ist keine komplette Offenheit – aber deutlich mehr Offenheit, als ich von Anthropic erwartet hätte.

Wer starke KI-Coding-Unterstützung möchte, ohne Cloud-Abhängigkeit, Vendor-Lock-in oder laufende Kosten, für den ist die Kombination aus Ollama + Claude Code gerade eine der besten Optionen, die es gibt.

Und dass die Einrichtung so einfach ist?
Das ist wirklich das i-Tüpfelchen.