Welches KI-Modell für OpenClaw? Unsere Empfehlungen

TL;DR — Kurzantwort

OpenAI Pro, OpenRouter oder Nvidia gratis — welche Option passt zu dir und deinem Budget?

01. März 2026Aktualisiert: 04. März 20267 Min. LesezeitDie AInauten

Du hast OpenClaw installiert — und jetzt? Welches LLM soll rein? Und wie hältst du die Kosten im Griff?

Hier unsere aktuellen Empfehlungen aus der Praxis.

OpenAI Pro (200$/Monat) oder Plus (20$/Monat) bieten massig Tokens und werden offiziell von OpenClaw unterstützt. OpenAI hat die Nutzung über externe Tools wie OpenClaw explizit freigegeben.

Setup:

openclaw onboard --auth-choice openai-codex

Tipp: Nicht immer das stärkste Modell mit maximalen Thinking Tokens nutzen — dann kommt ihr damit recht weit. Für einfache Tasks reicht ein kleineres Modell, die Premium-Power spart ihr euch für komplexe Aufgaben.

Wichtig: Wenn OpenClaw nach der Einrichtung sagt "das geht nicht mit deiner Subscription" — frag konkret nach OpenAI-Codex als Provider. Dann steigt er ein und richtet es ein. (Danke an Tobias aus der Community für diesen Hinweis!)

OpenRouter gibt dir Zugang zu 100+ Modellen über einen einzigen API-Key. Du zahlst nur nach effektiver Nutzung.

Empfohlene Modelle:

  • Kimi K2.5 (Moonshot AI) — aktuell eines der besten Preis-Leistungs-Modelle
  • Auto-Router — OpenRouter wählt automatisch das beste Preis-Leistungs-Modell: openrouter.ai/openrouter/auto

Setup:

openclaw onboard --auth-choice apiKey --token-provider openrouter --token "sk-or-..."

Hinweis zu MiniMax M2.5 Coding: Wir haben das als Alternative getestet, waren von den ersten Resultaten aber nicht begeistert.

Mit einem Anthropic Max Plan (100$/Monat für 5x, 200$/Monat für 20x) bekommst du Zugang zu Claude Code — Anthropics eigenem Coding-Agenten. Claude Code nutzt Opus und Sonnet direkt über dein Abo.

Was geht:

  • Claude Code direkt nutzen (Anthropics offizielles CLI-Tool)
  • Agent SDK für eigene Agenten-Projekte — Anthropic hat klargestellt, dass das mit Max-Subscriptions erlaubt ist

Was nicht geht:

  • OAuth-Tokens aus deinem Claude-Abo in Drittanbieter-Tools (wie OpenClaw) verwenden — das ist explizit gegen die Nutzungsbedingungen

Setup Claude Code:

npm install -g @anthropic-ai/claude-code
claude

Hintergrund: Es gab kürzlich Verwirrung, als Anthropic ihre Docs aktualisiert hat und es so aussah, als würde die Nutzung des Agent SDK mit Subscriptions komplett verboten. Matthew Berman hat darüber berichtet. Thariq von Anthropic (Claude Code Team) hat dann klargestellt: "Nothing is changing about how you can use the Agent SDK and MAX subscriptions." Es war nur ein Docs-Cleanup, keine Policy-Änderung.

Wichtig: Claude Code und das Agent SDK sind eigenständige Anthropic-Produkte — sie ersetzen OpenClaw nicht, sondern sind eine Ergänzung. Wer beides nutzen will, braucht für OpenClaw weiterhin einen separaten API-Zugang (z.B. über OpenAI oder OpenRouter).

Unter build.nvidia.com kannst du dir einen kostenlosen Account erstellen und Modelle wie Kimi K2.5 gratis nutzen. Keine Kreditkarte nötig.

Setup:

export NVIDIA_API_KEY="nvapi-..."
openclaw onboard --auth-choice skip

Einschränkungen:

  • Rate Limits im Free Tier
  • Sehr langsam
  • Als Einstieg zum Experimentieren

Aus der Community (Danke Frank!) kommt ein spannendes Setup für Multi-Agenten-Teams:

  • "Chiefs" (Teamleiter-Agenten) laufen mit Opus — für Planung und Entscheidungen
  • "Worker" (Datenbankabfragen, Dokumentation) laufen mit Sonnet — günstiger, schnell
  • Entwickler arbeiten mit Sonnet und anschließender Codex/Opus-Kontrolle
  • "Validator" für kritische Prüfungen: immer Opus

In OpenClaw kannst du verschiedenen Discord-Channels verschiedene Modelle zuweisen (z.B. Codex für Programmierung, Opus für Content).

Der größte Kostenhebel hat nichts mit dem Modell zu tun — sondern mit deiner Konfiguration.

Eure .md-Dateien (AGENTS.md, SOUL.md, USER.md etc.) werden bei jeder Nachricht mitgeschickt. Je schlanker die Konfiguration, desto weniger Tokens pro Anfrage und desto günstiger wird es.

Konkret:

  • Überflüssige Infos aus den .md-Dateien entfernen
  • Nur das reinschreiben, was der Agent wirklich braucht
  • Einfach mit OpenClaw selbst chatten und fragen, was man wie optimieren kann

Kimi K2.5 und MiniMax M2.5 sehen laut Benchmarks aus wie Opus-Konkurrenten. In der Praxis? Der blanke Horror. Bei uns ist das System einmal unbemerkt auf diese Modelle als Fallback geswitcht — die Ergebnisse waren katastrophal.

Merke: Traue keinem Benchmark, den du nicht selbst getweakt hast. Sobald ein bisschen Intelligenz nötig ist, unbedingt Opus/Sonnet oder GPT 5.3 nutzen.

Anthropic verbietet ausdrücklich, OAuth-Tokens aus Claude-Subscriptions (Free, Pro, Max) in Drittanbieter-Tools wie OpenClaw zu verwenden. Wer das trotzdem macht, riskiert einen Account-Ban.

Wer es trotzdem nutzt: Exportiere zuerst deine gesamten Claude-Chats! 🤞

Klarstellung: Claude Code und das Agent SDK direkt nutzen ist erlaubt (siehe Abschnitt oben). Nur das Durchleiten der Subscription-Tokens an Drittanbieter-Tools ist verboten.

Die Modell-Landschaft ändert sich rasend schnell. Gute Anlaufstellen:

  • X.com — für aktuelle Entwicklungen und Community-Tipps
  • OpenClaw Docs — alle unterstützten Provider und Setup-Anleitungen
  • Unsere Skool-Community — teile deine Erfahrungen und lerne von anderen

Ressourcen & Links

Ähnliche Artikel

Hinterlasse einen Kommentar

Welches KI-Modell für OpenClaw? Unsere Empfehlungen | AInauten Help