v0.1.2 · CI grün · Apache-2.0 · Plattformübergreifende Binaries

Ein Schwarm Drohnen
programmiert, während Sie schlafen.

DevClaw ist ein Open-Source-Kernel für autonomes KI-Coding, geschrieben in Go. Eine Binary, null Abhängigkeiten, jedes OpenAI-kompatible LLM. Fünf Rollen, dreizehn eingebaute Tools, parallele Sub-Drohnen, Isolation per git worktree.

oder aus dem Quellcode: go install github.com/yinhe/devclaw/cmd/drone@latest

13
Eingebaute Tools
5
Rollen
5
Release-Binaries
MCP
Native Unterstützung
0
Externe Abhängigkeiten

Installation

Wählen Sie Ihr OS. Die Binary ist ca. 2,5 MiB groß und hat keinerlei Laufzeit-Abhängigkeiten.

Linux / macOS

# 1. Release-Archiv für Ihre Plattform von GitHub laden
#    (ARCH durch x86_64 oder arm64, OS durch linux oder mac ersetzen)
curl -fSL "https://github.com/yinhe/devclaw/releases/latest/download/drone_0.1.2_linux_x86_64.tar.gz" \
  | tar xz

# 2. In den PATH verschieben
sudo mv drone /usr/local/bin/

# 3. Schnelltest
drone version
drone roles

# 4. Gegen lokales Ollama (kostenlos, offline) oder ein OpenAI-kompatibles API fahren
ollama pull qwen3-coder
drone run "füge JSDoc-Kommentare zu allen exportierten Funktionen in src/utils.js hinzu"

Windows (PowerShell)

# Herunterladen und entpacken
Invoke-WebRequest -Uri "https://github.com/yinhe/devclaw/releases/latest/download/drone_0.1.2_windows_x86_64.zip" -OutFile drone.zip
Expand-Archive drone.zip -DestinationPath .

# Schnelltest
.\drone.exe version
.\drone.exe roles

Aus dem Quellcode (Go 1.24+)

go install github.com/yinhe/devclaw/cmd/drone@latest

Was in diesem Projekt ist · was nicht

DevClaw ist ein Kernel. Alles hier ist Open Source unter Apache-2.0. Keine der unten genannten Funktionen benötigt einen kostenpflichtigen Plan.

Was drin ist Apache-2.0 · kostenlos

Alles, was Sie brauchen, um autonomes Coding auf Ihrer eigenen Maschine laufen zu lassen.

  • Runtime — Agent-Loop, Kontext-Kompression, Trajektorien-Log
  • 13 eingebaute Toolsbash, file_read/write, multi_edit, agent, parallel, undo, bash_approval, …
  • 5 Rollendev, test, ops, sense, scout × 3 Berechtigungsstufen
  • MCP-Client — stdio-Transport, lädt jeden Model-Context-Protocol-Server
  • Provider — OpenAI-kompatibel (Ollama, OpenAI, StarAI, DeepSeek …) + Retry + Streaming
  • Git-worktree-Isolation — automatische Sandbox pro Task
  • CLI — eine einzige Go-Binary, ohne Abhängigkeiten, plattformübergreifend
Alles oben Genannte ist dauerhaft und kostenlos. Keine Telemetrie, kein Login, kein Rate-Limit von unserer Seite.

Was nicht drin ist intern · kein Verkauf

Das StarClaw-Team pflegt proprietäre Werkzeuge, die diesen Kernel für den internen Gebrauch umschließen.

  • Forge — Issue-Tracking & Orchestrierungsschicht
  • Pheromone — Event-Bus & Task-Pool
  • Overlord — Flotten-Management für viele Drohnen
  • Abathur — Engine für Trajektorie → destillierte Skills
  • Web-Konsole, Marketplace, Abrechnung, Support-Verträge
Sie brauchen nichts davon. Der Kernel in diesem Repo funktioniert eigenständig. Wenn Sie Vergleichbares wollen: forken Sie — Apache-2.0 lässt Sie alles darauf aufbauen.

Warum DevClaw

Gebaut, damit es heute auf Ihrem Laptop nützlich ist — nicht, um Ihnen morgen ein Abo zu verkaufen.

🐝

Schwarm-nativ ab Tag eins

Agent und Parallel sind eingebaute Tools. Eine Drohne kann bis zu 5 Sub-Drohnen starten und deren Arbeit zusammenführen. Ein Task-Baum, keine Schleife.

🎭

Rollen + Berechtigungen als harte Constraints

Fünf Rollen × drei Berechtigungsstufen (readonly, workspace_write, full_access) erzwungen in der Runtime, nicht im Prompt. Sicher per Default.

🧠

Projekt-Wissen eingebaut

DRONE.md und .drone/skills/*.md werden bei jedem Lauf automatisch eingespeist — Ihre Konventionen, Stolperfallen und Muster wandern mit der Drohne mit.

🔌

Model Context Protocol, nativ

Erstklassiger MCP-stdio-Client. Jeden Community-Server in .drone/mcp.json ablegen, und die neuen Tools folgen denselben Berechtigungsstufen.

🌲

Worktree-Isolation

Jeder Task bekommt sein eigenes git worktree. Drohnen überschreiben nie die Arbeit anderer — Parallelismus ohne Merge-Hölle.

📦

Eine Go-Binary · null Abhängigkeiten

Vorgebaute Releases für linux/mac/windows × amd64/arm64. ~2,5 MiB. Läuft hinter jeder Firewall mit jedem OpenAI-kompatiblen LLM.

Lust, es auszuprobieren?