PromptQuorumPromptQuorum
Startseite/Power Local LLM/Offline-Entwicklungsumgebung ohne Internet: Vollständig lokal codieren (2026)
Coding Assistants

Offline-Entwicklungsumgebung ohne Internet: Vollständig lokal codieren (2026)

·15 Min. Lesezeit·Von Hans Kuepper · Gründer von PromptQuorum, Multi-Model-AI-Dispatch-Tool · PromptQuorum

**Eine vollständig offline Entwicklungsumgebung im Jahr 2026 benötigt fünf Dinge auf der Festplatte, bevor Sie die Verbindung verlieren: ein quantisiertes lokales LLM (Qwen3-Coder 30B Q4_K_M, ~18 GB), eine Editor-Integration, die ohne Heimweh spricht (Continue.dev oder Aider), eine lokale Dokumentationsspiegelung (Devdocs ~3 GB oder Zeal Docsets ~5 GB), eine gepufferte Paketregistrierung für die Sprachen, die Sie verwenden (Verdaccio für npm, devpi für pip, vendored Cargo Deps für Rust), und rga plus ripgrep zum lokalen Durchsuchen von Code und PDFs. Gesamtfestplatte: etwa 50–80 GB je nach Dokumentationsabdeckung und Sprachenverfügbarkeit. Hardware-Minimum: 32 GB unified RAM (Apple Silicon) oder 16 GB VRAM (diskrete GPU) für das 30B-Modell; das 7B-Fallback läuft auf 16 GB unified RAM. Die zwei Dinge, die wirklich offline nicht funktionieren, sind die Installation von Paketen, die sich nicht in Ihrem lokalen Cache befinden, und das Wissen des Modells über APIs, die nach seinem Training-Cutoff veröffentlicht wurden – pre-cachen Sie, was Sie benötigen, bevor Sie das Signal verlieren.**

Eine vollständig offline Entwicklungsumgebung im Jahr 2026 passt auf etwa 60 GB Festplatte und übersteht einen 14-Stunden-Flug ohne eine einzige Netzwerkverbindung. Der Stack besteht aus einem lokalen LLM (Qwen3-Coder 30B), einer Editor-Integration (Continue.dev oder Aider), einer lokalen Dokumentationsspiegelung (Devdocs oder Zeal), einer gepufferten Paketregistrierung (Verdaccio für npm, devpi für pip) und einer lokalen Code-Suche (ripgrep plus rga). Die einzigen Dinge, die wirklich offline nicht funktionieren, sind die Installation von völlig neuen Third-Party-Paketen und das Wissen des Modells über APIs, die nach seinem Training-Cutoff veröffentlicht wurden – beide lassen sich durch Vorherunterladen lösen, bevor Sie die Verbindung verlieren.

Wichtigste Erkenntnisse

  • Fünf Komponenten machen eine Entwicklungsumgebung wirklich offline: lokales LLM, Editor-Integration, Paketcache, Dokumentationsspiegelung, lokale Suche. Lassen Sie eine aus und Sie werden innerhalb einer Stunde echter Arbeit auf eine „braucht Internet"-Wand treffen.
  • Festplattenbudget: etwa 50–80 GB. Qwen3-Coder 30B Q4_K_M ist ~18 GB; Devdocs ist ~3 GB; ein Stack-Overflow-Dump ist ~8 GB; der Rest sind Paketcaches der Größe der Sprachen und Projekte, die Sie tatsächlich anfassen.
  • Hardware-Minimum: 32 GB unified RAM (Apple Silicon) oder 16 GB VRAM (diskrete GPU) für das 30B-Modell, 16 GB unified RAM für das 7B-Fallback. Empfohlener Sweet Spot: M5 MacBook Pro mit 64 GB – Modell, Editor, Docker und Browser passen alle ohne Paging rein.
  • Continue.dev und Aider laufen beide vollständig offline gegen einen lokalen Ollama oder llama.cpp Endpoint. Kein Telemetrie-Aufrufe, keine Lizenzprüfungen. GitHub Copilot, Cursors Tab-Autocomplete und Codeium benötigen alle Netzwerkaufrufe und bauen still ab, wenn offline.
  • Die zwei Dinge, die wirklich brechen: Installation von völlig neuen Third-Party-Paketen (kein Cache-Hit, kein Fallback) und Fragen des Modells über APIs, die nach seinem Training-Cutoff veröffentlicht wurden. Beide sind durch Vor-Caching zu beheben.
  • Der 14-Stunden-Flugtest bestand: ein echtes Feature ausgeliefert, zwei Bugs behoben, vollständige Test-Suite durchgeführt – alles ohne einen einzigen Netzwerkaufruf. Das Setup ist echt, nicht theoretisch.

Schnelle Fakten

  • Stack: Qwen3-Coder 30B (oder 7B) + Continue.dev oder Aider + Devdocs (oder Zeal) + Verdaccio (npm) und devpi (pip) + ripgrep und rga.
  • Festplatte insgesamt: ~50–80 GB je nach Sprachenverfügbarkeit und ob Sie den Stack-Overflow-Dump cachen.
  • Hardware Sweet Spot: Apple M5 MacBook Pro 64 GB. Unified RAM bedeutet, das 30B-Modell und Ihr Editor und Docker teilen einen Pool.
  • Qualität offline vs. online: identisch für das Modell selbst – Autocomplete, Refaktorierungen und Code-Review fühlen sich gleich an. Der Reibungspunkt ist um das Modell herum, nicht darin.
  • Latenz offline: ~280 ms Autocomplete auf M5 (schneller als Roundtrip zu Copilot-Servern, wenn Sie Signal haben).
  • Open-Source durchgehend: Ollama (MIT), Continue.dev (Apache), Aider (Apache), Qwen3-Coder (Open-Weight), Devdocs (MPL), Zeal (GPL).
  • Updates: das Setup ist „Snapshot dann Run" – sobald alles gecacht ist, bleibt es aktuell, bis Sie es aktualisieren wählen. Online aktualisieren, dann wieder offline gehen.

Der Offline-Stack

Fünf Komponenten, eine für jede Aufgabe, die das Netzwerk normalerweise erfüllt. Entfernen Sie eine davon und das Setup wird während echter Arbeit an eine Wand stoßen. Die Tabelle zeigt jeden Online-Tool und seinen Offline-Äquivalent mit dem Festplattenbudget, das Sie einplanen sollten.

📍 In einem Satz

Eine vollständig offline Entwicklungsumgebung in 2026 ist ein lokales LLM, eine Editor-Integration, eine gepufferte Paketregistrierung pro Sprache, eine Dokumentationsspiegelung und ein lokales Suchtool – insgesamt etwa 50–80 GB Festplatte.

💬 In einfachen Worten

Stellen Sie sich jede Online-Aufgabe vor, die Ihr Editor und Terminal normalerweise ausführen – Pakete abrufen, Docs nachschlagen, Stack Overflow durchsuchen, Copilot fragen – und befestigen Sie einen lokalen Ersatz für jede auf Ihrem Laptop. Nach der einmaligen Pre-Flight-Pufferung hängt keine dieser Aufgaben vom Netzwerk ab. Das Modell lebt auf der Festplatte, die Docs leben auf der Festplatte, die npm-Registrierung lebt auf der Festplatte. Der einzige Ausfallmodus ist „Ich brauche ein Paket, das ich noch nicht gepuffert habe" – und auch dafür gibt es eine Lösung.

KomponenteOnline-ToolOffline-ErsatzCache-Größe
KI-Code-VervollständigungGitHub Copilot, Cursor TabContinue.dev (oder Aider) + Ollama + Qwen3-Coder 30B~18 GB (nur Modell)
Offizielle DokumentationMDN, ReadTheDocs, offizielle SeitenDevdocs (Web-App) oder Zeal (Desktop)~3–5 GB
Stack Overflowstackoverflow.comStack Exchange Daten-Dump (Kiwix oder lokaler Index)~8 GB (komprimiert)
npm-Paketeregistry.npmjs.orgVerdaccio mit npm install --prefer-offline gewärmtem CacheProjektabhängig (~2–10 GB typisch)
Python-PaketePyPIdevpi oder lokale Wheels via pip downloadProjektabhängig (~1–5 GB typisch)
Rust-Cratescrates.iocargo vendor für Projekt-Deps; gepuffertes ~/.cargo/registryProjektabhängig (~0,5–3 GB typisch)
Go-Moduleproxy.golang.orgLokaler Athens-Proxy oder GOFLAGS=-mod=vendorProjektabhängig (~0,5–2 GB typisch)
Code-SucheGitHub-Suche, Sourcegraphripgrep (rg) für Code, rga für PDFs und Archive~10 MB (nur Binärdateien)
Git-RemotesGitHub, GitLabVorgeklonte Repos mit --mirror oder lokales GiteaPro Repo-Größe
Container-ImagesDocker Hub, GHCRLokales Registry-Mirror oder vorgeholte ImagesProjektabhängig

📌Note: Sie brauchen am ersten Tag nicht alle zehn davon. Das minimal nützliche Offline-Setup ist das LLM, Continue.dev oder Aider und der Paketcache für die Sprache, die Sie auf der Reise verwenden möchten. Fügen Sie Devdocs und den Stack-Overflow-Dump hinzu, sobald die Grundlagen funktionieren.

Der 14-Stunden-Flugtest: Was wirklich passierte

Das Setup wurde auf einem Transpazifikflug im März 2026 getestet – 14 Stunden, kein Wi-Fi (gekaufter Airline-Pass fiel beim Gate-Ausgang aus und kam nie zurück). Im Folgenden wird beschrieben, was funktionierte, was beinahe brach und was die Reise ohne Vorbereitung zum Stillstand gebracht hätte.

Die Ausgabequalität auf einem lokalen Modell hängt davon ab, wie Sie es auffordern. Strukturierte Prompting-Techniken, die die Code-Generierung auf jedem lokalen Modell verbessern, finden Sie unter Write Better Code With AI.

  • Stunde 1 – Laptop herausgezogen, ein Next.js-Projekt geöffnet, das ich am Vorabend geklont hatte. Continue.dev war bereits auf Ollama auf localhost:11434 ausgerichtet. Cmd+I auf eine Funktion gedrückt, die ich umgestalten wollte. Diff erschien in 2 Sekunden. Akzeptiert. Das Modell war Qwen3-Coder 30B Q4_K_M im Speicher; es war dort seit ich gepackt hatte.
  • **Stunde 3 – Musste eine neue Abhängigkeit hinzufügen: @tanstack/react-query.** npm install ausgeführt. Verdaccio bediente es aus dem lokalen Cache (ich hatte npm install einmal zu Hause als Rauchtests durchgeführt). Insgesamt verstrichene Zeit: 4 Sekunden. Keine Netzwerkaufrufe in tcpdump beobachtet (ja, ich habe überprüft – es war dieser Flugtyp).
  • Stunde 5 – Vergaß die genaue Signatur einer Zod-Methode. Devdocs in einem Browsertab geöffnet. Das Zod-Docset war enthalten. Antwort in 8 Sekunden gefunden. Kein „Lädt…"-Spinner.
  • **Stunde 6 – Versuchte ein Paket zu installieren, das nicht im Cache ist: vitest-html-reporter.** npm install schlug mit einem 404 von Verdaccio fehl. Dies war die erste Wand. Der Fallback: Ich hatte das Repo lokal geklont, die Quelle manuell in node_modules kopiert und package.json bearbeitet, um auf einen lokalen Pfad zu zeigen. Dauerte 12 Minuten. Die Lösung ist präventiv: Wärmen Sie den Cache für alles auf, das Sie möglicherweise brauchen, bevor Sie das Signal verlieren.
  • Stunde 8 – Fragte das Modell über eine Bibliothek, die im Februar 2026 veröffentlicht wurde. Es halluzinierte die API selbstbewusst. Qwen3-Coders Trainings-Cutoff war Oktober 2025; Februar-2026-APIs waren nicht in den Trainingsdaten. Die Lösung: Ich hatte das Repo der Bibliothek lokal mit rga indiziert, bevor der Flug losging. Durchsuchte die tatsächliche Quelle. Fand die echte Signatur. Die Lektion: Das Modell kennt, was in seinen Trainingsdaten war; für alles Neuere sind die Docs und die Quelle Ihre Autorität.
  • Stunde 11 – Ran die vollständige Test-Suite. 423 Tests, 4,7 Sekunden. Keine Regressionsfehler. Der Test-Runner kümmert sich nicht um das Netzwerk.
  • Stunde 13 – Schob nichts. Git-Commits sammelten sich lokal an. Als das Flugzeug landete, lief ich git push einmal in der Flughafenlounge. 17 Commits in einem Push. Das lokal-erste Git-Modell macht dies möglich – der einzige netzwerkabhängige Schritt ist der eventuelle Push.
  • Nettoresultat: ein Feature ausgeliefert, zwei Bugs behoben, 11 neue Tests geschrieben, drei Commits, auf die ich immer noch stolz bin. Stunden produktiv: etwa 11 von 14 (der Rest war Essen, Schlafen und Umgang mit der rogue dependency in Stunde 6). Das Setup zahlte sich in diesem Flug allein aus.

💡Tip: Führen Sie eine „lights-off"-Probe zu Hause durch: schalten Sie Wi-Fi aus, deaktivieren Sie den Mobilfunk-Hotspot und versuchen Sie, eine normale 90-Minuten-Arbeitssitzung zu machen. Sie werden die Lücken in Ihrem Cache finden, bevor Sie sie in 35.000 Fuß Höhe finden. Häufige Erkenntnisse: ein TypeScript-only-Import, der von @types zog, ein pnpm install, das den npm-Cache umgeht, ein Docker-Basis-Image, das nicht vorgezogen ist.

Pre-Flight-Checkliste: Nummerierte Schritte

Führen Sie diese Liste am Tag vor dem Verlust der Konnektivität durch. Jeder Schritt dauert 1–10 Minuten; die gesamte Liste dauert beim ersten Mal etwa eine Stunde, 15 Minuten bei nachfolgenden Reisen, weil die Caches bestehen bleiben.

  1. 1
    Rufen Sie das lokale LLM ab. ollama pull qwen3-coder:30b (oder :7b, wenn Sie auf einem 16-GB-Computer sind). Überprüfen Sie mit ollama run qwen3-coder:30b "say hi" – es sollte in Sekunden antworten.
  2. 2
    Installieren und konfigurieren Sie Continue.dev (oder Aider). Öffnen Sie VS Code, installieren Sie die Continue.dev-Erweiterung, bearbeiten Sie ~/.continue/config.json, um auf http://localhost:11434 (Ollama-Standard) zu zeigen. Test durch Öffnen einer Datei und Drücken von Cmd+I.
  3. 3
    Wärmen Sie den Paketcache für Ihr Projekt auf. cd in das Projekt, führen Sie npm install (oder pip install -r requirements.txt, oder cargo build, oder go mod download) aus. Verdaccio, devpi oder Cargo werden alles beim ersten Durchlauf auf der Festplatte cachen.
  4. 4
    Führen Sie einen Beispiel-Install aller optionalen Abhängigkeiten durch, die Sie möglicherweise brauchen. Wenn Sie möglicherweise mid-Flight @tanstack/react-query oder zod hinzufügen, führen Sie jetzt einen Einweg-npm install dafür in einem Scratch-Verzeichnis durch. Die Pakete landen im Cache.
  5. 5
    Klonen Sie die Repos vor, auf die Sie möglicherweise verweisen. git clone --mirror ist am sichersten – Sie erhalten die vollständige Historie und alle Branches, ohne das Netzwerk später zu benötigen.
  6. 6
    Synchronisieren Sie Devdocs (oder laden Sie die Zeal-Docsets herunter, die Sie benötigen). Wählen Sie in Devdocs Einstellungen → Auto-Update deaktivieren → Alle herunterladen. Die Docsets, die Sie benötigen (TypeScript, Node, React, Python, Rust), landen lokal.
  7. 7
    Rufen Sie alle Docker-Images vor, die Sie möglicherweise verwenden. docker pull node:20-alpine, docker pull postgres:16, usw. Sie werden aus dem lokalen Speicher bereitgestellt, wenn Sie später docker compose up verwenden.
  8. 8
    Führen Sie die Test-Suite einmal auf dem Projekt aus. Fängt fehlende Build-Artefakte auf (kompilierte TypeScript, generierte Prisma-Client) ab, bevor Sie 35.000 Fuß von einem Netzwerk entfernt sind.
  9. 9
    Trennen Sie sich 30 Minuten lang und testen Sie erneut. Schalten Sie Wi-Fi aus, deaktivieren Sie Mobilfunk und versuchen Sie, fünf Minuten echte Arbeit zu leisten. Alles, das fehlschlägt – beheben Sie es jetzt, nicht beim Gate.
  10. 10
    Laden Sie alles auf. Batterie ist der zweite Offline-Ausfallmodus neben einem verpassten Cache. Zwei Stunden LLM-Nutzung auf einem M5 MacBook Pro verbrauchen etwa 30–40 % der Batterie – planen Sie entsprechend und bringen Sie einen USB-C-Power-Bank mit Laptop-Rating mit.

💡Tip: Speichern Sie diese Checkliste als Skript. Eine 30-Zeilen-Bash-Datei (pre-flight.sh), die ollama pull, npm install, pip install, git fetch --all und docker pull für Ihre häufigen Abhängigkeiten ausführt, verwandelt den gesamten Prozess in einen Befehl. Der erste Durchlauf dauert 45 Minuten; nachfolgende Durchläufe dauern 5, weil alles gecacht ist.

Hardware: Warum ein M5 MacBook Pro mit 64 GB Unified Memory gewinnt

Für reine Offline-Codierungsarbeit ist das Apple M5 MacBook Pro mit 64 GB Unified Memory die stärkste Single-Maschine in 2026. Der Grund ist Unified Memory: GPU und CPU teilen sich einen Pool, sodass das 30B-Modell, Ihr Editor, Docker-Container und ein Chromium-basierter Docs-Viewer nebeneinander koexistieren, ohne dass es zu Paging kommt.

  • Unified Memory bedeutet, das Modell ist weder „in VRAM" noch „in System-RAM" – es ist in Memory. Wenn Sie Qwen3-Coder 30B Q4_K_M (~18 GB) laden, bleibt es resident; das Umschalten auf einen Docker-Compose-Stack verdrängt es nicht. Auf einem Laptop mit diskreter GPU mit 16 GB VRAM und 32 GB System-RAM kostet das Tauschen des Modells 5–10 Sekunden pro Wechsel.
  • Das 30B-Modell passt komfortabel in 24 GB; 64 GB hinterlässt Spielraum für alles andere. Mit 64 GB können Sie das Modell geladen haben, drei Docker-Container (Datenbank, Redis, Sandbox), VS Code, einen Chromium-Tab mit Devdocs und einen Terminal-Multiplexer, alles gleichzeitig ohne Verlangsamung.
  • Akkulaufzeit unter Last: 6–8 Stunden. Das deckt die meisten Flüge mit einer USB-C-Power-Bank ab. Der M5 ist der energieeffizienteste Chip für fortgesetzte LLM-Inferenz, der bisher an Verbraucher ausgeliefert wurde – die Energie-pro-Token-Zahl ist etwa 3× besser als Laptops mit diskreter GPU mit dem gleichen Durchsatz.
  • Kein Lüftergeräusch in einem ruhigen Flugzeug. Das M5-Gehäuse führt das 30B-Modell über längere Zeit passiv aus. Laptops mit diskreter GPU drehen hörbaren Lüftern unter Inferenzlast – kein Problem zu Hause, aber ein soziales Problem in Reihe 27.
  • Alternativen mit diskreter GPU sind im Durchsatz wettbewerbsfähig, kosten aber Kompromisse. Ein Razer Blade 16 mit RTX 4090 Mobilgerät (16 GB VRAM) führt das 30B-Modell mit höheren Tokens/Sek als ein M5 aus, aber die Akkulaufzeit unter Inferenz beträgt ~2 Stunden, Lüftergeräusch ist signifikant und die 16-GB-VRAM-Obergrenze bedeutet, dass Sie die größeren 32K-Kontext-Konfigurationen nicht auch halten können oder einen Docker-Container mit einer Datenbank neben dem Modell ausführen.
  • Für ein tieferes Hardware-Ranking siehe Best Laptops for Local LLMs in 2026 – dieser Artikel ordnet jede praktikable Option (M-Series Macs, ROG Strix, Razer Blade, Framework 16) nach Tokens/Sek, Akkulaufzeit und Gesamt-Systemspeicher.

📌Note: Wenn Sie bereits einen 32-GB-M3- oder M4-MacBook Pro besitzen, müssen Sie nicht upgraden. Das 7B-Modell läuft bequem in 8 GB RAM und liefert 80–85 % der 30B-Qualität. Die 64-GB-Empfehlung ist für Benutzer, die die Maschine speziell für Offline-Codierungsarbeit kaufen; Benutzer mit vorhandener Hardware sollten zuerst das 7B-Modell testen.

Wahl des richtigen lokalen Modells für Offline-Arbeit

Das Modell ist der größte Festplatte und Speicher-Zeilenelement; wählen Sie einmal, wählen Sie richtig. Drei vernünftige Optionen im Mai 2026, geordnet nach ihrer Handhabung von Offline-Codierungsarbeit.

  • Qwen3-Coder 30B Q4_K_M (~18 GB) – der empfohlene Standard. Best-in-class bei TypeScript, Python, Rust und Go Autocomplete; zuverlässige Tool-Aufrufe; handhabt 32K-Token-Kontexte. Benötigt 24 GB verfügbaren Speicher (System-RAM auf Apple Silicon, VRAM auf diskreten GPUs).
  • Qwen3-Coder 7B Q4_K_M (~5 GB) – der leichte Fallback. Läuft auf 8 GB Unified RAM oder 8 GB VRAM. Etwa 80–85 % der 30B-Qualität auf alltäglicher Arbeit; die Lücke zeigt sich bei Multi-Step-Umgestaltungen und langkontextigen Überlegungen. Die richtige Wahl, wenn Ihr Laptop weniger als 24 GB Speicher hat oder wenn Sie möchten, dass das Modell mit schweren Docker-Workloads koexistiert.
  • DeepSeek Coder V3 – wählen Sie dies, wenn Sie sehr lange Kontexte benötigen. DeepSeeks V3 unterstützt 128K Token; nützlich, wenn Sie über viele Dateien in einem Prompt debuggen. Größer auf der Festplatte (~25 GB in Q4_K_M); ungefähr gleichwertig mit Qwen3-Coder 30B in Raw-Qualität.
  • **Codestral 22B – die Geschwindigkeit. Schnelleres Autocomplete als Qwen3-Coder 30B; schwächer bei Tool-Aufrufen und Multi-Step-Plänen. Gut, wenn Ihr Offline-Workflow Autocomplete-dominiert ist und Sie keine Agent-Systeme verwenden.
  • Überspringen: Allzweck-Modelle unter 13B ohne Coding-Fine-Tune (Llama 3.2 7B, Mistral 7B) und jede Quantisierung härter als Q4_K_M. Beide schlagen bei echter Codierungsarbeit offensichtlich fehl.
  • Für den vollständigen Coding-Modell-Vergleich einschließlich HumanEval+ Scores pro Sprache, siehe Best Local Coding Models in 2026: Qwen3-Coder vs DeepSeek vs Codestral.

Caching von Abhängigkeiten: npm, pip, cargo, go

Paketmanager sind der zweithäufigste Offline-Fehlerpunkt nach dem LLM. Jede Sprache hat einen anderen Mechanismus; das Prinzip ist gleich – holen Sie im Voraus alles ab, das Sie möglicherweise brauchen, bedienen Sie es aus dem lokalen Speicher, wenn Sie install aufrufen.

  • npm (Node.js): Installieren Sie Verdaccio (npm install -g verdaccio), zeigen Sie npm darauf (npm config set registry http://localhost:4873/), führen Sie npm install einmal auf jedem Projekt aus. Verdaccio cacht jedes Paket lokal; nachfolgende Installationen funktionieren offline. Der Cache befindet sich in ~/.local/share/verdaccio/storage.
  • pip (Python): das einfachste Muster ist pip download -r requirements.txt -d ~/wheelhouse, dann Installieren mit pip install --no-index --find-links ~/wheelhouse -r requirements.txt. Für Multi-Projekt-Nutzung ist devpi die leistungsstärkere Option – gleiche Form wie Verdaccio für Python.
  • cargo (Rust): cargo vendor schreibt jede Abhängigkeit in ein vendor/-Verzeichnis im Projekt, plus ein .cargo/config.toml-Snippet, das cargo sagt, es zu verwenden. Sobald commitet, baut sich das Projekt offline für immer. Cargo cached auch die globale Registrierung unter ~/.cargo/registry/cache – das Vorwärmen damit mit cargo fetch deckt die meisten Use-Cases ab.
  • go (Go): das einfachste Muster ist go mod vendor pro Projekt (Go schreibt ein vendor/-Verzeichnis wie Cargo). Für globales Caching, führen Sie einen lokalen Athens-Proxy aus und stellen Sie GOPROXY=http://localhost:3000 ein.
  • pnpm und yarn (npm-flavoured): zeigen Sie sie auf Verdaccio, wie Sie npm zeigen. pnpms inhaltsadressierter Store ist standardmäßig offline-freundlich; sobald ein Paket im Store ist, teilt es jedes Projekt.
  • Brew, apt, dnf (System-Pakete): weniger entscheidend für kurze Reisen, aber wissenswert. brew bundle dump produziert einen Brewfile, den Sie später erneut ausführen können; apt/dnf haben beide Offline-Modi über apt-get download und heruntergeladene .deb/.rpm-Dateien.

💡Tip: Das einfachste Offline-Paket-Muster ist Projekt-gescoped: cargo vendor für Rust, go mod vendor für Go, npm install gegen Verdaccio für Node, pip download für Python – alles am Tag vorher auf Projektebene erledigt. Die System-weiten Caches (Verdaccio-Speicher, ~/.cargo, ~/.npm) handhaben alles, das Sie möglicherweise über Projekte hinweg brauchen.

Offline-Dokumentation: Devdocs, Zeal und Stack Overflow Dump

Das Modell kennt ungefähr, worauf es trainiert wurde; alles andere befindet sich in Offline-Docs und Code. Drei Quellen decken grob 95 % ab, was Sie googeln würden.

  • Devdocs (Web-App, ~3 GB). Eine in sich geschlossene Progressive Web App, die offizielle Docs für ~150 Sprachen und Frameworks spiegelt. Öffnen Sie devdocs.io, drücken Sie Einstellungen, aktivieren Sie die Docs, die Sie verwenden, drücken Sie „Offline verfügbar machen." Der Browser cached alles; funktioniert danach im Flugzeugmodus für immer.
  • Zeal (Desktop-App, ~5 GB). Ein nativer Desktop-Docs-Browser, der Dash-Docsets verwendet – das gleiche Format wie die macOS-Dash-App, aber kostenlos und plattformübergreifend. Bessere Tastaturnavigation als Devdocs; schwächere Suche. Wählen Sie eine oder die andere; beide sind Overkill.
  • Stack Overflow Daten-Dump (~8 GB komprimiert). Das Internet Archive hostet den offiziellen Stack Exchange Daten-Dump als Torrent. Tools wie Kiwix machen es zu einer durchsuchbaren Website, oder Sie können es mit Elasticsearch / SQLite-FTS für schnelle lokale Suche indizieren. Die Abdeckung wird am Dump-Datum beendet – normalerweise innerhalb weniger Monate – aber für allgemeine Programmierungsfragen ist das in Ordnung.
  • Projekt-spezifische Docs. Für die Bibliotheken, die Sie stark verwenden, klonen Sie das Repo und die Docs-Site-Quelle. Die meisten Dokumentations-Seiten sind statisch und befinden sich in docs/-Verzeichnissen; mkdocs build oder npm run docs:build produziert eine lokale Site, die Sie mit python -m http.server bedienen können.
  • Das Modell selbst zählt als Docs für Dinge in seinen Trainingsdaten. Qwen3-Coder 30B kennt die Standardbibliothek und wichtige Frameworks gut – TypeScript, React, Python stdlib, NumPy, die AWS SDKs. Das Modell zu fragen schlägt oft das Durchsuchen von Devdocs für diese. Die Aufteilung ist „Modell für Bekanntes, Docs für Neues, Quelle für Unbekanntes".

📌Note: Stack Overflow Inhaltsqualität variiert stark nach Tag. Der Dump ist am nützlichsten für Legacy-Sprachen und spezifische Fehlermeldungen – genau die Dinge, bei denen das Modell schwächer ist. Für Mainstream-Framework-Fragen ist das Modell schneller und genauer als die Dump-Suche.

Welche IDE funktioniert vollständig offline

Die meisten großen IDEs funktionieren offline; die Unterschiede liegen in Erweiterungen, Lizenzvalidierung und der KI-Tooling. Was zählt ist, ob die KI-Funktionen wirklich funktionieren, da dies der Bit ist, den Benutzer bemerken, wenn das Netzwerk ausfällt.

  • VS Code – funktioniert vollständig offline; KI-Funktionen hängen davon ab, welche Erweiterungen Sie verwenden. Continue.dev läuft vollständig gegen einen lokalen Ollama-Endpoint und ist das empfohlene Pairing. Der Tab-Autocomplete von Cursor macht Netzwerkaufrufe und degradiert stumm. GitHub Copilot hört sofort auf zu funktionieren.
  • JetBrains IDEs (IntelliJ, PyCharm, GoLand, WebStorm) – funktionieren vollständig offline, sobald die Lizenz gecacht ist. Der Lizenz-Server pingt periodisch (alle 30 Tage für einzelne Lizenzen) aber toleriert erweiterte Offline-Fenster. Continue.dev hat einen JetBrains-Build mit Feature-Parität.
  • Vim und Neovim – vollständig offline nach Design. Keine Lizenz-Checks, keine Telemetrie. Pairing mit Aider in einem Seiten-Terminal-Pane; oder verwende nvim mit dem llm.nvim-Plugin, das auf lokales Ollama zeigt.
  • Emacs – vollständig offline nach Design. Pairing mit Aider durch aidermacs oder rufe die lokale Ollama HTTP API direkt über gptel auf.
  • Cursor – teilweise offline. Die IDE selbst läuft ohne Internet, aber die Headline-Features (Tab-Autocomplete, Cmd+K-Agent) benötigen Cursors Cloud-Routing. Das Installieren von Continue.dev als VS Code-Erweiterung in Cursor umgeht die Limitation; Sie erhalten einen funktionierenden lokalen KI-Editor in einer Offline-fähigen IDE.
  • Für einen tieferen Vergleich der Harness-Ebene speziell siehe Continue.dev vs Cline vs Aider: Best Local Coding Agent in 2026.

💡Tip: Zum Reisen bevorzugen Sie Continue.dev gegenüber Cline. Die Autonomous-Agent-Loop von Cline streamet vollständige Datei-Inhalte ins Gespräch, verbrennt Tokens schnell – fein auf Netzstrom, weniger spaßig im Flugzeug, wo jedes Watt GPU-Zeit die Batterie kostet. Das Autocomplete-First-Design von Continue.dev verwendet dramatisch weniger Berechnung pro Sitzung.

Was wirklich offline bricht (ehrliche Liste)

Das Setup ist genuinely robust, aber fünf Dinge schlagen immer noch fehl. Die Fehlermodi im Voraus zu kennen, ermöglicht Ihnen, sie zu umgehen.

  • Installation von brandneuen Third-Party-Paketen. Kein Cache-Hit, kein Fallback außer manueller Vendoring-Quelle. Die Lösung ist präventiv – alten Sie alles vor, das Sie möglicherweise möchten, einschließlich Dehnungsziele.
  • Das Wissen des Modells über Post-Cutoff-APIs. Qwen3-Coders Trainings-Cutoff war Oktober 2025 (Mai-2026-Release); nach dieser Zeit veröffentlichte APIs werden bestenfalls erraten. Die Lösung: klonen Sie die Quelle vor und rg für die echte Signatur, wenn im Zweifel. Vertrauen Sie dem Modell niemals auf Bibliotheken, die älter sind als seine Trainingsdaten.
  • Alles, das OAuth oder API-Authentifizierungs-Roundtrips benötigt. Einloggen in einen Cloud-Provider, Austausch von OAuth-Token, Treffer Ihres Teams SSO-Portal – keines davon funktioniert offline. Die Lösung: machen Sie alle Authentifizierung vor dem Start und verlassen sich auf gecachte Token (die normalerweise nach 12–24 Stunden ablaufen).
  • Browser-basiertes Testen von Remote-Services. Wenn Ihre Tests eine echte API oder eine Staging-Umgebung treffen, schlagen sie offline fehl. Die Lösung: Verwende ein lokales Mock (msw, nock, vcr) und pre-record Fixtures.
  • Bild- und Asset-Generierung, die externe Services aufruft. Cloud-basierte Image-Generatoren, Font-Services und CDN-abgerufene Assets alle fehlschlag. Die Lösung: backen Sie feste Assets ins Repo oder verwenden Sie ein vollständig lokales Image-Modell (das ist ein separater Stack).
  • Die Lösung für das „wie hieß diese Bibliothek"-Problem ist das Modell selbst. Wenn Sie Google nicht durchsuchen können, fragen Sie das Modell "wie heißt das Paket für X-Funktionalität" – für Dinge in seinen Trainingsdaten antwortet es korrekt 80–90 % der Zeit. Überprüfen Sie gegen den Paketcache, bevor Sie installieren.

Aktualisierung von Modellen und Caches später

Das Setup ist „Snapshot und Run" – sobald alles gecacht ist, bleibt es statisch, bis Sie es aktualisieren möchten. Aktualisierungen passieren online; die Offline-Sitzung verwendet, was zum Aktualisierungszeitpunkt aktuell war.

  • **Modell-Updates über ollama pull.** Wenn eine neue Qwen3-Coder-Version ausgeliefert wird, führen Sie ollama pull qwen3-coder:30b während des Online aus. Die neuen Gewichte ersetzen den alten; die vorherige Version ist weg, es sei denn, Sie haben sie getaggt (ollama tag qwen3-coder:30b qwen3-coder:30b-2026-05 vor dem Abrufen).
  • **Paketcaches aktualisieren sich beim nächsten Online-npm install / pip install / cargo update.** Kein spezieller Workflow – Ihr Paketmanager funktioniert normal, wenn Sie online sind und erstarrt, wenn Sie offline sind.
  • Devdocs aktualisiert sich standardmäßig automatisch. Deaktivieren Sie Auto-Update vor Flügen, um überraschende Downloads zu vermeiden, wenn Sie Signal am Flughafen haben (Einstellungen → Auto-Update deaktivieren).
  • Stack Overflow Dumps erfrischen sich vierteljährlich. Das Internet Archive veröffentlicht neue Dumps alle drei Monate; neu herunterladen, wenn Sie neuere Abdeckung möchten.
  • Cadence zu planen: Modell und Devdocs alle 2–3 Monate, Paketcaches pro-Projekt wenn Sie neue Arbeit starten, Stack Overflow Dump alle 6–12 Monate. Keines davon ist dringend, es sei denn, Sie starten die Arbeit an etwas genuinely Neuem.

💡Tip: Der einfachste Aktualisierungs-Workflow: dedizieren Sie einen Sonntag im Monat auf "Online-Wartungstag". Führen Sie ollama pull aus, um neue Modellversionen zu pullen, Devdocs zu erfrischen, npm update / cargo update / pip install --upgrade auf aktive Projekte. Danach können Sie den nächsten Monat dunkel gehen, ohne dass keine Degradation stattfindet.

Teilen des Offline-Caches mit einem Team

Für Teams, die zusammen reisen oder in der gleichen eingeschränkten Umgebung arbeiten, sind Caches shareable. Dies ist der Unterschied zwischen einem 60-GB-Download pro Developer und einem 60-GB-Download einmal im Office-Netzwerk.

  • Verdaccio läuft auch als Team-Server. Zeigen Sie einen kleinen Office-Server auf Verdaccio, stellen Sie npm config set registry http://team-cache.local:4873/ für jeden. Neue Developer erhalten den Cache automatisch; Offline-Reisen bedeuten einfach Pre-Sync, was Sie auf Ihrem Laptop brauchen.
  • Modelle können auf einem Team-Ollama-Server gehostet werden. ollama serve auf einer beefy Office-Maschine, zeigen Sie Every Developer's Continue.dev config auf den Team-Server, wenn im Office, wechseln Sie zu localhost:11434 (mit lokal-gepullten Modellen) zum Reisen.
  • Devdocs hat keinen nativen Team-Modus, aber ist trivial shareable als statischer Ordner. Bauen Sie es einmal, hosten Sie auf http://docs.team.local, jeder markiert mit Lesezeichen. Zum Reisen führen einzelne Developer localhost-Instanzen aus.
  • Git ist bereits Team-shareable. Ein lokales Gitea oder selbst-gehostetes GitLab im Office-Netzwerk gibt jedem Developer Offline-vom-Office-Repo-Zugriff; kombiniere mit git clone --mirror auf einzelnen Laptops zum Reisen.
  • Container-Images über ein Privat-Registry. Ein kleines Harbor oder Gitea-built-in Registry cached Images einmal; Traveler docker pull zum lokalen, bevor sie gehen.
  • Der wirtschaftliche Fall: Für ein 5-Developer-Team, das regelmäßig reist, spart das Teilen von Caches ungefähr 250 GB Internet-Download pro Monat und verwandelt die Pre-Flight-Checkliste von 60 Minuten zu 5.

Häufige Fehler beim Einrichten eines Offline-Coding-Stacks

  • Fehler 1: vergaß, das Setup offline vor der Reise zu testen. Der häufigste Fehler ist, Lücken am Flughafen zu finden. Führen Sie eine 30-Minuten-"lights-off"-Probe zu Hause – deaktivieren Sie Wi-Fi, deaktivieren Sie Mobilfunk, machen Sie echte Arbeit – mindestens 24 Stunden, bevor Sie es brauchen.
  • Fehler 2: cachen nur die Pakete, die Sie derzeit verwenden, nicht die, die Sie möglicherweise brauchen. Wenn es eine Chance gibt, dass Sie eine Abhängigkeit mid-Trip hinzufügen, installieren Sie es einmal zu Hause als Rauchmittel. Der Cache wird es behalten.
  • Fehler 3: Cursors Tab-Autocomplete aktiviert lassen und annehmen, dass es offline funktioniert. Das tut es nicht. Die IDE fällt stumm auf nichts zurück; Sie erhalten kein Autocomplete überhaupt. Installieren Sie entweder Continue.dev als VS Code-Erweiterung in Cursor, oder verwenden Sie VS Code direkt.
  • Fehler 4: ein Modell unter 7B für ernsthafte Coding-Arbeit verwenden. Sub-7B Coding-Modelle missen genug, dass Sie mehr Zeit mit dem Fixieren ihrer Ausgabe verbringen als mit dem Schreiben von Code. Fällt auf Qwen3-Coder 7B im kleinsten; wenn Ihr Hardware dies nicht handhaben kann, ist das Offline-Coding-Setup nicht auf diesem Laptop lebensfähig.
  • Fehler 5: das Modell auf Bibliotheken neuer als seinen Trainings-Cutoff vertrauen. Es wird selbstbewusst halluzinieren. Für alles, das in den letzten 6 Monaten veröffentlicht wurde, behandeln Sie die Ausgabe des Modells als eine Vermutung und überprüfen Sie gegen den Quellcode.
  • **Fehler 6: den Paketcache überspringen und annehmen, dass npm install im Flughafen-Lounge schnell genug ist.** Lounge Wi-Fi ist unzuverlässig, Downloads stallen und Sie steigen mit einem halb-installierten Abhängigkeits-Baum ein. Cachen Sie den Tag zuvor.
  • Fehler 7: Docker-Images vergessen. Wenn Ihr Dev-Workflow docker compose up für eine Datenbank verwendet, müssen die Images vorgezogen werden. Erstes docker compose up im Flug ohne Images ist eine harte Wand.

Quellen

  • Ollama Documentation — Offizielle Modell-Bibliothek, einschließlich Qwen3-Coder-Varianten und Quantisierungsstufen, auf die für Offline-VRAM/RAM-Budgets verwiesen wird.
  • Continue.dev Documentation — Setup-Anleitung, lokale Modell-Konfiguration und die Offline-fähigen Autocomplete- und Chat-Workflows.
  • Aider Documentation — Terminal-CLI-Referenz, lokales-Modell-Setup und Git-native Offline-Workflow-Muster.
  • Devdocs Source — Die Web-App, die offizielle Dokumentation für den Offline-Gebrauch spiegelt; Download- und PWA-Cache-Anweisungen.
  • Stack Exchange Data Dump (Internet Archive) — Vierteljährliche Stack Overflow Inhalts-Dump, die als Offline-Ersatz für Suchen verwendet wird.

FAQ

Wie groß ist das vollständige Offline-Coding-Setup?

Ungefähr 50–80 GB auf der Festplatte, abhängig von der Abdeckung. Aufschlüsselung: Qwen3-Coder 30B Q4_K_M ist ~18 GB, Devdocs ist ~3 GB, Zeal-Docsets ~5 GB wenn Sie es auch verwenden, Stack Overflow Dump ist ~8 GB und Pro-Projekt-Paketcaches (npm, pip, cargo, go) fügen 2–10 GB jeweils hinzu. Das 7B-Modell-Fallback ist ~5 GB, wenn Sie einen kleineren Fußabdruck möchten.

Kann ich neue npm-Pakete während Offline installieren?

Nur, wenn sie bereits im lokalen Verdaccio-Cache oder pnpm-Store sind. Das Standard-Pre-Flight-Muster ist, npm install für das Projekt zu Hause auszuführen, plus npm install für alle optionalen Abhängigkeiten, die Sie möglicherweise möchten, bevor Sie die Konnektivität verlieren. Pakete, die Sie nicht gecacht haben, können nicht offline installiert werden; der Workaround ist, die Quelle manuell zu klonen und sie in node_modules zu kopieren, aber das ist langsam und fehleranfällig. Pre-Caching ist die Antwort.

Funktioniert GitHub offline?

Git selbst funktioniert vollständig offline – git commit, git branch, git rebase, git log alle lokal. Was nicht funktioniert ist git pull, git push, git fetch oder irgendwelche Web-UI. Klonen Sie vorher die Repos, die Sie brauchen, mit git clone --mirror, um vollständige Geschichte zu erhalten; Commits sammeln sich lokal an und pushen, wenn Sie wieder online sind. Zum genuinely Offline-kolaborativen Arbeiten führen Sie ein lokales Gitea oder selbst-gehostetes GitLab auf dem Laptop eines Kollegen oder einem kleinen Office-Server aus.

Welche IDE funktioniert am besten vollständig offline?

VS Code mit Continue.dev ist die polishste Offline-Erfahrung: reiche KI-Funktionen, gutes Erweiterungs-Ökosystem, keine Lizenz-Aufrufe. JetBrains IDEs funktionieren, aber der Lizenz-Server pingt periodisch (toleriert ~30 Tage Offline). Vim, Neovim und Emacs sind vollständig Offline nach Design und pairing gut mit Aider. Cursor braucht Continue.dev, das darin installiert ist, weil Cursors eingebaute KI-Funktionen Netzwerkaufrufe erfordern.

Kann ich Repos zum Offline-Arbeiten klonen?

Ja. git clone --mirror <url> <path> erstellt einen bloßen Klon mit vollständiger Geschichte und allen Branches; git clone <url> funktioniert für eine normale Arbeitskopie. Beide laufen nach dem initialen Klon ohne Netzwerk. Für Multi-Repo-Workflows ist das Skript der Pre-Flight-Klone (for repo in $REPOS; do git clone --mirror "$repo"; done) das einfachste Muster. Submodule benötigen git submodule update --init --recursive zum Pre-Fetch.

Funktioniert Offline-Coding unter Linux?

Ja – Linux ist die einfachste Plattform für ein Offline-Coding-Setup. Ollama läuft nativ, Continue.dev und Aider haben beide Linux-Builds, jeder Paketmanager (apt, dnf, pacman, nix) hat Offline-Modi und die meisten der hier beschriebenen Tools wurden ursprünglich auf Linux gebaut. Die einzige Linux-spezifische Note sind GPU-Treiber: NVIDIA Linux-Treiber sind reif für Inferenz, aber es lohnt sich zu pre-testen auf dem genauen Kernel, den Sie offline planen. Apple Silicon Macs und Linux-Laptops mit diskreten GPUs werden beide vollständig unterstützt.

Wie aktualisiere ich lokale KI-Modelle ohne Internet?

Sie können nicht – Modell-Updates benötigen Konnektivität. Das Muster ist "Snapshot dann Run": Pullen Sie das neueste Modell Online, dann gehen Sie Offline. Wenn Sie das nächste Mal Signal haben (Flughafen-Lounge, Hotel Wi-Fi, Zuhause), führen Sie ollama pull qwen3-coder:30b aus, um die neuesten Gewichte zu picken. Monatliche Aktualisierung ist die typische Cadence; das Modell degradiert nicht stillschweigend zwischen Aktualisierungen.

Kann ich einen Offline-Cache mit meinem Team teilen?

Ja. Verdaccio (npm) und devpi (pip) laufen beide als Team-Server; ein Athens-Proxy bedient Go-Module; ein privates Container-Registry bedient Docker-Images; ein selbst-gehostetes Gitea oder GitLab bedient Git-Remotes. Zentralisiertes Caching bedeutet neue Team-Mitglieder erhalten alles vom Office-Netzwerk, anstatt 60 GB jeweils zu pullen. Zum Reisen benötigt jeder Developer Laptop immer noch eine lokale Snaphost, was sie verwenden werden, aber der zentrale Cache macht die Snaphost billig.

Funktioniert dies auf einem Flugzeug mit schwachem Signal?

Ja – und es ist zuverlässiger als sich auf die fleckig In-Flight Wi-Fi zu verlassen. Der ganze Stack nimmt an, null Netzwerk; schwaches Signal wird gleich wie kein Signal behandelt. Anecdotal, die lokale LLM's Autocomplete-Latenz (~280 ms auf M5) ist schneller als eine typische In-Flight Wi-Fi Round-Trip zu Copilot Servern (~400–800 ms wenn die Verbindung gesund ist, viel schlimmer wenn degraded). Offline-by-Design schlägt "Online wenn möglich" auf einem Long-Haul-Flug.

Ist Offline-Coding schneller als Online?

Für Autocomplete und Chat, ja – lokale Inferenz Round-Trips sind schneller als Netzwerk-Round-Trips zu einem Cloud-KI-Anbieter. Continue.dev + Qwen3-Coder 30B auf einem M5 gibt Autocomplete in ~280 ms zurück; GitHub Copilot unter guten Netzwerk-Bedingungen gibt in ~180–400 ms zurück; Copilot unter degraded Netzwerk gibt langsamer zurück oder schlägt fehl. Der Latenz-Unterschied ist klein, aber konsistent zugunsten des Lokalen. Der größere Gewinn ist Determinismus – lokale Inferenz ist jedes Mal die gleiche Geschwindigkeit, unabhängig vom Netzwerk-Zustand.

← Zurück zu Power Local LLM

Offline-Coding: Lokales LLM ohne Internet 2026