重要なポイント
- 5つのコンポーネントがコーディングセットアップを本当にオフラインにします: ローカルLLM、エディタ統合、パッケージキャッシュ、ドキュメントミラー、ローカル検索。1つでも欠けたら、実際の仕事の1時間以内に「インターネットが必要」の壁にぶつかります。
- ディスク予算:約50~80GB。 Qwen3-Coder 30B Q4_K_Mは約18GB、Devdocsは約3GB、Stack Overflowダンプは約8GB、残りは実際に利用する言語とプロジェクトサイズのパッケージキャッシュです。
- ハードウェアフロア: 30Bモデルの場合32GB統一RAM(Apple Silicon)または16GB VRAM(ディスクレートGPU)、7Bフォールバックの場合16GB統一RAM。推奨の甘い点:64GB搭載M5 MacBook Pro – モデル、エディタ、Docker、ブラウザはすべてページング無しで適応します。
- Continue.devとAiderは両方とも完全にオフラインで実行します ローカルOllamaまたはllama.cpp エンドポイントに対して。テレメトリ呼び出しなし、ライセンスチェックなし。GitHub Copilot、Cursorのタブオートコンプリート、Codeiumはすべてネットワーク呼び出しが必要で、オフラインで静かに低下します。
- 本当に壊れる2つのこと: 新しいサードパーティパッケージをインストール(キャッシュ無し、フォールバック無し)とモデルがトレーニングカットオフ後にリリースされたAPIについて尋ねること。両方は、使用予定のものを事前キャッシュすることで修正可能です。
- 14時間飛行テストパス: 本当の機能を配備、2つのバグを修正、フルテストスイート実行 – すべてネットワーク呼び出しなし。セットアップは本当、理論的ではありません。
高速な事実
- スタック: Qwen3-Coder 30B(または7B)+ Continue.dev または Aider + Devdocs(またはZeal)+ Verdaccio(npm)と devpi(pip)+ ripgrep と rga。
- 合計ディスク: 言語カバレッジとStack Overflowダンプをキャッシュするかどうかに応じて約50~80GB。
- ハードウェアの甘い点: Apple M5 MacBook Pro 64GB。統一メモリは30Bモデルとエディタとdockerが1つのプールを共有することを意味します。
- オフラインvs オンライン品質: モデル自体は同一 – オートコンプリート、リファクタリング、コードレビューは同じ感覚です。摩擦はモデルの周り、内ではなく。
- オフラインレイテンシ: M5で約280msオートコンプリート(シグナルがあるときCopilotサーバーへの往復より速い)。
- 全体オープンソース: Ollama(MIT)、Continue.dev(Apache)、Aider(Apache)、Qwen3-Coder(オープンウェイト)、Devdocs(MPL)、Zeal(GPL)。
- アップデート: セットアップは「スナップショットして実行」 – すべてキャッシュされたら、更新を選択するまで現在のまま。オンラインで更新、それからオフラインに戻す。
オフラインスタック
5つのコンポーネント、各1つネットワークが通常提供するもの。 1つ削除したら、セットアップは本当の仕事中に壁にぶつかります。テーブルは各オンラインツールをそのオフライン相当物とディスク予算にマッピングします。
📍 一文で説明
2026年の完全オフラインコーディング環境は1つのローカルLLM、1つのエディタハーネス、言語ごと1つのキャッシュパッケージレジストリ、1つのドキュメントミラー、1つのローカル検索ツール – 合計ディスク約50~80GB。
💬 簡潔に説明
エディタとターミナルが通常行うすべてのオンラインなもの – パッケージ取得、ドキュメント検索、Stack Overflow検索、Copilotに質問 – を想像してください。それぞれにラップトップにローカル置換をピンします。ワンタイムフライト前キャッシュ後、これらのどれもネットワークに依存しません。モデルはディスクに存在、ドキュメント存在、npmレジストリはディスクに存在。唯一の失敗モードは「キャッシュされていないパッケージが必要」 – そのための修正もあります。
| コンポーネント | オンラインツール | オフライン置換 | キャッシュサイズ |
|---|---|---|---|
| AIコード補完 | GitHub Copilot, Cursor Tab | Continue.dev(またはAider)+ Ollama + Qwen3-Coder 30B | 約18GB(モデルのみ) |
| 公式ドキュメント | MDN, ReadTheDocs, 公式サイト | Devdocs(Webアプリ)またはZeal(デスクトップ) | 約3~5GB |
| Stack Overflow | stackoverflow.com | Stack Exchangeデータダンプ(KiwixまたはローカルIndex) | 約8GB(圧縮) |
| npmパッケージ | registry.npmjs.org | npm install --prefer-offlineウォームキャッシュVerdaccio | プロジェクト依存(通常約2~10GB) |
| Pythonパッケージ | PyPI | devpiまたはpip download経由ローカルwheels | プロジェクト依存(通常約1~5GB) |
| Rustクレート | crates.io | プロジェクトdepsのcargo vendor;キャッシュ~/.cargo/registry | プロジェクト依存(通常約0.5~3GB) |
| Goモジュール | proxy.golang.org | ローカルAthensプロキシまたはGOFLAGS=-mod=vendor | プロジェクト依存(通常約0.5~2GB) |
| コード検索 | GitHub検索, Sourcegraph | ripgrep(rg)コード、rgaはPDFとアーカイブ用 | 約10MB(バイナリのみ) |
| Git remotes | GitHub, GitLab | --mirrorでプリクローンreposまたはローカルGitea | リポサイズ毎 |
| コンテナイメージ | Docker Hub, GHCR | ローカルレジストリミラーまたはプリプルイメージ | プロジェクト依存 |
📌Note: 初日にこれら全部は不要です。最小限の有用なオフラインセットアップはLLM、Continue.devまたはAider、フライプに使用する言語のパッケージキャッシュです。基本が機能したらDevdocsとStack Overflowダンプを追加してください。
14時間飛行テスト:実際に起こったこと
セットアップは2026年3月に太平洋横断フライトでテストされました – 14時間、Wi-Fi無し(購入されたエアライン パスはゲート時に失敗して戻らずに)。 以下は何が機能し、何がほぼ壊れ、準備なしで旅を停止させたであろう何かです。
ローカルモデルの出力品質は、それをどのようにプロンプトするかの下流です。任意のローカルモデルのコード生成を改善する構造化プロンプト技術については、Write Better Code With AIを参照してください。
- 時間1 – ラップトップを取り出し、前夜にクローンしたNext.jsプロジェクトを開きました。 Continue.devは既に
localhost:11434のOllamaを指していました。リファクタリングしたい関数にCmd+Iを押しました。Diffは2秒で現れました。受け入れられました。モデルはQwen3-Coder 30B Q4_K_Mで、メモリに読み込まれていました。パック以来、そこにいました。 - **時間3 – 新しい依存関係を追加する必要があった:
@tanstack/react-query。**npm installを実行しました。Verdaccioはローカルキャッシュから提供しました(家でスモークテストとしてnpm installを実行していた)。合計経過時間:4秒。tcpdumpでネットワーク呼び出しは観測されません(はい、確認しました – それはそのようなフライトでした)。 - 時間5 – Zod методを正確な署名を忘れました。 ブラウザタブでDevdocsを開きました。Zodドキュメントセットが含まれていました。8秒で答えが見つかりました。「読み込み中…」スピナーなし。
- **時間6 – キャッシュにないパッケージをインストールしようとした:
vitest-html-reporter。**npm installはVerdaccioから404で失敗。これは最初の壁でした。フォールバック:ローカルにリポをクローン、手動でnode_modulesにソースをコピー、package.jsonをローカルパスに指すように修正。12分かかりました。修正は予防的です:オフラインに行く前に必要になるかもしれない何でもキャッシュを温めてください。 - 時間8 – 2月2026年にリリースされたライブラリについてモデルに尋ねました。 自信を持ってAPIを幻視。Qwen3-Coderのトレーニングカットオフは2025年10月でした;2月2026年のAPIはトレーニングデータになかった。修正:飛行前にライブラリのrepoを
rgaで索引付けしました。実際のソースを検索。本当の署名を見つけました。教訓:モデルはトレーニングデータにあったことを知っている;より新しい何でも、ドキュメントとソースが権限です。 - 時間11 – フルテストスイートを実行。 423テスト、4.7秒。リグレッションなし。テストランナーはネットワークを気にしません。
- 時間13 – 何も推さず。 Gitコミットはローカルに蓄積。飛行機が着陸したとき、空港ラウンジで1回
git pushを実行。1つの推しで17コミット。ローカルファースト git モデルはこれを可能にします – 唯一のネットワーク依存ステップは最終的なプッシュです。 - 純結果: 1つの機能を配備、2つのバグを修正、11の新しいテストを書き、3つのコミット私はまだ誇りに思う。生産的な時間:14時間中約11時間(残りは食べる、寝る、時間6で悪い依存関係を対処)。セットアップはこのフライトだけで自分を支払いました。
💡Tip: 自宅で「明かりを消す」リハーサルを実行:Wi-Fi をオフにし、セルラーホットスポットを無効にし、通常の90分作業セッションをしてみてください。35,000フィートでキャッシュの隙間を見つける前にギャップを見つけます。一般的な発見:@typesから引き出すTypeScriptタイプのみのインポート、npmキャッシュを回避するpnpm install、プリプルされていないdockerベースイメージ。
フライト前チェックリスト:番号付きステップ
接続を失う前日にこのリストを実行してください。 各ステップは1~10分かかります。全リストは初回約1時間、以降のトリップは15分です(キャッシュは保持されるため)。
- 1ローカルLLMを取得します。
ollama pull qwen3-coder:30b(16GB マシンの場合は:7b)。ollama run qwen3-coder:30b "say hi"– 数秒で応答するはずです。 - 2Continue.dev(またはAider)をインストールおよび構成します。VS Code を開き、Continue.dev拡張をインストール、
~/.continue/config.jsonを編集してhttp://localhost:11434(Ollama デフォルト)を指す。ファイルを開いてCmd+I を押すことでテストします。 - 3プロジェクトのパッケージキャッシュを温める。プロジェクトに
cd、npm installを実行(またはpip install -r requirements.txt、またはcargo build、またはgo mod download)。Verdaccio、devpi、またはCargoは最初の実行でディスクにすべてをキャッシュします。 - 4インストール中に必要な可能性のあるオプションの依存関係のサンプルをインストールします。フライト中に
@tanstack/react-queryまたはzodを追加することがあればスクラッチディレクトリでそれらの使い捨てnpm installを今実行。パッケージはキャッシュに到着します。 - 5参照したい可能性のあるリポをプリクローン。
git clone --mirrorは最も安全 – 完全な履歴とすべてのブランチを取得します。 - 6Devdocs を同期(または必要な Zeal docsets をダウンロード)。Devdocs で、Settings → Disable Auto-update → Download All を選択。必要な Docsets(TypeScript、Node、React、Python、Rust)はローカルに到着します。
- 7使用する可能性のある Docker イメージをプリプル。
docker pull node:20-alpine、docker pull postgres:16など。後でdocker compose upを使用する場合、ローカルストレージから提供されます。 - 8プロジェクトのテストスイートを1度実行します。ネットワークから35,000フィート遠い前に欠落しているビルドアーティファクト(コンパイル TypeScript、生成 Prisma クライアント)をキャッチします。
- 930分間切断して再テストします。Wi-Fi をオフにし、セルラーを無効にして、5分間の実際の作業をしてみてください。失敗するもの – 今修正、ゲートではなく。
- 10すべてを充電します。バッテリーは欠落キャッシュの後の2番目のオフライン失敗モード。M5 MacBook Pro で2時間の LLM 使用はバッテリーの約30~40% を消費します – それに応じて計画し、ラップトップ定格のUSB-C パワーバンクを持ってきてください。
💡Tip: このチェックリストをスクリプトとして保存します。ollama pull、npm install、pip install、git fetch --all、docker pullを実行する30行のbashファイル(pre-flight.sh)一般的な依存関係プロセス全体を1つのコマンドに変わります。最初の実行は45分; 後続の実行は5分です。
ハードウェア:M5 64GB統一メモリ MacBook Pro が勝つ理由
純粋なオフラインコーディング作業の場合、64GB統一メモリを搭載したApple M5 MacBook Pro は2026年の最も強力なシングルマシンです。 理由は統一メモリ:GPUとCPUは1つのプールを共有するため、30Bモデル、エディタ、Dockerコンテナ、Chromiumベースのドキュメントビューアはすべてページング無しで共存します。
- 統一メモリはモデルが「VRAM内」も「システムRAM内」もない – メモリ内にあります。 Qwen3-Coder 30B Q4_K_M(約18GB)をロード場合、それは常駐。Docker composeスタックへの切り替えは削除しません。16GB VRAMと32GB システムRAMのディスクレートGPUラップトップでは、モデル交換は スイッチ毎に5~10秒かかります。
- 30B モデルは 24GB に快適に適応;64GB は残りのためのヘッドルーム。 64GB で、モデルをロード、3つのDockerコンテナ(データベース、redis、サンドボックス)、VS Code、Devdocs 付きChromiumタブ、ターミナルマルチプレクサーはすべて実行無し遅く。
- 負荷下の電池寿命:6~8時間。 ほとんどのフライトはUSB-C パワーバンクでカバーします。M5 は持続 LLM 推論の最も効率的なチップ - エネルギートークン当たりの数字は約3× よい同じスループット時のディスクレートGPUラップトップより。
- 静かな飛行機でのファンノイズなし。 M5 シャーシは持続期間パッシブで30Bモデルを実行。ディスクレートGPUラップトップは推論負荷下でファン著名 - 家では問題ですが、27 行での社会問題。
- ディスクレートGPU選択肢は生スループットで競争的ですが、妥協のコスト。 Razer Blade 16 RTX 4090 モバイル(16GB VRAM)は M5 より高い tokens/sec で30Bモデルを実行しますが、推論下バッテリー寿命は約2時間、ファンノイズは重要、16GB VRAM 天井は32K コンテキスト設定を保持できない、またはモデル横のデータベース実行 Docker コンテナを保持できない。
- より深いハードウェア ランキングについては、 Best Laptops for Local LLMs in 2026 を参照してください – この記事はすべての実行可能な選択肢(M-シリーズ Mac、ROG Strix、Razer Blade、Framework 16)を tokens/sec、バッテリー、合計システムメモリにランク付けします。
📌Note: 32GB M3 または M4 MacBook Pro を既に所有している場合、アップグレード無し。7B モデルは 8GB RAM で快適に実行し、30B 品質の80~85% を得ます。64GB 推奨はオフラインコーディング作業用に特に機械を購入するユーザー向け;既存ハードウェアユーザーは最初に 7B を試すべき。
オフライン作業の正しい地元のモデルを選ぶ
モデルは最も大きいディスクとメモリライン項目;1回選ぶ、正しく選ぶ。 2026年5月の3つの合理的な選択肢、オフラインコーディング作業を処理する方法によってランク付け。
- Qwen3-Coder 30B Q4_K_M(約18GB)– 推奨デフォルト。 TypeScript、Python、Rust、Go オートコンプリートのベストインクラス;信頼できるツール呼び出し;32K トークンコンテキストを処理。利用可能メモリの 24GB が必要(Apple Silicon システムRAM、ディスクレートGPU VRAM)。
- Qwen3-Coder 7B Q4_K_M(約5GB)– 軽量フォールバック。 8GB 統一 RAM または 8GB VRAM で実行。日常の仕事で 30B 品質の約80~85%;ギャップはマルチステップリファクタリングおよび長文脈推論に表示されます。ラップトップが 24GB 未満メモリを持つ、または重いdockerワークロードと共存する場合の正しい選択。
- DeepSeek Coder V3 – 非常に長いコンテキストが必要な場合これを選択。 DeepSeek V3 は 128K トークン サポート;多くのファイル間でデバッグが有用。ディスク上より大きい(Q4_K_M での約25GB);生品質で Qwen3-Coder 30B と大体同等。
- Codestral 22B – 速度ピック。 Qwen3-Coder 30B より高速オートコンプリート;ツール呼び出しおよびマルチステッププランで弱い。オフラインワークフロー Autocompletion が支配的で、エージェントハーネスを使用しない場合良い。
- スキップ: コーディング ファイン チューンなしで 13B 未満の汎用モデル(Llama 3.2 7B、Mistral 7B)および Q4_K_M より厳しい任意の量子化。両方は実際のコーディング作業で明白に失敗。
- 言語毎 HumanEval+ スコアを含む完全なコーディングモデル比較のため、 Best Local Coding Models in 2026: Qwen3-Coder vs DeepSeek vs Codestral を参照してください。
依存関係キャッシング:npm、pip、cargo、go
パッケージマネージャーは LLM 後の2番目に一般的なオフライン失敗点。 各言語は異なるメカニズム;原則は同じ – 必要になるかもしれない何でも pref を取得し、呼び出すinstall時ローカルストレージから提供します。
- npm(Node.js): Verdaccio をインストール(
npm install -g verdaccio)、npm をそこに指す(npm config set registry http://localhost:4873/)、各プロジェクトで1度npm installを実行。Verdaccio は各パッケージをローカル キャッシュ;後続インストールはオフラインで機能。キャッシュは~/.local/share/verdaccio/storageに存在。 - pip(Python): 最もシンプルなパターンは
pip download -r requirements.txt -d ~/wheelhouse、その後pip install --no-index --find-links ~/wheelhouse -r requirements.txtでインストール。マルチプロジェクト使用、devpi はより強力な選択肢 – Python 向け Verdaccio と同じ形。 - cargo(Rust):
cargo vendorは各依存関係をプロジェクトのvendor/ディレクトリに書き込み、プラスcargoに使用するよう指示する.cargo/config.tomlスニペット。コミットされたら、プロジェクトはオフラインで常に構築。Cargo はグローバルレジストリを~/.cargo/registry/cacheでもキャッシュ – これをcargo fetchで事前に温めるはほとんどの場合をカバー。 - go(Go): 最もシンプルなパターンはプロジェクトあたり
go mod vendor(Go はCargo のようなvendor/ディレクトリを書き込み)。グローバルキャッシング、ローカル Athens プロキシを実行しGOPROXY=http://localhost:3000設定。 - pnpm と yarn(npm形): npm の同じ方法で Verdaccio を指す。pnpm コンテンツアドレス店はデフォルトでオフライン親しみやすい;パッケージがストアにあれば、各プロジェクトがそれを共有。
- Brew、apt、dnf(システムパッケージ): 短いトリップでは重要度が低いですがはす値する。
brew bundle dumpBrewfile を生成し後で再実行できます;apt/dnf は共にapt-get downloadとダウンロード.deb/.rpmファイル経由オフラインモード。
💡Tip: もっと単純なオフラインパッケージパターンはプロジェクトスコープ:Rust 用cargo vendor、Go 用go mod vendor、Node 用 Verdaccio に対するnpm install、Python 用pip download – すべてプロジェクトレベルでフライト前日に完了。システム全体キャッシュ(Verdaccio ストレージ、~/.cargo、~/.npm)はプロジェクト全体で必要な何でも扱う。
オフラインドキュメント:Devdocs、Zeal、Stack Overflow ダンプ
モデルは大体訓練されたもの知っています;他のすべてはオフラインドキュメントとコードに存在。 3つのソースはあなたが Google するであろう約 95% カバー。
- Devdocs(Webアプリ、約3GB)。 約150言語とフレームワーク向けのミラーオフィシャルドキュメントが収納型 Progressive Web App。
devdocs.io開く、Settings、使用するドキュメントを有効にする、「Make available offline」を打つ。ブラウザはすべてキャッシュ;その後飛行機モードで永久に動作。 - Zeal(デスクトップアプリ、約5GB)。 Dash docsets を使用するネイティブデスクトップドキュメントブラウザ – macOS Dash アプリと同じフォーマットがフリーかつクロスプラットフォーム。Devdocs より良好なキーボードナビゲーション;より弱いサーチ。1つまたは他を選択;両方は過剰。
- Stack Overflow データダンプ(約8GB 圧縮)。 Internet Archive はオフィシャル Stack Exchange データダンプをトレント としてホスト。Kiwix のようなツールは閲覧可能サイトとしてレンダー、または Elasticsearch / SQLite-FTS で高速ローカルサーチ用に索引。カバレッジはダンプ日で切断 – 通常数か月以内 – しかし一般的なプログラミング質問はファイン。
- プロジェクト固有ドキュメント。 強く使用するライブラリについて、リポとドキュメント サイトソースをクローン。ほとんどのドキュメント サイトは静的で
docs/ディレクトリに存在;mkdocs buildまたはnpm run docs:buildローカルサイトが生成できpython -m http.serverで提供可能。 - モデル自体はトレーニングデータにある事柄のドキュメントとしてカウント。 Qwen3-Coder 30B は標準ライブラリとメジャーフレームワークをよく知っています – TypeScript、React、Python stdlib、NumPy、AWS SDK。モデルに尋ねることはこれらについて Devdocs を検索するより度々優って。分割は「モデル既知、ドキュメント新規、ソース未知」。
📌Note: Stack Overflow コンテンツ品質はタグできつく変わる。ダンプは最も有用でレガシー言語および固有エラーメッセージ –正確にモデルが弱い事柄。メインフレームワーク質問、モデルはダンプサーチより速く正確。
Google なしローカル検索
ripgrepとrgaは 2 つのツールをローカルサーチワークフローは Google と同じく高速感じしました。** 両方フリー、両方 tiny、両方すべてプラットフォームで実行。
- **ripgrep(
rg)– コード用高速テキストサーチ。**grep -r置き換え、大きなリポジトリで10~50× 優秀。自動的に.gitignore読み込み。「この関数どこ」と「この API のすべての呼び出し元を見つける」標準ツール。 - **rga(
ripgrep-all)– PDF、アーカイブ、他のバイナリフォーマット向け ripgrep。** PDF、zip ファイル、gzipped ログ、SQLite データベース、Office ドキュメント内を透過的に検索。rga "query" .は ripgrep ができないすべてのファイルフォーマットを検索、プレーンテキスト ripgrep にフォールバック。 - ユースケース 1 – 「この API を使用方法例が必要」。 これを使用する複数リポを事前クローン;
rg "api_function_name" ~/code/examplesは秒のほんの一部で各実コールサイト戻します。使用パターンのためドキュメントより良好。 - ユースケース 2 – 「この PDF 仕様に X と言うどこ」。
rga "specific phrase" ~/specs/。2分スキミング必要だった PDF は200ms 検索へ。 - ユースケース 3 – 「Stack Overflow なし Stack Overflow」。 Kiwix または Elasticsearch でStack Overflow ダンプを索引付けした場合、ダンプに対する
rg風クエリは レガシートピック向けGoogle「stackoverflow」検索置き換え。 - 速い code の質問、モデルは検索より高速。 Continue.dev
Cmd+Lはコンテキストとして codebase を開いたチャット;「auth フロー処理どこ」は検索ツールに質問をタイプせず1~2 秒で正しいファイル戻す。
完全にオフラインで機能する IDE
ほとんどメジャー IDE はオフラインで機能;違いは拡張、ライセンス検証、AI ツール内。 重要なことは AI 機能実際に機能は、ネットワーク低下時ユーザーが注目するビット。
- VS Code – 完全にオフラインで機能;AI 機能は使用する拡張に依存。 Continue.dev はローカル Ollama エンドポイントに対して完全に実行、推奨ペアリング。Cursor の組み込みTab オートコンプリート作成ネットワーク呼び出し、静かに低下。GitHub Copilot は直ちに停止機能。
- JetBrains IDE(IntelliJ、PyCharm、GoLand、WebStorm)– ライセンスキャッシュされたら完全オフラインで機能。 ライセンスサーバーは定期的にピンも(個人ライセンス30日毎)、拡張オフラインウィンドウを許容。Continue.dev は機能パリティ付き JetBrains ビルドを持つ。
- Vim と Neovim – 完全オフラインデザイン。 ライセンスチェック無し、テレメトリー無し。サイドターミナルペインで Aider とペア;またはローカル Ollama に指す
llm.nvimプラグイン でnvim使用。 - Emacs – 完全オフラインデザイン。
aidermacs経由で Aider とペア、またはgptel経由でローカル Ollama HTTP API 直接呼び出し。 - Cursor – 部分的オフライン。 IDE 自体はインターネットなし実行、しかし見出し機能(Tab オートコンプリート、Cmd+K エージェント)Cursor クラウドルーティング要求。VS Code 拡張を Cursor 内にインストール Continue.dev は制限をサイドステップ;オフライン対応可能 IDE 内動作ローカル AI エディタを取得。
- ハーネスレイヤー具体的なより深い比較のため、 Continue.dev vs Cline vs Aider: Best Local Coding Agent in 2026 参照してください。
💡Tip: 移動の場合、Cline 上 Continue.dev を好む。Cline 自律エージェントループは会話ストリーム全ファイルコンテンツ、高速トークン燃焼 – メイン電力時良好、航空機では楽しみより少ない、各 GPU ワット時間スタミナコスト。Continue.dev オートコンプリート第一デザイン著しく少ない計算各セッション使用。
オフラインで実際に壊れるもの(正直なリスト)
セットアップは genuinely 堅牢、しかし 5 つのこと依然失敗。 失敗モード事前知識は回避を許可。
- 新しいサードパーティパッケージのインストール。 キャッシュ無し、手動ベンダソース以外フォールバック無し。修正は予防的 – 必要かもしれない何でもプリキャッシュ、ストレッチ目標含む。
- ポストカットオフ API 別モデル知識。 Qwen3-Coder トレーニングカットオフ 2025年10月(2026年5月リリース);その後 API はベスト推測。修正:ソース複製、疑問時実署名
rg。モデルをトレーニングデータより新しいライブラリ信頼しない。 - OAuth または API 認証往復要求するすべて。 クラウドプロバイダにログイン、OAuth トークン交換、チーム SSO ポータル打つ – すべてオフラインで機能しない。修正:テイクオフ前すべて認証、キャッシュトークン信頼(通常12~24時間後に期限切れ)。
- リモートサービスのブラウザベーステスト。 テスト実 API または staging 環境打つ場合、オフライン失敗。修正:ローカルモック使用(msw、nock、vcr)、プリレコード fixtures。
- 外部サービス呼び出す画像と資産生成。 クラウドベース画像生成器、フォントサービス、CDN フェッチ資産すべて失敗。修正:固定資産をリポに焼き込むか、完全ローカル画像モデル使用(別スタック)。
- 「そのライブラリ名何だった」問題解は モデル自体。 Google 検索できない場合、モデル「X-機能のパッケージ名何か」尋ねる – トレーニングデータのもの、80~90% 正しく回答。インストール前パッケージキャッシュに対し確認。
モデルとキャッシュ後で更新
セットアップは「スナップショット然實行」 – 一旦すべてキャッシュされ、更新選択まで静止。 更新はオンライン;オフラインセッション更新時電流使用。
ollama pull経由モデルアップデート。** 新 Qwen3-Coder 版が出荷場合、オンラインollama pull qwen3-coder:30b実行。新重み古い置き換え;前バージョン消えるタグしない限り(プルさせる前にollama tag qwen3-coder:30b qwen3-coder:30b-2026-05)。- **パッケージキャッシュは次 オンライン
npm install/pip install/cargo update更新。** 特別なワークフロー無し – 通常パッケージマネージャーはオンラインで機能し、オフラインで凍結。 - Devdocs はデフォルト自動更新。 フライト前自動更新無効にして驚きダウンロード避ける空港信号の場合(設定 → 自動更新無効)。
- Stack Overflow ダンプは四半期ごとにリフレッシュ。 Internet Archive は3ヶ月毎に新ダンプ公開;新しいカバレッジ選択再ダウンロード。
- 計画向け cadence: モデルと Devdocs 2~3ヶ月毎、パッケージキャッシュ新作仕事開始毎、Stack Overflow ダンプ6~12ヶ月毎。これらのどれも緊迫しない限り genuinely 新作仕事開始。
💡Tip: もっと単純な更新ワークフロー:1ヶ月毎1日を「オンラインメンテナンス日」に献身。新モデル版プル用ollama pull、Devdocs 更新、アクティブプロジェクトでnpm update / cargo update / pip install --upgrade実行します。その後、次の月間黒以下劣化に無し。
チームとのオフラインキャッシュ共有
一緒に移動するまたは同じ制限環境で働くチーム、キャッシュは shareable。 これは開発者あたり60GB ダウンロード差、オフィスネット一度60GB ダウンロード差別です。
- Verdaccio はチームサーバーとしても実行。 小さなオフィスサーバーをVerdaccio 指す、
npm config set registry http://team-cache.local:4873/全員向け。新開発者自動的にキャッシュ得;オフライントリップはラップトップに必要物プリシンク意味。 - モデルをチーム Ollama サーバーでホスト可能。 beefy オフィスマシン
ollama serve、办公内にオフィス内にチームサーバーの各開発者 Continue.dev 設定ポイント、移動向けにlocalhost:11434(ローカルプルモデル)に切り替え。 - Devdocs は ネイティブチームモード無し しかし trivially shareable 静止フォルダとして。 1度構築、
http://docs.team.localホスト、全員ブックマーク。移動、個々の開発者localhostインスタンス実行。 - Git は既にチームshareable。 ローカル Gitea または自ホスト GitLab オフィスネット内、各開発者オフィスからオフラインリポアクセス与える;個別ラップトップ
git clone --mirror移動と組み合わせ。 - プライベートレジストリ経由コンテナイメージ。 小さな Harbor または Gitea 組み込みレジストリ一度イメージキャッシュ;移動者が先ローカル
docker pull去る前。 - 経済ケース: 定期的に移動5開発者チーム、キャッシュ共有は1ヶ月毎約250GB インターネットダウンロード保存し、フライト前チェックリスト60分から5。
オフラインコーディングスタック設定一般的間違い
- 間違い 1:トリップ前セットアップオフラインをテスト忘れ。 ほとんど一般的失敗は空港ギャップを見つけるは。「ライト消す」30分リハーサル実行家で – Wi-Fi オフ、セルラー無効、実仕事試す – 少なくも24時間前必要。
- 間違い 2:現在使う パッケージのキャッシュのみ、必要かもしれない無し。 機会があり、トリップ中依存関係加算場合、スモークテストスト家で1度インストール。キャッシュ保持。
- 間違い 3:Cursor のタブオートコンプリート有効化し、オフラインで機能します想定。 しません。IDE 静かにノッシング フォールバック;オートコンプリートゼロ。Continue.dev を VS Code拡張として Cursor 内にインストールするか、直接 VS Code 使用。
- 間違い 4:7B 下のモデル使用真摯なコーディング作業。 Sub-7B コーディング モデルミス十分修正出力に書きコード以上時間費す。Qwen3-Coder 7B に最小限低下;ハードウェアが処理不可オフラインコーディングセットアップはこのラップトップで実行可能しない。
- 間違い 5:ないトレーニングカットオフより新しいライブラリモデルに信頼。 自信を持ち幻視。最後6ヶ月以内に公開何でも、モデル出力を推測として扱う、ソースコードに対し確認。
- **間違い 6:パッケージキャッシュをスキップし、
npm install空港ラウンジで十分速い。** ラウンジ Wi-Fi は信頼できず、ダウンロード停滞、半インストール依存ツリーで搭乗。前日キャッシュ。 - 間違い 7:Docker イメージ忘れ。 Dev ワークフロー データベース用
docker compose up使用場合、イメージプリプルが必要。最初フライトなしdocker compose upイメージはハード壁。
ソース
- Ollama ドキュメント — オフィシャルモデルライブラリ、Qwen3-Coder 変動とオフライン VRAM/RAM 予算向け参照量子化レベル含む。
- Continue.dev ドキュメント — 設定ガイド、ローカルモデル設定、オフライン対応オートコンプリート チャットワークフロー。
- Aider ドキュメント — ターミナル CLI リファレンス、ローカルモデル設定、git-ネイティブオフラインワークフローパターン。
- Devdocs ソース — オフライン使用向けミラーオフィシャルドキュメント Web アプリ;ダウンロード PWA キャッシュ指示。
- Stack Exchange データ ダンプ(Internet Archive) — 検索向けオフライン置換として使用四半期 Stack Overflow コンテンツダンプ。
FAQ
全オフラインコーディング設定のサイズは何か
ディスク上約50~80GB カバレッジに応じて。分ける:Qwen3-Coder 30B Q4_K_M は約18GB、Devdocs は約3GB、Zeal docsets は約5GB やはり使用、Stack Overflow ダンプは約8GB、プロジェクトあたりパッケージキャッシュ(npm、pip、cargo、go)は各2~10GB 加える。7B モデルフォールバック約5GB 小さいフットプリント希望場合。
オフラインで新しい npm パッケージをインストール可能か
既にローカル Verdaccio キャッシュまたは pnpm store にある場合のみ。標準フライト前パターンはプロジェクト向けnpm installホームで実行、プラス任意依存関係オフラインに行く前に必要かもしれない。キャッシュしていないパッケージはオフラインインストール不可;回避は手動ソース複製コピーnode_modulesしかし遅くエラープロン。予前キャッシュは答えです。
GitHub はオフラインで機能するか
Git 自体は完全オフラインで機能 – git commit、git branch、git rebase、git log すべてローカル実行。機能しない のはgit pull、git push、git fetch、いずれの web UI も。完全履歴のgit clone --mirrorで必要リポプリクローン;コミットはローカルに蓄積し、オンライン時返す。genuinely オフラインコラボ仕事、ローカル Gitea または自ホスト GitLab 同僚ラップトップまたは小さいオフィスサーバーで実行。
どの IDE が最適に完全オフラインで機能するか
VS Code Continue.dev は最もポリッシュ オフライン経験:豊かな AI 機能、良好拡張生態系、ライセンス呼び出し無し。JetBrains IDE は機能しますが、ライセンスサーバーは定期的にピンも(約30日オフラインを許容)。Vim、Neovim、Emacs は完全オフラインデザイン、Aider とペア良好。Cursor は Cursor 組み込み AI 機能ネットワーク呼び出し要求するため Cursor 内にインストール Continue.dev が必要。
オフライン作業リポをクローン可能か
はい。git clone --mirror <url> <path>完全履歴とすべてブランチのベアクローン作成;git clone <url>は正規ワーク複製向け機能。両方は初期クローン後ネットワーク無し実行。マルチリポワークフロー、プリフライトクローンスクリプト(for repo in $REPOS; do git clone --mirror "$repo"; done)は最もシンプル。サブモジュールはプリフェッチ向けgit submodule update --init --recursiveが必要。
オフラインコーディング Linux で機能するか
はい – Linux はオフラインコーディングセットアップ最も簡単プラットフォーム。Ollama はネイティブ実行、Continue.dev 及び Aider 両方 Linux ビルド、各パッケージマネージャ(apt、dnf、pacman、nix)オフラインモード、ここで説明ツール大部分は元々 Linux で構築。唯一 Linux 特定注記は GPU ドライバ:NVIDIA Linux ドライバは推論用完成ですが、オフラインプラン正確なカーネルで事前テスト価値。Apple Silicon Mac とディスクレート GPU Linux ラップトップ両方完全サポート。
インターネット無しでローカル AI モデルをアップデートするか
できません – モデルアップデートは接続必要。パターンは「スナップショット然實行」:オンラインで最新モデルプル、その後オフラインに行く。次にシグナルがある時(空港ラウンジ、ホテル Wi-Fi、ホーム),ollama pull qwen3-coder:30b実行して最新重み取得。月毎リフレッシュが典型的cadence;モデルは更新間静かに低下しない。
オフラインキャッシュをチームと共有可能か
はい。Verdaccio(npm)と devpi(pip)両方チームサーバーとして実行;Athens プロキシは Go モジュール提供;プライベートコンテナレジストリは Docker イメージ提供;自ホスト Gitea または GitLab は git remotes 提供。セントラルキャッシュはオフィスネットワークから各新チーム員が全部得ることを意味し、各60GB 引くのではなく。移動のため、各開発者ラップトップはまだ使用ローカルスナップショット必要ですが、セントラルキャッシュはスナップショット安くします。
これは弱信号の飛行機で機能するか
はい – 及びスポッティ機内 Wi-Fi に信頼より堅牢です。全スタックはゼロネットワークを想定;弱信号はゼロ信号と同じに扱われます。時折、ローカル LLM オートコンプリートレイテンシ(M5 で約280ms)は機内 Wi-Fi ラウンドトリップ Copilot サーバーより高速(健全な接続時400~800ms、劣化時ずっと悪い)。オフラインバイデザインは「オンラインした時」長距離フライトで負かす。
オフラインコーディング はオンライン時より高速か
オートコンプリート及びチャット用はい – ローカル推論往復はクラウド AI プロバイダへのネットワーク往復より高速。Continue.dev + Qwen3-Coder 30B M5 でオートコンプリート約280ms で返す;GitHub Copilot よい条件時約180~400ms で返す;Copilot 劣化ネットワークで遅く返すまたは失敗。レイテンシ差は小ですが一貫してローカル有利。最大利益は決定性 – ローカル推論は常に同じ速度、ネットワーク状態かかわらず。