关键要点
- 五个组件使编码设置真的离线: 本地LLM、编辑器集成、包缓存、文档镜像、本地搜索。缺少任何一个你会在实际工作的一个小时内撞到"需要互联网"的墙。
- 磁盘预算:大约50~80GB。 Qwen3-Coder 30B Q4_K_M大约18GB;Devdocs大约3GB;Stack Overflow转储大约8GB;其余是根据你实际接触的语言和项目大小的包缓存。
- 硬件下限: 30B模型32GB统一RAM(Apple Silicon)或16GB VRAM(独立GPU)、7B后备选项16GB统一RAM。推荐甜蜜点:64GB的M5 MacBook Pro – 模型、编辑器、Docker、浏览器无分页全适配。
- Continue.dev和Aider都完全离线运行 针对本地Ollama或llama.cpp端点。无遥测调用、无许可证检查。GitHub Copilot、Cursor的Tab自动完成、Codeium都需要网络调用且在离线时无声地性能下降。
- 真的破裂的两件事: 安装未在缓存中的全新第三方包(无缓存命中、无后备)和询问模型关于在其训练截止后发布的API。两者都可以通过预缓存你计划使用的内容来修复。
- 14小时飞行测试通过: 部署了真实功能、修复了两个bug、运行了完整测试套件、全部无任何网络调用。设置是真实的,不是理论的。
快速事实
- 堆栈: Qwen3-Coder 30B(或7B)+ Continue.dev或Aider + Devdocs(或Zeal)+ Verdaccio(npm)和devpi(pip)+ ripgrep和rga。
- 总磁盘: 取决于语言覆盖范围和是否缓存Stack Overflow转储约50~80GB。
- 硬件甜蜜点: Apple M5 MacBook Pro 64GB。统一内存意味着30B模型和你的编辑器和Docker共享一个池。
- 离线vs在线质量: 模型本身相同 – 自动完成、重构、代码审查感觉一样。摩擦在模型周围,不在其中。
- 离线延迟: M5上大约280ms自动完成(当你有信号时比到Copilot服务器的往返更快)。
- 完全开源: Ollama(MIT)、Continue.dev(Apache)、Aider(Apache)、Qwen3-Coder(开放权重)、Devdocs(MPL)、Zeal(GPL)。
- 更新: 设置是"快照然后运行" – 一旦所有内容被缓存,它保持最新直到你选择刷新。在线更新,然后再离线。
离线堆栈
五个组件,每个用于网络通常提供的东西。 删除其中任何一个设置在实际工作中会撞到墙。表格映射每个在线工具到其离线等效物和你应该规划的磁盘预算。
📍 简单一句话
2026年完全离线编码环境是一个本地LLM、一个编辑器束缚、每种语言一个缓存包注册表、一个文档镜像、一个本地搜索工具 – 总磁盘大约50~80GB。
💬 简单来说
想象你的编辑器和终端通常做的所有在线事情 – 获取包、查看文档、搜索Stack Overflow、询问Copilot – 并在你的笔记本上为每一个固定一个本地替换品。在一次性离飞前缓存后,这些都不依赖网络。模型存在于磁盘、文档存在于磁盘、npm注册表存在于磁盘。唯一的故障模式是"我需要一个我还没有缓存的包" – 那也有修复。
| 组件 | 在线工具 | 离线替换 | 缓存大小 |
|---|---|---|---|
| AI代码补全 | GitHub Copilot, Cursor Tab | Continue.dev(或Aider)+ Ollama + Qwen3-Coder 30B | 约18GB(仅模型) |
| 官方文档 | MDN, ReadTheDocs, 官方网站 | Devdocs(网页应用)或Zeal(桌面) | 约3~5GB |
| Stack Overflow | stackoverflow.com | Stack Exchange数据转储(Kiwix或本地索引) | 约8GB(压缩) |
| npm包 | registry.npmjs.org | 带npm install --prefer-offline预热缓存的Verdaccio | 项目相关(通常约2~10GB) |
| Python包 | PyPI | devpi或通过pip download的本地wheels | 项目相关(通常约1~5GB) |
| Rust crates | crates.io | 项目deps的cargo vendor;缓存的~/.cargo/registry | 项目相关(通常约0.5~3GB) |
| Go模块 | proxy.golang.org | 本地Athens代理或GOFLAGS=-mod=vendor | 项目相关(通常约0.5~2GB) |
| 代码搜索 | GitHub搜索, Sourcegraph | 代码用ripgrep(rg)、PDF和存档用rga | 约10MB(仅二进制) |
| Git远程 | GitHub, GitLab | 用--mirror预克隆的repos或本地Gitea | 每repo大小 |
| 容器镜像 | Docker Hub, GHCR | 本地注册表镜像或预拉取的镜像 | 项目相关 |
📌Note: 第一天你不需要所有十个。最小可用的离线设置是LLM、Continue.dev或Aider以及你在旅行中使用的语言的包缓存。一旦基础工作后添加Devdocs和Stack Overflow转储。
14小时飞行测试:实际发生了什么
设置在2026年3月进行了太平洋横断飞行测试 – 14小时、无Wi-Fi(购买的航空公司通票在登机门时失败且再也没回来)。 下面是什么工作、什么几乎破裂、没有准备会停止旅行的东西。
本地模型的输出质量取决于你如何提示它。对于改进任何本地模型代码生成的结构化提示技术,参阅Write Better Code With AI。
- 第1小时 – 取出笔记本、打开前晚克隆的Next.js项目。 Continue.dev已经指向
localhost:11434的Ollama。在想要重构的函数上按Cmd+I。差异在2秒内出现。接受。模型是加载到内存的Qwen3-Coder 30B Q4_K_M;自我打包后就一直在那。 - **第3小时 – 需要添加新的依赖项:
@tanstack/react-query。** 运行npm install。Verdaccio从本地缓存提供它(我在家作为烟雾测试运行了npm install)。总耗时:4秒。在tcpdump中观察到的无网络调用(是的,我检查了 – 这是那种飞行)。 - 第5小时 – 忘记了Zod方法的确切签名。 在浏览器标签页中打开Devdocs。Zod docset被包含。8秒内找到答案。无"加载…"旋转器。
- **第6小时 – 尝试安装不在缓存中的包:
vitest-html-reporter。**npm install从Verdaccio失败,出现404。这是第一堵墙。后备:我本地克隆了repo、手动将源代码复制到node_modules、修补package.json指向本地路径。用了12分钟。修复是预防性的:离线前预热任何你可能需要的缓存。 - 第8小时 – 询问模型关于2月2026年发布的库。 它自信地幻视了API。Qwen3-Coder的训练截止是2025年10月;2月2026年的API不在训练数据中。修复:我在飞行前用
rga本地索引了库的repo。搜索实际源代码。找到真实签名。教训:模型知道在其训练数据中是什么;对于任何更新的,文档和源代码是你的权威。 - 第11小时 – 运行完整测试套件。 423个测试、4.7秒。无回归。测试运行器不在乎网络。
- 第13小时 – 无推送。 Git提交本地累积。飞机着陆时,我在机场酒廊运行一次
git push。17个提交一起推送。本地第一个git模型使这成为可能 – 唯一网络依赖步骤是最终推送。 - 净结果: 部署了一个真实功能、修复了两个bug、写了11个新测试、三个提交我仍然为之自豪。生产小时数:14小时中约11小时(其余是吃饭、睡觉、在第6小时处理流氓依赖)。设置在仅这一次飞行就为自己付费。
💡Tip: 在家进行一次"熄灯"演练:关闭Wi-Fi、禁用移动热点、尝试进行正常的90分钟工作会议。你会在离地35,000英尺前找到缓存中的缝隙。常见发现:从@types拉取的TypeScript仅类型导入、绕过npm缓存的pnpm install、未预拉取的Docker基础镜像。
离飞前检查清单:编号步骤
在失去连接的前一天运行此列表。 每个步骤耗时1~10分钟;整个列表第一次耗时约一小时、后续旅行耗时15分钟因为缓存保持不变。
- 1拉取本地LLM。
ollama pull qwen3-coder:30b(16GB机器是:7b)。用ollama run qwen3-coder:30b "say hi"– 它应该在秒内响应进行验证。 - 2安装并配置Continue.dev(或Aider)。打开VS Code、安装Continue.dev扩展、编辑
~/.continue/config.json指向http://localhost:11434(Ollama默认)。通过打开文件并按Cmd+I测试。 - 3预热项目的包缓存。
cd进项目、运行npm install(或pip install -r requirements.txt、或cargo build、或go mod download)。Verdaccio、devpi或Cargo将在第一次运行时将所有内容缓存到磁盘。 - 4运行可能需要的任何可选依赖项的示例安装。如果你可能在飞行中添加
@tanstack/react-query或zod,现在在暂存目录中对它们运行一次性npm install。包会进入缓存。 - 5预克隆你可能引用的repos。
git clone --mirror是最安全的 – 你获得完整历史和所有分支而无需稍后的网络。 - 6同步Devdocs(或下载你需要的Zeal docsets)。在Devdocs中,选择Settings → Disable Auto-update → Download All。你需要的docsets(TypeScript、Node、React、Python、Rust)会本地到达。
- 7预拉取你可能使用的任何Docker镜像。
docker pull node:20-alpine、docker pull postgres:16等。当你后来docker compose up时它们将从本地存储提供。 - 8在项目上运行一次测试套件。在你离地球35,000英尺远的网络之前会捕获缺失的构建工件(编译的TypeScript、生成的Prisma客户端)。
- 9断开连接30分钟并重新测试。关闭Wi-Fi、禁用移动蜂窝并尝试进行5分钟的真实工作。任何失败的东西 – 现在修复、不在登机口。
- 10给所有东西充电。电池是缓存未命中之后的第二个离线故障模式。M5 MacBook Pro上2小时的LLM使用大约燃烧电池的30~40% – 相应计划并带一个笔记本级USB-C电源组。
💡Tip: 将此检查清单保存为脚本。运行ollama pull、npm install、pip install、git fetch --all、docker pull处理常见依赖的30行bash文件(pre-flight.sh)将整个过程变为一个命令。第一次运行耗时45分钟;后续运行耗时5分钟因为所有内容都缓存。
硬件:为什么64GB统一内存的M5 MacBook Pro赢
对于纯离线编码工作,64GB统一内存的Apple M5 MacBook Pro是2026年最强大的单一机器。 原因是统一内存:GPU和CPU共享一个池,所以30B模型、你的编辑器、Docker容器、基于Chromium的文档查看器全部共存无分页。
- 统一内存意味着模型不"在VRAM中"也不"在系统RAM中" – 它在内存中。 当你加载Qwen3-Coder 30B Q4_K_M(约18GB)时,它保持驻留;切换到Docker compose堆栈不会驱逐它。在具有16GB VRAM和32GB系统RAM的离散GPU笔记本上,交换模型每次切换成本5~10秒。
- 30B模型舒适地适应24GB;64GB为其他所有内容留下余地。 有64GB你可以加载模型、三个Docker容器(数据库、redis、沙箱)、VS Code、带Devdocs的Chromium标签页、终端多路复用器全都运行无缓慢。
- 负载下的电池寿命:6~8小时。 这涵盖了大多数带USB-C电源组的飞行。M5是迄今为止为消费级用户提供的持续LLM推理最节能的芯片 – 能量每令牌的数字大约比离散GPU笔记本相同吞吐量好3倍。
- 在安静的飞行上无风扇噪音。 M5机箱在持续时间内被动运行30B模型。离散GPU笔记本在推理负载下听得见地旋转风扇 – 在家没问题,但在第27行是社会问题。
- 离散GPU替代方案在原始吞吐量上有竞争力但成本更多折中。 Razer Blade 16带RTX 4090移动(16GB VRAM)运行30B模型时tokens/sec比M5更高,但推理下电池寿命约2小时、风扇噪音重要、16GB VRAM上限意味着你也不能保存32K上下文配置或在模型旁边运行数据库Docker容器。
- 对于更深的硬件排名, 参阅Best Laptops for Local LLMs in 2026 – 该文章按tokens/sec、电池寿命、总系统内存对所有可行选项(M系列Macs、ROG Strix、Razer Blade、Framework 16)进行排名。
📌Note: 如果你已经有32GB的M3或M4 MacBook Pro,你不需要升级。7B模型在8GB RAM上舒适运行并获得30B质量的80~85%。64GB建议是为特意为离线编码工作购买机器的用户;现有硬件用户应该先试试7B。
为离线工作选择正确的本地模型
模型是最大的磁盘和内存线项;选择一次、正确选择。 2026年5月的三个合理选择,按他们处理离线编码工作的良好程度排名。
- Qwen3-Coder 30B Q4_K_M(约18GB)– 推荐默认。 TypeScript、Python、Rust、Go自动完成的同类最佳;可靠的工具调用;处理32K令牌上下文。需要24GB可用内存(Apple Silicon系统RAM、离散GPU VRAM)。
- Qwen3-Coder 7B Q4_K_M(约5GB)– 轻量级后备。 在8GB统一RAM或8GB VRAM上运行。日常工作的30B质量约80~85%;差距显示在多步重构和长上下文推理。如果你的笔记本具有少于24GB内存或者你想让模型与重型Docker工作负载共存的正确选择。
- DeepSeek Coder V3 – 如果你需要非常长的上下文选择这个。 DeepSeek的V3支持128K令牌;在一个提示中跨许多文件调试时有用。在磁盘上更大(Q4_K_M时约25GB);原始质量大致等于Qwen3-Coder 30B。
- Codestral 22B – 速度选择。 比Qwen3-Coder 30B更快的自动完成;在工具调用和多步计划上较弱。如果你的离线工作流是自动完成主导的且你不使用代理工具的好处。
- 跳过: 无编码微调的13B以下通用模型(Llama 3.2 7B、Mistral 7B)和任何比Q4_K_M更严格的量化。两个在实际编码工作上明显失败。
- 对于包括每种语言HumanEval+分数的完整编码模型比较, 参阅Best Local Coding Models in 2026: Qwen3-Coder vs DeepSeek vs Codestral。
缓存依赖:npm、pip、cargo、go
包管理器是LLM之后第二个最常见的离线故障点。 每种语言有不同的机制;原则相同 – 预先获取你可能需要的一切、从本地存储供应当你调用install时。
- npm(Node.js): 安装Verdaccio(
npm install -g verdaccio)、指向npm(npm config set registry http://localhost:4873/)、在每个项目上运行npm install一次。Verdaccio本地缓存每个包;后续安装离线工作。缓存在~/.local/share/verdaccio/storage。 - pip(Python): 最简单的模式是
pip download -r requirements.txt -d ~/wheelhouse,然后用pip install --no-index --find-links ~/wheelhouse -r requirements.txt安装。多项目使用,devpi是更强大的选项 – 对Python的Verdaccio一样的形状。 - cargo(Rust):
cargo vendor将每个依赖项写入项目中的vendor/目录,加上一个.cargo/config.toml片段告诉cargo使用它。提交后,项目离线永远构建。Cargo也在~/.cargo/registry/cache缓存全局注册表 – 用cargo fetch预热此为大多数用例提供。 - go(Go): 最简单的模式是每项目
go mod vendor(Go写一个vendor/目录比如Cargo)。全局缓存,运行本地Athens代理设置GOPROXY=http://localhost:3000。 - pnpm和yarn(npm风味): 指向Verdaccio就像你指向npm。pnpm的内容寻址存储离线友好;一旦包在存储中,每个项目共享它。
- Brew、apt、dnf(系统包): 短期行程优先级较低但值得知道。
brew bundle dump生成Brewfile你可以稍后重新运行;apt/dnf都有离线模式通过apt-get download和下载.deb/.rpm文件。
💡Tip: 最简单的离线包模式是项目范围:Rust的cargo vendor、Go的go mod vendor、Node的针对Verdaccio的npm install、Python的pip download – 全部在离飞前一天在项目级别完成。系统范围缓存(Verdaccio存储、~/.cargo、~/.npm)处理你在项目间可能需要的任何东西。
离线文档:Devdocs、Zeal、Stack Overflow转储
模型大约知道它训练的内容;其他所有东西在离线文档和代码中存在。 三个来源覆盖大约95%你会Google的内容。
- Devdocs(网页应用、约3GB)。 一个独立的Progressive Web App,为约150种语言和框架镜像官方文档。打开
devdocs.io、点击Settings、启用你使用的文档、点击"Make available offline"。浏览器缓存所有内容;之后在飞行模式下永久工作。 - Zeal(桌面应用、约5GB)。 一个原生桌面文档浏览器使用Dash docsets – 与macOS Dash应用相同的格式,但自由且跨平台。比Devdocs更好的键盘导航;更弱的搜索。选择一个或另一个;两个都过度。
- Stack Overflow数据转储(约8GB压缩)。 Internet Archive将官方Stack Exchange数据转储作为torrent托管。Kiwix这样的工具将其呈现为可浏览网站,或者你可以用Elasticsearch / SQLite-FTS为快速本地搜索索引。覆盖在转储日期切断 – 通常在几个月内 – 但对于一般编程问题很好。
- 项目特定文档。 对于你大量使用的库,克隆repo和文档网站源。大多数文档网站是静止的在
docs/目录存在;mkdocs build或npm run docs:build生成本地网站你可以用python -m http.server提供。 - 模型本身对其训练数据中的事物计算为文档。 Qwen3-Coder 30B很好地知道标准库和主要框架 – TypeScript、React、Python stdlib、NumPy、AWS SDK。询问模型经常胜过搜索Devdocs这些。分割是"已知的模型、新的文档、源代码的未知"。
📌Note: Stack Overflow内容质量在tag间变化很大。转储对于遗留语言和具体错误消息 – 正确是模型较弱的东西最有用。对于主流框架问题,模型比转储搜索更快更准确。
无Google的本地搜索
ripgrep和rga是两个工具使本地搜索工作流感觉像Google一样快。** 两个都免费、两个都tiny、两个在每个平台上运行。
- **ripgrep(
rg)– 代码的快速文本搜索。** 替换grep -r并在大型repos上运行10~50倍。自动读取.gitignore。"这个函数在哪里"的标准工具和"查找此API的所有调用者"。 - **rga(
ripgrep-all)– ripgrep用于PDF、存档、其他二进制格式。** 透明搜索PDF、zip文件、gzipped日志、SQLite数据库、Office文档内。rga "query" .搜索ripgrep无法完成的每个文件格式,对纯文本回退到ripgrep。 - 用例1 – "我需要如何使用此API的示例"。 预克隆使用它的几个repos;
rg "api_function_name" ~/code/examples以秒的一小部分返回每个实际调用网站。对于使用模式比文档更好。 - 用例2 – "此PDF规范的哪处说X"。
rga "specific phrase" ~/specs/。需要2分钟扫描的PDF变为200ms搜索。 - 用例3 – "无Stack Overflow的Stack Overflow"。 如果你用Kiwix或Elasticsearch索引Stack Overflow转储,针对转储的
rg风格查询替换遗留主题的Google"stackoverflow"搜索。 - 对于快速代码问题,模型比搜索更快。 Continue.dev中的
Cmd+L打开带有codebase的聊天作为上下文;"我们在哪里处理auth流"在1~2秒内返回正确的文件,无需你在搜索工具中键入查询。
哪个IDE完全离线工作
大多数主要IDE离线工作;差异在扩展、许可验证、AI工具。 重要是AI功能真的工作,因为那是网络下降时用户注意的位。
- VS Code – 完全离线工作;AI功能取决于你使用的扩展。 Continue.dev针对本地Ollama端点完全运行且是推荐配对。Cursor的内置Tab自动完成进行网络调用且无声性能下降。GitHub Copilot立即停止工作。
- JetBrains IDE(IntelliJ、PyCharm、GoLand、WebStorm)– 许可缓存后完全离线工作。 许可证服务器定期ping(个人许可证30天)但容忍扩展离线窗口。Continue.dev有有功能奇偶JetBrains构建。
- Vim和Neovim – 完全离线设计。 无许可证检查、无遥测。与Aider侧终端窗格配对;或用
llm.nvim插件指向本地Ollama使用nvim。 - Emacs – 完全离线设计。 通过
aidermacs与Aider配对或直接通过gptel调用本地Ollama HTTP API。 - Cursor – 部分离线。 IDE本身运行无互联网,但头条功能(Tab自动完成、Cmd+K代理)需要Cursor云路由。在Cursor内安装Continue.dev作为VS Code扩展绕过限制;在离线能力IDE内获得工作本地AI编辑器。
- 对于harness层特定的更深比较, 参阅Continue.dev vs Cline vs Aider: Best Local Coding Agent in 2026。
💡Tip: 为旅行选择Cline上的Continue.dev。Cline的自主代理循环将完整文件内容流入对话中,快速燃烧令牌 – 在市电上好,在飞行上乐趣较少其中每瓦GPU时间成本电池。Continue.dev的自动完成第一设计每会话使用明显较少计算。
什么真的在离线时破裂(诚实列表)
设置是genuinely稳健,但五件东西仍然失败。 提前知道故障模式让你周围工作。
- 安装全新第三方包。 无缓存命中、无后备除手动源供应。修复是预防性的 – 预缓存任何你可能想要、包括拉伸目标。
- 模型知识关于后期截止API。 Qwen3-Coder训练截止是2025年10月(2026年5月发布);在那之后发布的API最多猜测。修复:克隆源、疑问时
rg真实签名。从不信任模型关于比其训练数据更新的库。 - 任何需要OAuth或API认证往返的事。 登入云提供商、交换OAuth令牌、点击你的团队SSO门户 – 这些都离线不工作。修复:离起前做所有认证且依赖缓存令牌(通常12~24小时后过期)。
- 遥远服务的浏览器基测试。 如果你的测试点击真实API或staging环境,它们离线失败。修复:使用本地模拟(msw、nock、vcr)且预记录fixtures。
- 调用外部服务的图像和资产生成。 云基图像生成器、字体服务、CDN取回资产都失败。修复:将固定资产烤进repo或使用完全本地图像模型(那是独立堆栈)。
- "那个库叫什么"问题的修复是模型本身。 当你无法Google搜索时,问模型"X功能的包名是什么" – 对于它训练数据中的东西它80~90%正确回答。安装前针对包缓存检查。
之后更新模型和缓存
设置是"快照然后运行" – 一旦所有内容被缓存,它保持静止直到你选择刷新。 更新在线发生;离线会话使用在刷新时是电流。
- **通过
ollama pull的模型更新。** 当新Qwen3-Coder版本运送时,在线运行ollama pull qwen3-coder:30b。新权重替换旧的;前面版本消失除非你标记它(拉取前ollama tag qwen3-coder:30b qwen3-coder:30b-2026-05)。 - **包缓存在下一次在线更新
npm install/pip install/cargo update。** 无特殊工作流 – 你的普通包管理器在线时继续工作且离线时冻结。 - Devdocs默认自动更新。 在飞行前禁用自动更新以避免在你有机场信号时的惊喜下载(Settings → Disable Auto-update)。
- Stack Overflow转储季度刷新。 Internet Archive每三个月发布新转储;想要更新覆盖时重新下载。
- 计划cadence: 模型和Devdocs每2~3个月、包缓存每项目开始新工作、Stack Overflow转储每6~12个月。这些都不紧迫除非你开始新工作。
与团队共享离线缓存
对于一起旅行或在同一受限环境工作的团队,缓存是可共享的。 这是每开发者60GB下载与办公网络一次60GB下载的差异。
- Verdaccio也作为团队服务器运行。 指向小办公服务器Verdaccio、为每个人设置
npm config set registry http://team-cache.local:4873/。新开发者自动获得缓存;离线旅行仅意味着预同步你在笔记本上需要的。 - 模型可以在团队Ollama服务器上托管。 肌肉办公机器
ollama serve、当在办公室时指向团队服务器的每开发者Continue.dev配置、为旅行切换到localhost:11434(本地拉取模型)。 - Devdocs没有原生团队模式但是trivially可共享作为静止文件夹。 一次构建、在
http://docs.team.local上主持、每个人书签。为旅行,个别开发者运行localhost实例。 - Git已经是团队可共享的。 办公网络中的本地Gitea或自主机GitLab给每开发者离办公repo访问;在个别笔记本上与
git clone --mirror组合为旅行。 - 通过私有注册表的容器镜像。 小Harbor或Gitea组装注册表一次缓存镜像;旅行者在离开前
docker pull到本地。 - 经济案例: 对于定期旅行的5开发者团队,共享缓存每月保存约250GB互联网下载且开启离飞前检查清单从60分钟到5。
设置离线编码堆栈的常见错误
- 错误1:忘记在旅行前离线测试设置。 最常见的失败是在机场找到缝隙。在家运行30分钟"熄灯"演练 – 关闭Wi-Fi、禁用蜂窝、尝试真实工作 – 在少于24小时前需要。
- 错误2:缓存仅你现在使用的包,不是你可能需要的。 如果有机会你可能在旅行中添加依赖项,在家运行一次烟雾测试。缓存将保存它。
- 错误3:启用Cursor的Tab自动完成且假设它离线工作。 它无法。IDE无声回退到无;你得零自动完成。要么在Cursor内安装Continue.dev作为VS Code扩展、要么直接使用VS Code。
- 错误4:使用7B下的模型为认真编码工作。 Sub-7B编码模型足够错过,你花费更多时间修复他们的输出比写代码。掉到Qwen3-Coder 7B最少;如果你的硬件无法处理,离线编码设置在此笔记本上无可行。
- 错误5:信任模型关于比其训练截止更新的库。 它将自信地幻视。对于在最后6个月内发布的任何东西,把模型的输出当作猜测且对照源代码检查。
- **错误6:跳过包缓存且假设
npm install在机场酒廊足够快。** 酒廊Wi-Fi不可靠、下载停滞且你用一个半安装的依赖项树登机。前一天缓存。 - 错误7:忘记Docker镜像。 如果你的dev工作流使用
docker compose up为数据库,镜像需要预拉取。首次docker compose up在飞行上无镜像是硬墙。
来源
- Ollama文档 — 官方模型库,包括Qwen3-Coder变体和为离线VRAM/RAM预算引用的量化级别。
- Continue.dev文档 — 设置指南、本地模型配置、离线能力自动完成和聊天工作流。
- Aider文档 — 终端CLI参考、本地模型设置、git本地离线工作流模式。
- Devdocs源 — 镜像官方文档为离线使用的网页应用;下载和PWA缓存说明。
- Stack Exchange数据转储(Internet Archive) — 季度Stack Overflow内容转储用作搜索的离线替换。
FAQ
完整离线编码设置的尺寸是多少?
磁盘上约50~80GB取决于覆盖。分解:Qwen3-Coder 30B Q4_K_M约18GB、Devdocs约3GB、Zeal docsets若也使用约5GB、Stack Overflow转储约8GB、项目包缓存(npm、pip、cargo、go)各加2~10GB。7B模型后备约5GB如果你想要更小的足迹。
我能在离线时安装新npm包吗?
仅如果它们已在本地Verdaccio缓存或pnpm存储中。标准离飞前模式是运行项目的npm install在家,加上任何可选依赖项你可能想要,在失去连接前。你无缓存的包无法离线安装;解决方法是手动克隆源且复制到node_modules但那是缓慢且易错的。预缓存是答案。
GitHub离线工作吗?
Git本身完全离线工作 – git commit、git branch、git rebase、git log全本地运行。什么无法工作是git pull、git push、git fetch、任何网页UI。用git clone --mirror预克隆你需要的repos获得完整历史;提交本地累积且离线后推送。为genuinely离线协作工作,在同事笔记本或小办公服务器上运行本地Gitea或自主机GitLab。
哪个IDE最离线完全工作?
VS Code加Continue.dev是最抛光离线体验:丰富AI功能、好扩展生态系统、无许可证调用。JetBrains IDE工作但许可证服务器定期ping(容忍约30天离线)。Vim、Neovim、Emacs离线设计且与Aider很好配对。Cursor需要Continue.dev在其内部因为Cursor内置AI功能需要网络调用。
我能为离线工作克隆repos吗?
是的。git clone --mirror <url> <path>创建完整历史和所有分支的裸克隆;git clone <url>为正常工作副本工作。两个在初始克隆后离线运行。对多repo工作流,预飞行克隆脚本(for repo in $REPOS; do git clone --mirror "$repo"; done)是最简单模式。子模块需要git submodule update --init --recursive为预取。
离线编码在Linux上工作吗?
是的 – Linux是离线编码设置最简单的平台。Ollama原生运行、Continue.dev和Aider都有Linux构建、每个包管理器(apt、dnf、pacman、nix)有离线模式、此处描述的大多数工具原始在Linux上构建。唯一Linux特定注记是GPU驱动:NVIDIA Linux驱动为推理成熟但值得预测试在你计划离线使用的确切内核。Apple Silicon Macs和带离散GPU的Linux笔记本都完全支持。
我如何在无互联网时更新本地AI模型?
你无法 – 模型更新需要连接。模式是"快照然后运行":在线拉取最新模型,然后离线。当你下一次有信号(机场酒廊、酒店Wi-Fi、家)时,运行ollama pull qwen3-coder:30b取得最新权重。月刷新是典型cadence;模型不无声在更新间性能下降。
我能与我的团队共享离线缓存吗?
是的。Verdaccio(npm)和devpi(pip)都作为团队服务器运行;Athens代理供应Go模块;私有容器注册表供应Docker镜像;自主机Gitea或GitLab供应git remotes。集中缓存意味着新团队成员从办公网络获取所有东西而不是个别拉60GB。为旅行,每开发者笔记本仍需你将使用的本地快照,但集中缓存使快照便宜。
这在弱信号的飞行上工作吗?
是的 – 且比信赖斑点机内Wi-Fi更可靠。全堆栈假设零网络;弱信号与零信号相同对待。轶事地,本地LLM自动完成延迟(M5约280ms)比机内Wi-Fi往返Copilot服务器更快(健全连接时400~800ms、降级时糟得多)。离线设计的战胜"在可用时在线"在长航线上。
离线编码比在线更快吗?
为自动完成和聊天是是 – 本地推论往返比网络往返到云AI提供商更快。Continue.dev + Qwen3-Coder 30B在M5返回自动完成约280ms;GitHub Copilot在好网络条件约180~400ms返回;Copilot在降级网络更缓慢返回或失败。延迟差是小但一贯有利于本地。更大的收获是决定性 – 本地推论每次相同速度,无关网络状态。