PromptQuorumPromptQuorum
主页/本地LLM/本地LLM安全与隐私检查清单:12个步骤实现安全设置
Getting Started

本地LLM安全与隐私检查清单:12个步骤实现安全设置

·阅读约8分钟·Hans Kuepper 作者 · PromptQuorum创始人,多模型AI调度工具 · PromptQuorum

运行本地LLM可将您的提示保留在本地机器上,不经过外部服务器。但这并不意味着您的设置自动安全。遥测、不可信的模型文件和暴露的API等风险仍然可能泄露数据。本清单准确说明如何在10分钟内保护本地LLM。

本地LLM是否私密且安全?

本地LLM默认是私密的,因为提示保存在您的设备上,但它们不一定是安全的。主要风险包括工具中的遥测、不可信的模型文件和网络暴露。安全的设置需要禁用遥测、验证模型来源和隔离系统外部访问。

关键要点

  • 本地推理将提示数据保留在您的机器上,远离第三方服务器。剩余风险:推理工具的遥测、来自不可信来源的模型文件、Ollama API暴露在网络上。
  • Ollama默认绑定到localhost----除非您明确设置OLLAMA_HOST=0.0.0.0,否则无法从其他设备访问。
  • 禁用遥测:LM Studio(设置 → 隐私 → 关闭"发送匿名使用数据")和GPT4All(设置 → 禁用遥测)。
  • 仅从Hugging Face(huggingface.co)或官方Ollama库下载模型权重。对于敏感部署,请验证SHA256校验和。
  • 对于受管制的数据(HIPAA、GDPR、法律特权):启用完全磁盘加密、使用网络隔离的机器,并审计所有安装的扩展。

为什么本地LLM不自动保护隐私?

模型推理本身是私密的----您的提示永远不会发送到模型提供商的服务器。 但是,其他三个数据流可能导致信息泄露:

  • 应用程序遥测:LM Studio、GPT4All和其他一些工具默认收集匿名使用分析。这可能包括会话计数、使用的模型名称和性能指标。
  • 模型下载来源:恶意GGUF文件可能包含在易受攻击的推理引擎中加载模型时执行的代码。未验证的模型文件是供应链风险。
  • 网络暴露:Ollama的API服务器可被您机器上的任何进程访问。如果使用`OLLAMA_HOST=0.0.0.0`错误配置,整个网络都可以在没有认证的情况下访问它。

本地LLM比云API更安全吗?

本地LLM因为数据留在您的设备上,所以对隐私而言更安全,而云API会将提示发送到外部服务器。但是,本地设置需要手动安全配置,而云提供商处理基础设施安全。真正的权衡是隐私自主性与委托安全性。

关于本地LLM安全的常见误解是什么?

  • "本地LLM自动安全" → 错误,配置最重要
  • "没有互联网=没有风险" → 错误,恶意文件和插件仍然适用
  • "开源=安全" → 错误,代码仍需验证

本地LLM中最大的安全风险是什么?

  • 遥测泄露 → LM Studio等工具可能发送使用数据
  • 恶意模型文件 → 未验证的GGUF文件可能引入风险
  • 网络暴露 → Ollama等API如果配置不当可能被公开

快速安全检查清单(5分钟设置)

  1. 1
    在您的工具中禁用遥测
  2. 2
    仅从Hugging Face或Ollama下载模型
  3. 3
    确保API仅绑定到localhost
  4. 4
    启用完全磁盘加密
  5. 5
    不要向互联网暴露端口

本地LLM安全检查清单包含哪些内容?

在处理敏感或受管制数据之前,检查下面的每一项。 此清单涵盖Ollama、LM Studio、Jan AI和GPT4All设置中最常见的隐私和安全缺陷。

  1. 1
    仅从可信来源下载模型
    Why it matters: 防止来自不可信来源的恶意模型文件。
  2. 2
    对敏感用途验证模型校验和
    Why it matters: 确保下载的模型文件未被篡改。
  3. 3
    禁用推理工具中的遥测
    Why it matters: 防止使用数据和会话信息被收集。
  4. 4
    确认Ollama仅绑定到localhost
    Why it matters: 防止API被暴露给网络上的其他设备。
  5. 5
    启用完全磁盘加密
    Why it matters: 设备丢失或被盗时保护模型权重和聊天记录。
  6. 6
    在加密文件夹中存储敏感聊天记录
    Why it matters: 保护包含敏感数据的会话历史。
  7. 7
    查看已安装的扩展和插件
    Why it matters: 防止恶意的第三方扩展访问网络。
  8. 8
    为LLM工作使用专用用户账户
    Why it matters: 将模型文件、聊天历史和API密钥与主档案隔离。
  9. 9
    不要向互联网公开本地API
    Why it matters: 防止对推理引擎的未授权远程访问。
  10. 10
    审计使用本地LLM的应用中的系统提示
    Why it matters: 防止通过浏览器扩展或工具集成进行数据泄露。
  11. 11
    保持推理工具最新
    Why it matters: 修复Ollama、LM Studio等工具中的已知安全漏洞。
  12. 12
    网络隔离环境:文档化批准的模型版本
    Why it matters: 确保数据处理和基础设施隔离的监管要求合规。

实用建议:数据安全合规部署

中国企业和政府机构需要满足《数据安全法》(DSL)和《个人信息保护法》(PIPL)。以下建议可帮助您实现合规:

  • 本地数据处理:使用Ollama确保所有数据处理都在您的机器上本地进行,避免传输到美国云服务器(符合数据本地化要求)。
  • 中文模型选择:使用Qwen 2.5或本地化模型,这些模型由中国企业提供,您对代码和数据处理流程有完全控制。
  • 审计和合规记录:为每个Ollama部署维护部署日期、模型版本和访问日志的文档。
  • 网络隔离部署:对于包含商业秘密或个人数据的工作,使用本指南第12点----完全网络隔离的机器。
  • 加密和密钥管理:启用AES-256磁盘加密,并将加密密钥存储在与模型分离的安全位置。

在哪里安全下载本地LLM模型权重

模型权重是大型二进制文件。恶意GGUF文件可能利用llama.cpp使用的解析器中的漏洞。截至2026年,虽然尚未确认广泛的基于GGUF的恶意软件,但攻击面存在。

  • Hugging Face(huggingface.co):开源模型的主要来源。每个文件都有经验证的SHA256哈希。坚持来自知名发布者的模型(Meta、Google、Microsoft、Mistral AI、Qwen/阿里巴巴)。
  • Ollama库(ollama.com/library):Ollama在存储前验证模型哈希。通过`ollama pull`拉取的模型是安全的。
  • LM Studio模型浏览器:直接搜索Hugging Face。相同的信任规则适用----检查发布者账户。
  • 避免:匿名文件共享网站、Discord文件下载和任何不提供可验证哈希的来源。

如何阻止来自本地LLM的出站连接

在下载模型后阻止出站连接,以防止推理工具"回家拨号"。 在macOS上使用`pf`防火墙;在Linux上使用`ufw`或OpenSnitch:

bash
# macOS -- 使用pf防火墙阻止Ollama出站
# 添加到/etc/pf.conf:
block out proto tcp from any to any user ollama

# Linux -- 使用ufw阻止
sudo ufw deny out from any to any app ollama

# 或使用Little Snitch(macOS)/ OpenSnitch(Linux)
# 用于具有GUI的单应用网络控制

如何禁用本地LLM工具中的遥测

工具遥测默认验证/禁用方式
Ollama不收集
LM Studio匿名分析已启用
Jan AI无 -- 明确禁用
GPT4All首次启动时仅选择性加入

您应该假设什么样的威胁模型?

假设您的本地LLM环境可能通过工具、插件或配置错误泄露数据。将模型视为不可信的——设计您的设置,使得即使模型被攻击,敏感数据也无法被访问或传输。这意味着将推理工具与互联网隔离、禁用遥测并限制文件系统访问。

安全不仅仅是数据隐私问题——提示词注入是一种独立的攻击向量,恶意输入会操纵模型的行为。关于适用于本地和云模型的注入防御技术,请参阅提示词注入与安全

关于本地LLM的常见安全问题

本地LLM可以访问我的文件或互联网吗?

不能。模型本身是生成文本的静态文件。它无法读取文件系统或发出网络请求。但是,运行模型的推理工具(Ollama、LM Studio)拥有正常的操作系统级访问。一些工具包含读取文件的功能――例如GPT4All的LocalDocs或LM Studio的文件附加功能。这些功能是可选的并且明确记录。

使用本地LLM处理HIPAA数据安全吗?

本地推理消除了云API创建的第三方数据处理器风险。但是,HIPAA合规需要的不仅仅是私密推理――您需要完全磁盘加密、访问控制、审计日志,以及如果任何软件供应商可能访问PHI,则需要业务关联协议。使用启用FileVault和禁用遥测的Ollama是一个合理的起点,但正式的HIPAA合规需要完整的风险评估。

Ollama是否将我的提示发送到任何地方?

不会。Ollama是开源的(github.com/ollama/ollama),不包含任何遥测或数据收集代码。提示由llama.cpp在本地处理,永远不会传输。Ollama唯一的出站网络活动是在您运行`ollama pull`时从ollama.com下载模型。

使用本地LLM比使用OpenAI API更隐私吗?

是的,就提示隐私而言。使用本地LLM,您的提示永远不会离开您的机器。OpenAI API将提示发送到OpenAI的服务器进行处理。OpenAI的API服务条款规定,API输入/输出默认不用于训练模型,但数据确实通过他们的基础设施传输。对于敏感或受管制数据(医疗、法律、财务),本地推理是更谨慎的选择。

我如何验证下载的模型文件是否安全?

仅从Hugging Face(huggingface.co)或官方Ollama库下载模型。在Hugging Face上,每个文件都显示SHA256哈希――下载后使用`sha256sum <model_file>`验证。坚持来自已知发布者的模型:Meta、Google、Microsoft、Mistral AI和Qwen/Alibaba。避免匿名文件共享或Discord文件下载。

本地LLM的"隐私"和"安全"有什么区别?

隐私意味着您的提示和输出无法被第三方访问。安全意味着您的系统受到威胁保护。本地LLM可能是私密的(数据不会离开您的机器)但不安全(从不信任的来源下载的模型,或网络上公开的Ollama API)。两者必须独立解决。

我可以将本地LLM用于GDPR规制的数据吗?

本地推理大幅降低了GDPR风险,因为数据不会离开您的基础设施。但是,您仍然必须验证推理工具(Ollama、LM Studio)已禁用遥测,已启用磁盘加密,并且访问控制已就位。对于Article 35 DPIA要求,记录您的数据处理设置并确认没有个人数据通过第三方服务器传输。

LM Studio是否将数据发送到其服务器?

LM Studio默认收集匿名分析(会话数、使用的模型名称、性能指标)。它不发送提示内容。要禁用分析:设置 → 隐私 → 取消勾选"发送匿名使用数据"。无论此设置如何,模型推理和聊天日志始终保持本地。

来源

  • OWASP AI安全指南 -- 模型部署的安全考虑
  • Hugging Face Model Card规范 -- 模型来源和许可标准
  • VeraCrypt磁盘加密 -- 开源全磁盘加密工具

本地LLM安全中最常见的错误是什么?

本地LLM安全故障的大多数情况源于配置疏忽,而非模型漏洞。 这些是5个最频繁的错误及其修复方法。

  • 错误: 从第三方网站(Discord、随机GitHub发布)下载模型。修复: 仅使用Hugging Face(huggingface.co)或Ollama库。使用`sha256sum`验证。
  • 错误: 假设本地推理=完全隐私。修复: 禁用LM Studio分析(设置→隐私)和GPT4All遥测。运行`netstat -an | grep 11434`确认无意外端口。
  • 错误: 测试后仍保留`OLLAMA_HOST=0.0.0.0`。修复: 还原:`export OLLAMA_HOST=127.0.0.1:11434`。从另一设备测试――连接应被拒绝。
  • 错误: HIPAA/GDPR工作负载跳过磁盘加密。修复: 启用FileVault(macOS)或BitLocker(Windows)。单独加密LM Studio聊天日志文件夹。
  • 错误: 未检查Open WebUI或Jan AI中的第三方扩展。修复: 每月审计已安装的扩展。删除任何请求您无法识别的网络访问的扩展。

地区合规性考虑

本地LLM推理降低了数据驻留风险,但完全的监管合规性需要按地区增加控制。

  • 欧盟 / GDPR(2018): 本地推理消除了对模型提供商的Article 28数据处理器义务。您仍然必须禁用LM Studio分析、启用磁盘加密,并为任何DPIA记录数据处理设置。在处理个人数据之前执行正当利益评估。
  • 美国 / HIPAA: HIPAA要求PHI保护:完整磁盘加密("加密安全港")、访问控制和审计日志。启用FileVault和禁用遥测的Ollama是HIPAA合规的合理起点。正式合规需要完整风险评估。
  • 日本 / APPI(2022): 个人信息保护法要求在处理期间保护个人数据。网络隔离机器上的本地推理满足数据本地化要求。禁用Ollama更新检查和LM Studio分析以符合APPI。
  • 中国 / PIPL(2021): 在中国运行本地LLM供内部使用不需要CAC注册。如果您在中国部署本地LLM作为公开服务,则需要CAC算法注册。

相关阅读

A Note on Third-Party Facts

This article references third-party AI models, benchmarks, prices, and licenses. The AI landscape changes rapidly. Benchmark scores, license terms, model names, and API prices can shift between the time of writing and the time you read this. Before making deployment or compliance decisions based on this article, verify current figures on each provider's official source: Hugging Face model cards for licenses and benchmarks, provider websites for API pricing, and EUR-Lex for current GDPR and EU AI Act text. This article reflects publicly available information as of May 2026.

使用PromptQuorum将您的本地LLM与25+个云模型同时进行比较。

加入PromptQuorum等待列表 →

← 返回本地LLM

本地LLM安全与隐私检查清单:12步安全设置指南2026 | PromptQuorum