PromptQuorumPromptQuorum
Accueil/LLMs locaux/Configuration optimale des LLM locaux pour données sensibles
Confidentialité & Entreprise

Configuration optimale des LLM locaux pour données sensibles

·12 min de lecture·Par Hans Kuepper · Fondateur de PromptQuorum, outil de dispatch multi-modèle · PromptQuorum

Les LLM locaux garantissent zéro exfiltration de données : dossiers médicaux, documents financiers, brevets professionnels ne quittent jamais votre machine.

Les LLM locaux garantissent zéro exfiltration de données : dossiers médicaux, documents financiers, brevets professionnels ne quittent jamais votre machine. Depuis avril 2026, les secteurs strictement régulés (santé HIPAA, finance RGPD, légal secret professionnel) exigent une inférence isolée. Ce guide couvre la configuration sécurisée, les journaux d'audit et la vérification de conformité.

Points clés

  • RGPD (données sensibles): Les données ne peuvent pas quitter votre contrôle. LLM local sur réseau isolé, stockage chiffré, journaux d'accès.
  • PCI-DSS (données de paiement): Les numéros de carte ne doivent jamais être traités par un LLM. Utiliser uniquement pour l'analyse, jamais les numéros complets.
  • Secret professionnel (légal): Les documents privilégiés ne peuvent pas quitter le contrôle de l'avocat. Machine isolée du réseau, sorties sur papier uniquement.
  • Configuration: Ollama ou vLLM sur serveur Linux isolé, système de fichiers chiffré (LUKS), journalisation d'audit (ELK), pas d'internet. Coût : 3 000-5 000 € matériel + 2 000 €/an mises à jour.
  • UE/RGPD: Article 32 (Sécurité), Article 35 (AIPD obligatoire), Loi IA 2024/1689 (évaluation des risques). Résidence des données = stockage local uniquement.
  • vs APIs cloud: Cloud = le fournisseur contrôle les données + responsabilité de violation. Local = vous contrôlez + zéro risque de violation.

Pourquoi les LLM locaux pour la conformité ?

Les APIs cloud (ChatGPT, Claude, Gemini) ne peuvent pas être utilisées avec des données régulées :

- La transmission des données vers le cloud = violation de confidentialité (RGPD, secret professionnel).

- Pas d'option « mode privé ». Les données entraînent les modèles finalement (conditions de service du fournisseur le permettent).

- Verrouillage du fournisseur : si le fournisseur subit une violation ou ferme, vous perdez les données + votre position de conformité.

Les LLM locaux garantissent :

- Zéro exfiltration de données (isolé du réseau = pas de cloud).

- Journal d'audit (chaque accès enregistré, signé cryptographiquement, immuable).

- Contrôle (vous possédez les données, les clés de chiffrement et toute la pile).

- Prévisibilité des coûts (pas de frais par token après l'investissement initial en matériel de 5 000 €).

Configuration conforme au RGPD (Données sensibles)

Les données sensibles ne peuvent pas être traitées par des systèmes non fiables. Le RGPD exige des mesures de sécurité appropriées (Articles 32, 33, 35).

  1. 1
    Isoler le serveur : Machine Linux dédiée (pas de ressources partagées), pas d'internet, clé USB chiffrée pour les transferts.
  2. 2
    Chiffrer le stockage : Chiffrement intégral du disque LUKS, AES-256, protégé par phrase de passe. Empêche la fuite de données si le matériel est volé.
  3. 3
    Isolation réseau : VLAN dédié ou complètement isolé du réseau. Accès via VPN avec authentification multi-facteurs (AMF), ou terminal physique uniquement.
  4. 4
    Journalisation d'audit : Chaque requête LLM enregistrée : horodatage, ID utilisateur, hash du document (pas de texte brut), longueur de réponse, modèle utilisé. Journaux stockés sur serveur syslog chiffré séparé.
  5. 5
    Contrôle d'accès : Basé sur les rôles (médecin vs administrateur vs chercheur). AMF obligatoire. Pas de mots de passe partagés. Désactiver le compte à la résiliation.
  6. 6
    Politique de rétention : Supprimer les journaux d'inférence après 6 ans (exigence RGPD : droit à l'oubli). Scripts de purge automatisée avec vérification cryptographique.
  7. 7
    Accord de traitement des données (DPA): Ne s'applique que si vous utilisez un fournisseur. Les modèles open-source (Llama, Mistral) nécessitent une documentation interne de conformité.
  8. 8
    Test de pénétration annuel : Audit de sécurité tiers pour vérifier l'absence d'exfiltration de données, d'identifiants par défaut, de vulnérabilités non corrigées.

Configuration sécurisée de la finance (PCI-DSS)

Les données de paiement (numéro de compte bancaire = PAN) ne peuvent pas être traitées par des LLM. PCI-DSS v4.0 exige 12 exigences principales.

  1. 1
    Ne jamais saisir les numéros de carte complets dans un LLM. PCI-DSS l'interdit entièrement. Utiliser uniquement les 4 derniers chiffres, sans date d'expiration.
  2. 2
    Chiffrer au repos et en transit : Fichiers chiffrés AES-256, TLS 1.3 pour le réseau. Tous les données de paiement chiffrées avant de quitter le terminal.
  3. 3
    Segmentation réseau : Serveur LLM sur VLAN isolé avec règles de pare-feu. Pas d'accès à internet, pas d'accès au réseau d'entreprise.
  4. 4
    Module de sécurité matériel (HSM) : Stocker les clés de chiffrement dans un appareil inviolable (Thales, Yubico HSM). Séparé du serveur LLM.
  5. 5
    Journalisation et surveillance : Alertes en temps réel sur l'accès aux fichiers, les tentatives de connexion, l'exfiltration de données. Intégration SIEM (Splunk, ELK).
  6. 6
    Analyse de conformité trimestrielle : Analyse PCI-DSS automatisée (Qualys, Nessus, Rapid7) pour les vulnérabilités. Remédier dans les 30 jours.
  7. 7
    Documentation du fournisseur : Les fournisseurs de modèles (Ollama, vLLM) ne sont pas des processeurs de paiement et ne sont pas des fournisseurs PCI. Votre déploiement local est dans le périmètre.

Déploiement isolé du réseau

Option la plus sécurisée : la machine n'a aucune connexion réseau (isolation au niveau cage de Faraday).

  1. 1
    Isolation physique : Serveur dans une pièce verrouillée (contrôle d'accès physique), pas de câble Ethernet, WiFi désactivé dans le BIOS, Bluetooth désactivé.
  2. 2
    Chargement du modèle : Pré-télécharger les modèles sur une machine connectée (télécharger depuis HuggingFace), transférer via clé USB chiffrée (chiffrement GPG, AES-256).
  3. 3
    Transfert de données entrantes : Les utilisateurs transfèrent les documents via clé USB chiffrée (chiffrement GPG ou 7z). Analyser la clé USB pour les malwares sur la machine isolée.
  4. 4
    Inférence : Exécuter le LLM localement (Ollama, vLLM), sortie sauvegardée sur clé USB. Aucun appel réseau, pas d'accès API externe.
  5. 5
    Transfert de données sortantes : Clé USB chiffrée retournée à l'utilisateur, déchiffrée sur une machine non sensible séparée. Clé USB chiffrée d'origine détruite après vérification du déchiffrement.
  6. 6
    Compromis : Latence (transfert USB manuel prend des minutes) vs sécurité absolue (zéro risque réseau, zéro possibilité de violation à distance).
  7. 7
    Cas d'usage : Découverte légale (examen par avocat), analyse d'images médicales, entraînement de modèles financiers (traitement par lot avec latence de 1 heure acceptable).

Conformité UE/RGPD/Loi IA

La loi sur la protection des données de l'UE (RGPD, Loi IA UE 2024/1689) exige des évaluations explicites de sécurité et des risques.

  1. 1
    Article 32 du RGPD (Sécurité) : Assurer le chiffrement, la pseudonymisation, la confidentialité, l'intégrité, la résilience appropriés. Le LLM local satisfait cela par défaut (pas de transmission cloud = pas de risque).
  2. 2
    Article 35 du RGPD (Analyse d'impact relative à la protection des données): Obligatoire pour le traitement à haut risque. Documenter : types de données (médicales, financières), rétention (6 ans), contrôles d'accès, scénarios de violation. LLM local = risque faible (contenu).
  3. 3
    Article 17 du RGPD (Droit à l'oubli) : Les journaux locaux doivent être purgés sur demande. Mettre en œuvre des scripts d'anonymisation automatisés (supprimer ID utilisateur, documents en hash).
  4. 4
    Loi IA UE 2024/1689 (Systèmes à haut risque) : La classification dépend du cas d'usage. Diagnostic médical = haut risque (nécessite l'explicitabilité). Examen de documents juridiques = risque moyen (nécessite journal d'audit). Mettre en œuvre évaluation des risques, processus d'examen humain.
  5. 5
    AIPD (Analyse d'impact relative à la protection des données) : Obligatoire avant le déploiement. Documenter : finalité du traitement (diagnostic, examen), catégories de données (dossiers médicaux, contrats), tiers (aucun), rétention (6 ans), mesures de sauvegarde (chiffrement, journaux d'accès).
  6. 6
    BDSG allemand (Bundesdatenschutzgesetz) : Étend le RGPD : le fournisseur du système doit être allemand/UE (déploiement local = conforme), contrats de traitement des données obligatoires (auto-traitement = conforme).

Modèles recommandés et dimensionnement matériel

Choisir les modèles en fonction des exigences de conformité et de la taille de l'infrastructure.

Cas d'usageModèleVRAMMatérielRaison
Examen de documents (Juridique)LLaMA 4 Scout (7B)8-12 GoRTX 4060 / M4 MaxRaisonnement juridique rapide et précis, petite empreinte
Dossiers médicaux (RGPD)Mistral Large (34B)32-40 GoRTX 4090 / A100 (40 Go)Haute précision, connaissance médicale, conforme RGPD
Analytique financière (PCI)Llama 3.1 70B70-80 GoA100 (80 Go) / H100Raisonnement financier, journaux d'audit de conformité
Petites équipes (<10)Mistral 7B Instruct8-16 GoM3/M4 Pro ou RTX 4070Rentable, suffisant pour la gestion de documents de base

Comparaison : LLM local vs API cloud

Comparaison directe des modèles de déploiement.

FacteurLLM localAPI cloud
Sécurité des donnéesZéro exfiltration. Les données restent sur site. Chiffrées au repos et en transit.Données envoyées aux serveurs du fournisseur. Le fournisseur peut les utiliser pour l'entraînement (conditions autorisent). Responsabilité de violation sur le fournisseur.
ConformitéConforme RGPD/PCI/secret professionnel. Journaux d'audit sous votre contrôle. AIPD requise mais risque faible.Non conforme aux réglementations. Le fournisseur est responsable du traitement, vous êtes responsable légalement.
Coût3 000-5 000 € matériel initial. 0-500 €/an maintenance. Prévisible.0 € initial. 500 000 €+/an à grande échelle (jetons × tarifs 2026). Imprévisible.
Responsabilité de violation0 € (les données ne quittent jamais votre contrôle). Assurance non requise.50 000-5 000 000 € (violation du fournisseur = vous êtes responsable envers les tiers selon RGPD/HIPAA).

Audit et gouvernance des données

Quoi enregistrer : Chaque requête LLM (horodatage, utilisateur, hash de la requête, longueur de réponse, version du modèle), accès aux fichiers (ouvrir/lire/modifier), connexion/déconnexion (IP, statut AMF).

Où stocker : Serveur syslog chiffré, machine physique séparée du serveur LLM. Empêche la violation des données de compromette les journaux.

Preuve d'immuabilité : Signatures cryptographiques sur les journaux (SHA-256, signé avec clé administrateur). Aucune suppression sans casser la chaîne de confiance. Mettre en œuvre le stockage d'ajout uniquement.

Outils : ELK Stack (Elasticsearch/Logstash/Kibana) pour l'agrégation et la recherche ; Splunk pour l'entreprise (60 jours de rétention standard).

Politique de rétention : RGPD = droit à l'oubli (anonymiser après 6 mois), PCI-DSS = 1 an. Automatiser la purge avec vérification cryptographique.

Vérification mensuelle de conformité : Examen du journal (vérification ponctuelle de 5 % des journaux). Audit trimestriel de la traçabilité des données (retracer les requêtes jusqu'à la source). Évaluation annuelle tiers (test de pénétration, vérification du journal).

Défaillances courantes de conformité

  • Utilisation de ChatGPT cloud avec données sensibles. Violation immédiate du RGPD. Amende : 10 000-50 000 € par incident (jusqu'à 1 500 000 €/an). Exemple : équipe médicale utilisant ChatGPT pour rédiger les résumés de sortie (exposition de données sensibles).
  • Serveur isolé avec porte déverrouillée. La sécurité physique = zéro si n'importe qui peut entrer. Exemple : auditeur de conformité a trouvé le serveur LLM dans une salle des serveurs publiquement accessible sans contrôle d'accès par badge.
  • Journaux stockés sur le même serveur que les données. Violation des journaux = violation de la piste d'audit. Systèmes séparés obligatoires (RGPD Article 32(b)). Exemple : rançongiciel a chiffré à la fois les données et les journaux, piste d'audit détruite.
  • Pas de chiffrement des données en transit. Transferts USB non chiffrés sur réseau partagé. Attaque par analyseur de paquets capture les dossiers médicaux. Utiliser les fichiers chiffrés GPG, vérifier les sommes de contrôle.
  • Contrat de traitement des données (DPA) avec modèles open-source. Les modèles open-source (Llama, Mistral) n'ont pas de fournisseur pour signer un DPA. À la place, documenter votre conformité en interne (journaux d'audit, évaluation des risques, AIPD). Le DPA s'applique uniquement aux fournisseurs.
  • Pas de politique de rétention. Le RGPD exige la suppression après 6 ans (droit à l'oubli). Ne pas supprimer = violation. Mettre en œuvre des scripts automatisés qui suppriment les journaux selon un calendrier avec preuve cryptographique.

FAQ

Puis-je utiliser des LLM cloud avec des données de conformité si j'anonymise les données ?

Non. Les données anonymisées sont toujours régulées. Le RGPD interdit la transmission à tout fournisseur, y compris les APIs cloud. L'anonymisation ne retire pas les données du contrôle du fournisseur. Utiliser uniquement les LLM locaux.

Ai-je besoin d'un accord de traitement des données (DPA) avec Llama ou Mistral ?

Non. Les modèles open-source n'ont pas de fournisseur pour signer un DPA. À la place, documenter votre conformité en interne : évaluation des risques, procédures de traitement, journaux d'audit, politique de rétention. Le DPA s'applique uniquement si vous utilisez un fournisseur (OpenAI, Anthropic, Google).

Le déploiement isolé du réseau est-il excessif pour le RGPD ?

Pas excessif si les données sont très sensibles (dossiers génétiques, psychiatriques). Meilleure pratique selon la jurisprudence. Pour les données moins sensibles (consultations de base), un déploiement local protégé par VPN est acceptable avec des audits mensuels.

Comment gérer la résiliation d'un employé de façon sécurisée ?

Désactiver immédiatement l'accès VPN. Auditer toutes les requêtes LLM de cet utilisateur au cours des 6 derniers mois (exigence de conformité). Vérifier qu'aucune donnée confidentielle n'a été exportée. Archiver les journaux (lecture seule) pendant 6 ans (rétention RGPD). Supprimer l'utilisateur des listes de contrôle d'accès.

Puis-je utiliser les LLM locaux pour la découverte légale ?

Oui. Isolé du réseau + supervision d'avocat maintient le secret professionnel (pas d'accès tiers). Documenter : chaîne de contrôle, procédures de gestion, journaux d'accès. Respecter les exigences de découverte (RGPD Article 15).

Que faire en cas de violation du serveur local ?

Chiffré au repos = dégâts limités (l'attaquant ne peut pas lire les données). Les journaux d'audit révèlent ce qui a été accédé (requêtes compromise uniquement). Notifier les parties affectées dans les 30 jours (exigence RGPD). Réponse aux incidents : isoler le serveur, forensique, mettre à jour les mots de passe, test de pénétration.

L'inférence locale est-elle plus lente que les APIs cloud ?

La latence est légèrement plus élevée (200 ms local vs 50 ms cloud), mais le débit est comparable. Le traitement par lot (examen juridique, analyse d'images médicales) ne voit aucune différence pratique. Le chat en temps réel est acceptable pour la plupart des cas.

Puis-je stocker les sorties du LLM local dans le cloud après l'inférence ?

Uniquement si chiffrement bout à bout (vous tenez la clé de chiffrement, le fournisseur cloud ne peut pas accéder au texte brut). Recommandé : stocker localement, sauvegarder vers le stockage cloud chiffré (AWS S3 avec chiffrement côté serveur). Respecter les exigences de résidence des données (UE = les données restent en UE).

Sources

  • Règlement général sur la protection des données (RGPD), Articles 32, 33, 35 (Union Européenne, 2016)
  • Loi sur la protection des données (RGPD) – Article 17 : Droit à l'oubli (Union Européenne)
  • Norme de sécurité des données PCI v4.0 (Conseil des normes de sécurité PCI, 2022) – Gestion des données de paiement
  • Directive (UE) 2024/1689 - Loi sur l'intelligence artificielle (Union Européenne, 2024) – Gouvernance des systèmes IA à haut risque
  • BDSG - Bundesdatenschutzgesetz (Allemagne, 2018) – Exigences de résidence des données et de traitement
  • Commission Nationale de l'Informatique et des Libertés (CNIL) - Recommandations pour les données professionnelles sensibles (France)

A Note on Third-Party Facts

This article references third-party AI models, benchmarks, prices, and licenses. The AI landscape changes rapidly. Benchmark scores, license terms, model names, and API prices can shift between the time of writing and the time you read this. Before making deployment or compliance decisions based on this article, verify current figures on each provider's official source: Hugging Face model cards for licenses and benchmarks, provider websites for API pricing, and EUR-Lex for current GDPR and EU AI Act text. This article reflects publicly available information as of May 2026.

Comparez votre LLM local avec 25+ modèles cloud simultanément avec PromptQuorum.

Rejoindre la liste d'attente PromptQuorum →

← Retour aux LLMs locaux

LLM sécurisé pour données sensibles : Guide RGPD, CNIL, conformité