Points clés
- AMD RX 6800 XT (16 Go, 300-350 € occasion) et RX 7900 XTX (24 Go, 400-500 € occasion) sont les seules options viables pour les LLM locaux.
- Performance par euro : AMD est 20-30% moins cher que NVIDIA, mais la friction logicielle coûte 5-10 heures de configuration.
- Ollama : Support AMD limité (chemin ROCm bogue, repli CPU lent). Non recommandé.
- vLLM : Support complet AMD ROCm depuis v0.6.0, mais configuration nécessite des pilotes manuels. Fonctionne bien après le démarrage.
- Text Generation WebUI : Excellent support AMD via ROCm. Meilleure expérience utilisateur sur AMD.
- Llama.cpp : Support natif AMD (backend HIP). Performance solide. Chemin AMD recommandé.
- Coûts de configuration : Prévoyez 5-10 heures débogage pilotes ROCm, compilation HIPCC, compatibilité kernel.
- Verdict (avril 2026) : Utilisez AMD uniquement si vous possédez déjà du matériel AMD, ou trouvez une excellente affaire d'occasion (300 € pour une carte 16 Go). Sinon, NVIDIA CUDA reste plus simple.
Quels GPU AMD en valent vraiment la peine?
- RX 6800 XT (16 Go GDDR6) : Le champion du rapport qualité-prix AMD. Lancement 2020. Solide pour inférence 7B-22B. Occasion : 300-350 €.
- RX 6900 XT (16 Go GDDR6) : Légèrement plus rapide que 6800 XT. Rare. Occasion : 350-400 €. L'augmentation de prix ne vaut pas le coup.
- RX 7900 XT (20 Go GDDR6) : Architecture RDNA 3 plus récente. 20% plus rapide que 6800 XT. Occasion : 400-480 €. Bon pour 70B Q4.
- RX 7900 XTX (24 Go GDDR6) : GPU consumer AMD haut de gamme. 24 Go VRAM change la donne pour 70B. Occasion : 450-550 €. Comparable à la vitesse RTX 4090.
- Radeon Pro W6800 (32 Go) : Carte entreprise, moins cher en occasion (~200-300 €). Plus lent, mais 32 Go excellent pour 70B Q8. Niche.
Comment les GPU AMD se comparent-ils à RTX en prix et vitesse?
| GPU | VRAM | TFLOPS | Prix occasion | Perf/€ vs RTX | RTX équivalent |
|---|---|---|---|---|---|
| RX 6800 XT | 16 Go | 1.952 | 300-350 € | +25% | RTX 3080 (plus lent) |
| RX 7900 XT | 20 Go | 2.540 | 400-480 € | +20% | RTX 4080 (similaire) |
| RX 7900 XTX | 24 Go | 2.750 | 450-550 € | +15% | RTX 4090 (vitesse similaire) |
| RTX 3080 | 10 Go | 1.456 | 350-400 € | -- | -- |
| RTX 4090 | 24 Go | 2.752 | 1.000-1.300 € | -- | -- |
Quelle friction de configuration ROCm?
1. Installez les pilotes AMD ROCm : `apt-get install rocm-dkms` (Ubuntu). Sur Windows, installer manuellement. 30 minutes.
2. Vérifiez le compilateur HIP : `hipcc --version`. Échoue souvent au premier essai. Déboguez la compatibilité kernel pour votre GPU.
3. Installez HIPCC (compilateur HIP-vers-C++ AMD) : `apt-get install hip-runtime-amd`. Autre chaîne de dépendances.
4. Testez avec petit LLM : Exécutez l'inférence pour vérifier que l'accélération GPU fonctionne. Repli CPU fréquent.
5. Corrigez incompatibilités pilotes : ROCm v5.7 fonctionne avec kernel 5.15 mais pas 6.x. 2-4 heures débogage.
NVIDIA CUDA comparé : `nvidia-cuda-toolkit` → un apt-get, accès GPU instantané. AMD demande 5-10× plus d'effort.
Pouvez-vous exécuter Ollama et vLLM sur AMD?
Ollama sur AMD : Expérimental/bugué en avril 2026. Chemin ROCm fonctionne parfois, repli CPU lent. Non recommandé.
vLLM sur AMD : Support complet ROCm depuis v0.6.0. Fonctionne bien, mais nécessite configuration ROCm/HIP manuelle. Bon après le démarrage.
Text Generation WebUI : Excellent support AMD ROCm. Meilleure expérience sur AMD. Recommandé.
Llama.cpp : Backend HIP natif. Performance solide. Chemin AMD le plus simple. Recommandé.
LM Studio : NVIDIA uniquement. Pas de support AMD.
Depuis avril 2026 : vLLM + llama.cpp sont vos chemins AMD. Ollama n'est pas fiable.
Quand acheter AMD plutôt que NVIDIA?
Achetez AMD si :
- Vous trouvez RX 7900 XTX occasion <450 € (sous-évalué vs RTX 4090).
- Vous possédez déjà du matériel AMD et souhaitez cohérence écosystème.
- Vous construisez un cluster et privilégiez puissance de calcul par euro sur facilité.
N'achetez pas AMD si :
- Vous désirez expérience plug-and-play. NVIDIA CUDA fonctionne plus vite.
- Vous avez besoin Ollama. Support AMD peu fiable.
- Vous êtes contraint en temps. Débogage ROCm peut prendre 10+ heures.
Erreurs courantes d'adoption AMD
- Acheter RX 6700 (12 Go) croyant c'est équivalent à 3060 12Go - 20% plus lent, difficile à trouver occasion.
- Supposer que ROCm « marche juste » comme CUDA - prévoyez 5-10 heures débogage pilotes et kernel.
- Utiliser Ollama avec AMD attendant intégration transparente - chemin ROCm bogue; llama.cpp ou vLLM meilleurs choix.
Questions fréquentes
Devrais-je acheter AMD RX 6800 XT ou NVIDIA RTX 3080 pour LLM locaux?
RTX 3080 si vous privilégiez simplicité (CUDA « marche »). RX 6800 XT si vous voulez 25% meilleur rapport et tolérez 5-10 h configuration ROCm.
AMD RX 7900 XTX est-elle meilleure que RTX 4090?
Vitesse similaire, même VRAM (24 Go). RX 7900 XTX 200-300 € moins cher occasion (450-550 € vs 1.000-1.300 €). Configuration ROCm est le compromis.
Puis-je utiliser GPU AMD avec Ollama?
Techniquement oui, mais attendez-vous à comportement bogue. Repli CPU fréquent. Utilisez plutôt vLLM ou llama.cpp pour AMD.
Quel est le meilleur chemin AMD pour LLM locaux 2026?
Llama.cpp (backend HIP) + Text Generation WebUI. Tous deux ont support AMD solide. Évitez Ollama.
Ai-je besoin Ubuntu pour AMD ROCm, ou Windows fonctionne?
Support Windows existe (HIP sur Windows), mais plus récent et bugué. Ubuntu est le chemin recommandé.
RX 6700 ou 6750 bon pour modèles 7B?
RX 6700 (12 Go) fonctionne mais 20% plus lent que 6800 XT. Achetez seulement si <250 €. Sinon étendez à 6800 XT.
Puis-je mélanger GPU AMD et NVIDIA dans un système?
Théoriquement oui, mais gestion cauchemardesque. Chaque GPU besoin sa propre exécution CUDA/HIP. Non recommandé.
Combien de temps faut-il configurer AMD ROCm?
Prévoyez 5-10 heures pour débogage pilotes, compilation HIPCC et résolution compatibilité. C'est un investissement unique. Après, AMD stable et productif.
AMD ROCm convient-il aux petites entreprises technologiques françaises?
Absolument. Les startups et PME tech bénéficient de 20-30% économies par rapport NVIDIA et contrôle données complet sur site. L'effort configuration initial (5-10 h) vaut l'investissement pour équipes valorisant indépendance technologique et économies.
CNIL a-t-elle des recommandations sur les LLM locaux?
CNIL recommande les LLM locaux comme solution idéale pour données sensibles. Traitement local satisfait RGPD obligations de sécurité (Article 32) automatiquement, sans dépendre de fournisseurs cloud. AMD ROCm avec LLM local offre conformité RGPD maximale.
Lectures complémentaires
Sources
- Documentation AMD ROCm et GitHub : compilateur HIP, matrice compatibilité pilotes, exemples inférence LLM
- vLLM GitHub : implémentation backend AMD/ROCm et statut support (v0.6.0+)
- Llama.cpp GitHub : backend HIP pour support GPU AMD