Ce glossaire couvre les 100 termes les plus importants en ingénierie de prompt, des concepts fondamentaux à l'orchestration d'agents et aux frameworks d'évaluation. Chaque entrée inclut une définition pratique concise écrite pour les développeurs et praticiens IA, plus un lien de référence principal pour une lecture plus approfondie.
Les termes sont organisés en six groupes : Concepts fondamentaux de prompting, Agents & Orchestration, Sécurité & Alignement, Évaluation & Testing, Techniques avancées et Métriques & Production. Utilisez les tables comme référence rapide ou suivez les liens pour les détails d'implémentation.
Points clés
- 100 termes organisés en 6 sections : Concepts fondamentaux, Agents, Sécurité, Évaluation, Techniques avancées et Métriques & Production
- Chaque terme inclut une définition pratique et 1–3 citations source primaires pour la validation E-E-A-T
- Couvre les techniques fondamentales (CoT, RAG, Few-Shot) jusqu'aux patterns agentic 2026 (multi-agent, handoff, GraphRAG)
- 15 termes du glossaire se lient directement aux articles dédiés du hub d'ingénierie de prompt PromptQuorum pour une exploration approfondie
- Schéma FAQPage + schéma DefinedTermSet pour l'extraction de réponses par Google, Claude, Perplexity et autres moteurs IA
Concepts fondamentaux de Prompting
Prompt
Prompt Engineering
PromptingGuide Overview, LearnPrompting Definition, IBM Techniques
LLM (Large Language Model)
Token
OpenAI Tokenizer, PromptingGuide Settings, KeepMyPrompts 2026
Fenêtre de contexte
Wikipedia, Firecrawl Context Engineering, PromptingGuide Settings
Prompt système
Hallucination
Grounding
Prompting Zero-Shot
PromptingGuide Zero-shot, Codecademy Shot Prompting, Lakera 2026
Prompting Few-Shot
Chain-of-Thought (CoT)
Zero-Shot CoT
Prompting par rôle
LearnPrompting Roles, PromptingGuide Basics, DecodeTheFuture 2026
Chaînage des prompts
Anthropic Chain Prompts, PromptingGuide Chaining, Lakera Orchestration
Prompting ReAct
PromptingGuide ReAct, Zignuts Agent Orchestration, IBM Techniques
Tree-of-Thought (ToT)
PromptingGuide ToT, LearnPrompting Tree of Thought, ClipboardAI Glossary
Température
PromptingGuide Settings, Tetrate Guide, PromptEngineering.org
Top-p (Nucleus Sampling)
PromptEngineering.org Temperature & Top-p, PromptingGuide Settings, Infomineo Best Practices
RAG (Retrieval-Augmented Generation)
Ingénierie du contexte
Agents & Orchestration
Agent
OpenAI Agents – Orchestration, Genesys – LLM agent orchestration, GetStream – AI agent orchestration
Outil
IBM – What is tool calling?, LLMBase – Tool call, OpenAI – Tools & function calling
Appel d'outil
Schéma d'outil
OpenAI – Tool specification, IBM – Tool calling guide, OpenAI Agents SDK
Orchestration des agents
OpenAI – Agent orchestration, Genesys – LLM agent orchestration, IBM – Orchestration tutorial
Système multi-agents
Eonsr – Orchestration frameworks 2025, Zylos – Multi-agent patterns 2025, GetStream – AI agent orchestration
Agent planificateur
OpenAI Agents – Planning, IBM – Orchestration tutorial, Zylos – Multi-agent patterns
Agent exécuteur
OpenAI Agents SDK, Genesys – Agent orchestration, GetStream – Orchestration
Agent routeur
OpenAI – Routing patterns, Eonsr – Orchestration frameworks, Zylos – Multi-agent patterns
Barrière de sécurité
Lakera – Prompt engineering & safety, Zendesk – AI glossary (guardrails), GetStream – Orchestration best practices
Observation
IBM – Tool calling, OpenAI Agents – Tools, Genesys – Orchestration flows
État (État de l'agent)
OpenAI – Agent orchestration, IBM – Orchestration tutorial, Zylos – Production considerations
Mémoire (court terme)
PromptingGuide – Context & history, OpenAI – Conversation design, CoherePath – Glossary
Mémoire (long terme)
Firecrawl – Context engineering, Zylos – Multi-agent production, PromptingGuide – RAG & memory
Magasin vectoriel
PromptingGuide – RAG, AWS – Vector databases overview, Eonsr – Orchestration frameworks
Espace d'action
OpenAI Agents – Actions & tools, IBM – Agent orchestration guide, GetStream – Orchestration best practices
Condition d'arrêt
OpenAI – Agent orchestration, Zylos – Production considerations, Multi-agent patterns video
Orchestration séquentielle
Multi-agent patterns video, OpenAI – Orchestration patterns, Genesys – Orchestration
Orchestration parallèle
Zylos – Multi-agent orchestration 2025, Multi-agent patterns video, Eonsr – Orchestration frameworks
Boucle Producteur-Reviewer
Multi-agent patterns video, GetStream – Orchestration, IBM – Orchestration tutorial
Sécurité & Alignement
Politique de sécurité
OpenAI – Safety best practices, Anthropic – Safety overview, Lakera – Safety & guardrails
Barrières de sécurité
Anthropic – Safety & guardrails, OpenAI – Safety best practices, Zendesk – Generative AI glossary
Injection de prompt
OWASP – LLM prompt injection, Lakera – Prompt injection, Microsoft – Prompt injection guidance
Jailbreak
OWASP – LLM jailbreaks, Lakera – Jailbreak examples, Anthropic – Safety FAQ
Red-Teaming
Anthropic – Red-teaming AI systems, OpenAI – Safety & red teaming, OWASP – Testing LLM apps
Toxicité
Google – Perspective API, Zendesk – AI glossary, OpenAI – Safety best practices
Biais
OpenAI – Addressing bias, IBM – Bias in AI, Anthropic – Responsible scaling
Alignement
Anthropic – Constitutional AI, OpenAI – Alignment & safety, DeepMind – Alignment research
RLHF
OpenAI – RLHF paper, Anthropic – RL from AI feedback, DeepMind – RLHF overview
IA constitutionnelle
Anthropic – Constitutional AI, Anthropic – Research paper, Zendesk – AI glossary
Évaluation & Testing
Evals (suite d'évaluation)
OpenAI – Evals framework, Anthropic – Model evaluations, ClipboardAI – AI glossary
Ensemble aurifère
OpenAI – Evals docs, Microsoft – Evaluation guidance, Anthropic – Evaluating Claude
Test A/B prompt
OpenAI – Prompt best practices, KeepMyPrompts – Testing prompts, Lakera – Prompt optimization
Taux de réussite
OpenAI – Evals & comparison, Anthropic – Model evals, Microsoft – Evaluation patterns
Test de régression
OpenAI – Evals, Microsoft – Regression evaluation, OWASP – LLM application testing
Human-in-the-Loop (HITL)
Microsoft – Responsible AI, OpenAI – Safety best practices, Anthropic – Human feedback
Surveillance
Datadog – LLM observability posts, Microsoft – Monitoring guidance, OWASP – LLM security
Dérive
Google – ML data drift, OpenAI – Monitoring, Eonsr – Orchestration in production
Gestion des versions de prompts
KeepMyPrompts – Prompt management, Lakera – Prompt lifecycle, OpenAI – Prompting best practices
Dépôt de prompts
OpenAI – Prompt library examples, CoherePath – Prompting glossary, ClipboardAI – AI glossary
Techniques avancées
Auto-cohérence
PromptingGuide – Self-Consistency, IBM – Prompt techniques, Lakera – Prompt engineering guide
Meta-Prompting
PromptingGuide – Meta Prompting, IBM – Prompt engineering techniques, DigitalApplied – Advanced techniques 2026
Ingénieur de prompt automatique (APE)
PromptingGuide – Automatic Prompt Engineer, PromptingGuide – Techniques, K2View – Prompt techniques 2026
Réflexion
PromptingGuide – Reflexion, PromptingGuide – LLM Agents, Lakera – Advanced guide
Prompting multimodal
Promptitude – Prompt engineering 2026, PromptingGuide – Multimodal CoT, Promnest – Best practices 2026
Graphe de pensées (GoT)
PromptingGuide – Techniques, Promnest – Cognitive architectures 2026
Chaîne de table
GetMaxim – Advanced techniques 2025/2026, PromptingGuide – Advanced techniques
Prompting actif
Prompting directionnel stimulus
PromptingGuide – Directional Stimulus Prompting, PromptingGuide – Techniques overview
Modèles de langage assistés par programme (PAL)
PromptingGuide – Program-Aided Language Models, PromptingGuide – Advanced
RAG agentic
LinkedIn – Agentic AI terms, K2View – Agentic RAG, Reddit – Agentic terms
Remise (remise d'agent)
OpenAI Agents SDK – Handoffs, Zylos – Multi-agent patterns, Genesys – Orchestration
Agent orchestrateur
OpenAI – Agent orchestration, Eonsr – Orchestration frameworks 2025, Zignuts – Prompt engineering guide
Agent critique / examinateur
Multi-agent patterns, IBM – Orchestration tutorial, GetStream – Best practices
GraphRAG
Tuning de prompt
Zendesk – Generative AI glossary, IBM – RAG vs fine-tuning vs prompting
Compression de contexte
Prompting adaptatif
Promptitude – Trends 2026, RefonteLearning – Optimizing interactions 2026
Tokens de raisonnement (masqués)
G-Eval
Microsoft – Evaluation guidance, Confident AI – LLM evaluation metrics
Métriques & Production
BERTScore
ROUGE
BLEU
Perplexité
Pertinence de la réponse
Taux d'achèvement des tâches
Injection de prompt (indirecte)
OWASP – LLM top 10, Penligent – Agent hacking 2026, Microsoft – Guidance
Détournement d'agent
Évaluation Human-in-the-Loop (HITL)
LLM-as-a-Judge
Dépôt de prompts (Entreprise)
OpenAI – Examples, Braintrust – Prompt tools 2026, KeepMyPrompts – Management
Optimiseur de prompt
Dev.to – Automatic prompt optimization, Braintrust – Tools 2026
Orchestration multimodale
IA fantôme
IA constitutionnelle (étendue)
Détection de dérive (Prompt/Modèle)
Google – ML drift, Eonsr – Production, Datadog – Observability
Taux de réussite (par paire)
OpenAI – Evals, Anthropic – Model evaluations, Microsoft – Evaluation
Ingénierie du contexte (avancée)
Firecrawl – Context engineering, AIPromptLibrary – Advanced 2026, KeepMyPrompts – Guide
Essaim / Intelligence collective
Zignuts – Prompt engineering guide, Promnest – Orchestration
Gestion des versions de prompts & Rollback
KeepMyPrompts – Prompt management, Lakera – Prompt lifecycle, Braintrust – Tools
Questions fréquemment posées
Qu'est-ce que l'ingénierie de prompt en termes simples?
L'ingénierie de prompt est la discipline consistant à concevoir et itérer les prompts pour que les modèles de langage produisent des résultats utiles, prévisibles et sûrs. Elle implique de structurer les instructions, d'ajouter du contexte et de choisir des techniques comme Few-Shot ou Chain-of-Thought pour améliorer la fiabilité et la qualité.
Quelle est la différence entre prompting Zero-Shot et Few-Shot?
Le prompting Zero-Shot invoque le modèle à accomplir une tâche uniquement avec des instructions, sans exemples — mieux pour les tâches générales où l'entraînement antérieur du modèle couvre déjà le motif. Le prompting Few-Shot inclut un petit nombre d'exemples d'entrée/sortie dans le prompt pour que le modèle puisse déduire le motif, le format ou le style souhaité avant de traiter la requête réelle. Few-Shot produit généralement une qualité plus élevée pour les tâches complexes ou inhabituelles.
Que signifie RAG en IA?
RAG signifie Retrieval-Augmented Generation. C'est une architecture dans laquelle les documents pertinents sont récupérés d'une base de connaissances et injectés dans le prompt pour que le modèle réponde en fonction de données actuelles et fondées plutôt que de s'appuyer uniquement sur les données d'entraînement. Cela réduit les hallucinations et garantit que les réponses sont basées sur des informations réelles et actuelles.
Quelle est la différence entre l'ingénierie de prompt et le fine-tuning?
L'ingénierie de prompt est la discipline consistant à concevoir et itérer les prompts pour diriger les résultats du modèle sans modifier le modèle lui-même. Le fine-tuning, en revanche, modifie les poids du modèle en entraînant sur des données spécifiques à la tâche. L'ingénierie de prompt est plus rapide, moins chère et plus facile à itérer, tandis que le fine-tuning peut obtenir de meilleurs résultats sur des tâches spécialisées mais nécessite plus de données et de ressources de calcul.
Qu'est-ce qu'une fenêtre de contexte en IA?
Une fenêtre de contexte est le nombre maximum de tokens que le modèle peut considérer simultanément, y compris le prompt système, l'historique de conversation et les documents récupérés. Lorsque les limites de contexte sont dépassées, les parties antérieures ou intermédiaires du contexte sont tronquées ou ignorées. Comprendre la taille de la fenêtre de contexte est crucial pour gérer les coûts et latences, car les contextes plus longs sont plus chers et plus lents à traiter.