Dieses Glossar umfasst die 100 wichtigsten Begriffe im Prompt Engineering, von grundlegenden Konzepten bis zur Agent-Orchestrierung und Evaluierungs-Frameworks. Jeder Eintrag enthält eine prägnante praktische Definition für Entwickler und KI-Praktiker, plus einen primären Referenz-Link für tiefere Lektüre.
Begriffe sind in sechs Gruppen organisiert: Kernkonzepte des Prompting, Agenten & Orchestrierung, Sicherheit & Ausrichtung, Evaluierung & Testing, Fortgeschrittene Techniken und Metriken & Produktion. Nutze die Tabellen als schnelle Referenz oder folge den Links für Implementierungsdetails.
Wichtigste Erkenntnisse
- 100 Begriffe organisiert in 6 Abschnitten: Kernkonzepte, Agenten, Sicherheit, Evaluierung, Fortgeschrittene Techniken und Metriken & Produktion
- Jeder Begriff beinhaltet eine praktische Definition und 1-3 primäre Quellenangaben für E-E-A-T-Validierung
- Umfasst grundlegende Techniken (CoT, RAG, Few-Shot) bis hin zu agentic Patterns 2026 (Multi-Agent, Handoff, GraphRAG)
- 15 Glossarbegriffe verlinken direkt zu dedizierten PromptQuorum Prompt-Engineering-Hub-Artikeln für vertieftes Verständnis
- FAQPage Schema + DefinedTermSet Schema für Antwortextraktion durch Google, Claude, Perplexity und andere KI-Engines
Kernkonzepte des Prompting
Prompt
Prompt Engineering
PromptingGuide Overview, LearnPrompting Definition, IBM Techniques
LLM (Large Language Model)
Token
OpenAI Tokenizer, PromptingGuide Settings, KeepMyPrompts 2026
Kontextfenster
Wikipedia, Firecrawl Context Engineering, PromptingGuide Settings
System-Prompt
Halluzination
Grounding
Zero-Shot Prompting
PromptingGuide Zero-shot, Codecademy Shot Prompting, Lakera 2026
Few-Shot Prompting
Chain-of-Thought (CoT)
Zero-Shot CoT
Role Prompting
LearnPrompting Roles, PromptingGuide Basics, DecodeTheFuture 2026
Prompt Chaining
Anthropic Chain Prompts, PromptingGuide Chaining, Lakera Orchestration
ReAct Prompting
PromptingGuide ReAct, Zignuts Agent Orchestration, IBM Techniques
Tree-of-Thought (ToT)
PromptingGuide ToT, LearnPrompting Tree of Thought, ClipboardAI Glossary
Temperatur
PromptingGuide Settings, Tetrate Guide, PromptEngineering.org
Top-p (Nucleus Sampling)
PromptEngineering.org Temperature & Top-p, PromptingGuide Settings, Infomineo Best Practices
RAG (Retrieval-Augmented Generation)
Kontext Engineering
Agenten & Orchestrierung
Agent
OpenAI Agents – Orchestration, Genesys – LLM agent orchestration, GetStream – AI agent orchestration
Tool
IBM – What is tool calling?, LLMBase – Tool call, OpenAI – Tools & function calling
Tool Call
Tool Schema
OpenAI – Tool specification, IBM – Tool calling guide, OpenAI Agents SDK
Agent Orchestration
OpenAI – Agent orchestration, Genesys – LLM agent orchestration, IBM – Orchestration tutorial
Multi-Agent System
Eonsr – Orchestration frameworks 2025, Zylos – Multi-agent patterns 2025, GetStream – AI agent orchestration
Planer Agent
OpenAI Agents – Planning, IBM – Orchestration tutorial, Zylos – Multi-agent patterns
Executor Agent
OpenAI Agents SDK, Genesys – Agent orchestration, GetStream – Orchestration
Router Agent
OpenAI – Routing patterns, Eonsr – Orchestration frameworks, Zylos – Multi-agent patterns
Guardrail
Lakera – Prompt engineering & safety, Zendesk – AI glossary (guardrails), GetStream – Orchestration best practices
Observation
IBM – Tool calling, OpenAI Agents – Tools, Genesys – Orchestration flows
State (Agent State)
OpenAI – Agent orchestration, IBM – Orchestration tutorial, Zylos – Production considerations
Memory (Short-Term)
PromptingGuide – Context & history, OpenAI – Conversation design, CoherePath – Glossary
Memory (Long-Term)
Firecrawl – Context engineering, Zylos – Multi-agent production, PromptingGuide – RAG & memory
Vector Store
PromptingGuide – RAG, AWS – Vector databases overview, Eonsr – Orchestration frameworks
Action Space
OpenAI Agents – Actions & tools, IBM – Agent orchestration guide, GetStream – Orchestration best practices
Termination Condition
OpenAI – Agent orchestration, Zylos – Production considerations, Multi-agent patterns video
Sequential Orchestration
Multi-agent patterns video, OpenAI – Orchestration patterns, Genesys – Orchestration
Parallel Orchestration
Zylos – Multi-agent orchestration 2025, Multi-agent patterns video, Eonsr – Orchestration frameworks
Producer-Reviewer Loop
Multi-agent patterns video, GetStream – Orchestration, IBM – Orchestration tutorial
Sicherheit & Ausrichtung
Safety Policy
OpenAI – Safety best practices, Anthropic – Safety overview, Lakera – Safety & guardrails
Guardrails
Anthropic – Safety & guardrails, OpenAI – Safety best practices, Zendesk – Generative AI glossary
Prompt Injection
OWASP – LLM prompt injection, Lakera – Prompt injection, Microsoft – Prompt injection guidance
Jailbreak
OWASP – LLM jailbreaks, Lakera – Jailbreak examples, Anthropic – Safety FAQ
Red-Teaming
Anthropic – Red-teaming AI systems, OpenAI – Safety & red teaming, OWASP – Testing LLM apps
Toxicity
Google – Perspective API, Zendesk – AI glossary, OpenAI – Safety best practices
Bias
OpenAI – Addressing bias, IBM – Bias in AI, Anthropic – Responsible scaling
Alignment
Anthropic – Constitutional AI, OpenAI – Alignment & safety, DeepMind – Alignment research
RLHF
OpenAI – RLHF paper, Anthropic – RL from AI feedback, DeepMind – RLHF overview
Constitutional AI
Anthropic – Constitutional AI, Anthropic – Research paper, Zendesk – AI glossary
Evaluierung & Testing
Evals (Evaluierungs-Suite)
OpenAI – Evals framework, Anthropic – Model evaluations, ClipboardAI – AI glossary
Golden Set
OpenAI – Evals docs, Microsoft – Evaluation guidance, Anthropic – Evaluating Claude
A/B Prompt Test
OpenAI – Prompt best practices, KeepMyPrompts – Testing prompts, Lakera – Prompt optimization
Win Rate
OpenAI – Evals & comparison, Anthropic – Model evals, Microsoft – Evaluation patterns
Regression Test
OpenAI – Evals, Microsoft – Regression evaluation, OWASP – LLM application testing
Human-in-the-Loop (HITL)
Microsoft – Responsible AI, OpenAI – Safety best practices, Anthropic – Human feedback
Monitoring
Datadog – LLM observability posts, Microsoft – Monitoring guidance, OWASP – LLM security
Drift
Google – ML data drift, OpenAI – Monitoring, Eonsr – Orchestration in production
Prompt Versioning
KeepMyPrompts – Prompt management, Lakera – Prompt lifecycle, OpenAI – Prompting best practices
Prompt Repository
OpenAI – Prompt library examples, CoherePath – Prompting glossary, ClipboardAI – AI glossary
Fortgeschrittene Techniken
Self-Consistency
PromptingGuide – Self-Consistency, IBM – Prompt techniques, Lakera – Prompt engineering guide
Meta-Prompting
PromptingGuide – Meta Prompting, IBM – Prompt engineering techniques, DigitalApplied – Advanced techniques 2026
Automatic Prompt Engineer (APE)
PromptingGuide – Automatic Prompt Engineer, PromptingGuide – Techniques, K2View – Prompt techniques 2026
Reflexion
PromptingGuide – Reflexion, PromptingGuide – LLM Agents, Lakera – Advanced guide
Multimodal Prompting
Promptitude – Prompt engineering 2026, PromptingGuide – Multimodal CoT, Promnest – Best practices 2026
Graph-of-Thoughts (GoT)
PromptingGuide – Techniques, Promnest – Cognitive architectures 2026
Chain-of-Table
GetMaxim – Advanced techniques 2025/2026, PromptingGuide – Advanced techniques
Active-Prompt
Directional Stimulus Prompting
PromptingGuide – Directional Stimulus Prompting, PromptingGuide – Techniques overview
Program-Aided Language Models (PAL)
PromptingGuide – Program-Aided Language Models, PromptingGuide – Advanced
Agentic RAG
LinkedIn – Agentic AI terms, K2View – Agentic RAG, Reddit – Agentic terms
Handoff (Agent Handoff)
OpenAI Agents SDK – Handoffs, Zylos – Multi-agent patterns, Genesys – Orchestration
Orchestrator Agent
OpenAI – Agent orchestration, Eonsr – Orchestration frameworks 2025, Zignuts – Prompt engineering guide
Critic / Reviewer Agent
Multi-agent patterns, IBM – Orchestration tutorial, GetStream – Best practices
GraphRAG
Prompt Tuning
Zendesk – Generative AI glossary, IBM – RAG vs fine-tuning vs prompting
Context Compression
Adaptive Prompting
Promptitude – Trends 2026, RefonteLearning – Optimizing interactions 2026
G-Eval
Microsoft – Evaluation guidance, Confident AI – LLM evaluation metrics
Metriken & Produktion
BERTScore
ROUGE
BLEU
Perplexity
Answer Relevancy
Task Completion Rate
Prompt Injection (Indirect)
OWASP – LLM top 10, Penligent – Agent hacking 2026, Microsoft – Guidance
Agent Hijacking
Human-in-the-Loop (HITL) Evaluation
LLM-as-a-Judge
Prompt Repository (Enterprise)
OpenAI – Examples, Braintrust – Prompt tools 2026, KeepMyPrompts – Management
Prompt Optimizer
Dev.to – Automatic prompt optimization, Braintrust – Tools 2026
Multi-Modal Orchestration
Shadow AI
Constitutional AI (Extended)
Drift Detection (Prompt/Model)
Google – ML drift, Eonsr – Production, Datadog – Observability
Win Rate (Pairwise)
OpenAI – Evals, Anthropic – Model evaluations, Microsoft – Evaluation
Context Engineering (Advanced)
Firecrawl – Context engineering, AIPromptLibrary – Advanced 2026, KeepMyPrompts – Guide
Swarm / Collective Intelligence
Zignuts – Prompt engineering guide, Promnest – Orchestration
Prompt Versioning & Rollback
KeepMyPrompts – Prompt management, Lakera – Prompt lifecycle, Braintrust – Tools
Häufig gestellte Fragen
Was ist Prompt Engineering in einfachen Worten?
Prompt Engineering ist die Disziplin der Gestaltung und Iteration von Prompts, damit Sprachmodelle nützliche, vorhersehbare und sichere Ausgaben erzeugen. Es beinhaltet das Strukturieren von Anweisungen, das Hinzufügen von Kontext und die Wahl von Techniken wie Few-Shot oder Chain-of-Thought, um Zuverlässigkeit und Qualität zu verbessern.
Was ist der Unterschied zwischen Zero-Shot und Few-Shot Prompting?
Zero-Shot Prompting fordert das Modell auf, eine Aufgabe nur mit Anweisungen durchzuführen, ohne Beispiele — am besten für allgemeine Aufgaben, bei denen das vorherige Training des Modells bereits das Muster abdeckt. Few-Shot Prompting beinhaltet eine kleine Anzahl von Ein-/Ausgabe-Beispielen im Prompt, damit das Modell das gewünschte Muster, Format oder Stil vor der Bearbeitung der eigentlichen Abfrage ableiten kann. Few-Shot erzeugt typischerweise höhere Qualität bei komplexen oder ungewöhnlichen Aufgaben.
Wofür steht RAG in der KI?
RAG steht für Retrieval-Augmented Generation. Es ist eine Architektur, bei der relevante Dokumente aus einer Wissensdatenbank abgerufen und in den Prompt injiziert werden, damit das Modell basierend auf aktuellen, begründeten Daten antwortet, anstatt sich nur auf Trainingsdaten zu verlassen. Dies reduziert Halluzinationen und stellt sicher, dass Antworten auf realen, aktuellen Informationen basieren.
Was ist der Unterschied zwischen Prompt Engineering und Fine-Tuning?
Prompt Engineering ist die Disziplin der Gestaltung und Iteration von Prompts, um Modell-Ausgaben zu lenken, ohne das Modell selbst zu ändern. Fine-Tuning hingegen modifiziert die Modell-Gewichte durch das Training auf aufgabenspezifischen Daten. Prompt Engineering ist schneller, billiger und einfacher zu iterieren, während Fine-Tuning bessere Ergebnisse bei spezialisierten Aufgaben erreichen kann, aber mehr Daten und Rechenressourcen erfordert.
Was ist ein Kontextfenster in der KI?
Ein Kontextfenster ist die maximale Anzahl von Tokens, die das Modell gleichzeitig berücksichtigen kann, einschließlich System-Prompt, Gesprächsverlauf und abgerufener Dokumente. Wenn Kontextgrenzen überschritten werden, werden ältere oder mittlere Teile des Kontexts truncated oder ignoriert. Das Verständnis der Kontextfenster-Größe ist entscheidend für die Verwaltung von Kosten und Latenzen, da längere Kontexte teurer und langsamer zu verarbeiten sind.