PromptQuorumPromptQuorum
Startseite/Prompt Engineering/System Prompt vs User Prompt: Der Unterschied
Fundamentals

System Prompt vs User Prompt: Der Unterschied

·8 min Lesezeit·Von Hans Kuepper · Gründer von PromptQuorum, Multi-Model-AI-Dispatch-Tool · PromptQuorum

System Prompts definieren, wie ein KI-Modell während einer gesamten Sitzung denkt und handelt; User Prompts definieren, was es gerade tut. Erfahren Sie den Unterschied, wann Sie welche verwenden, wie sie interagieren, und warum PromptQuorum beide zeigt.

System Prompt vs User Prompt: Der Kernunterschied

Ein System Prompt definiert, wie die KI während einer gesamten Sitzung denkt; ein User Prompt definiert, was sie für diese spezifische Anfrage tut. In einem Satz: System Prompts sind die permanente Stellenbeschreibung der KI, und User Prompts sind einzelne Aufgaben innerhalb dieses Jobs.

Jede LLM-Konversation hat beides. Der System Prompt (oft verborgen vor Endbenutzern) wird einmal am Anfang ausgeführt und legt die Persönlichkeit, Constraints und Rolle des Modells fest. Der User Prompt wird pro Anfrage ausgeführt und spezifiziert die Aufgabe oder Frage. Beides ist Text — beide folgen Prompt-Engineering-Prinzipien — und beide erfordern sorgfältige Gestaltung für zuverlässige Ausgaben.

Wichtigste Erkenntnisse

  • System Prompts definieren die Rolle, Constraints und das Verhalten des Modells für die gesamte Sitzung — einmal festgelegt, für alle Anfragen verwendet
  • User Prompts definieren die spezifische Aufgabe für jede Interaktion — vom Benutzer bereitgestellt, ändert sich bei jeder Anfrage
  • System Prompts machen ca. 70 % der Verhaltenskonsistenz aus (basierend auf PromptQuorum-Tests über GPT-4o, Claude 4.6 Sonnet und Gemini 1.5 Pro); User Prompts prägen spezifische Ausgaben
  • Unsichtbare System Prompts in Apps wie ChatGPT und Claude enthalten verborgene Logik — PromptQuorum zeigt Ihnen alles
  • Lokale LLMs (Ollama, LM Studio) mit verborgenen System Prompts verursachen Debugging-Probleme — gelöst durch Transparenz
  • Schlechte System Prompts zwingen User Prompts, härter zu arbeiten; gute System Prompts machen jeden User Prompt besser

Wo befinden sich System- und User Prompts im API-Stack?

System Prompts befinden sich in der Anwendungsschicht; User Prompts befinden sich in der Interaktionsschicht. Wenn Sie GPT-4o über die OpenAI API aufrufen, akzeptiert der Endpoint zwei separate Eingaben: `system` (die persistenten Anweisungen) und `messages` (pro-Anfrage-Benutzereingabe). Dasselbe gilt für Claude 4.6 Sonnet über die Anthropic API, Gemini 1.5 Pro über die Google API und alle lokalen LLMs, die über Ollama oder LM Studio ausgeführt werden.

Alle Modelle unterstützen das System + User Prompt-Muster:

  • Modellebene: Das Basis-LLM (GPT-4o, Claude 4.6 Sonnet, Gemini 1.5 Pro, LLaMA 3.1, Mistral Large) — alle akzeptieren beide System und User Prompts
  • API-Ebene: Die Schnittstelle, die Entwickler verwenden — OpenAI API, Anthropic API, Google API, Ollama REST-Endpoint, LM Studio — alle machen System und User als separate Felder verfügbar
  • Anwendungsschicht: Das auf der API aufgebaute Produkt (ChatGPT, Claude.ai, Gemini, PromptQuorum, Ihre Custom App) — Entwickler entscheiden, welchen System Prompt zu verwenden
  • Benutzerinteraktionsschicht: Was der Endbenutzer sieht — die Chat-Eingabe, die Aufgabenbeschreibung — dies wird zum User Prompt

Was ist ein System Prompt?

Ein System Prompt ist ein Satz persistenter Anweisungen, die definieren, wie ein Sprachmodell sich für eine gesamte Konversationssitzung verhält. Er wird dem Modell einmal am Anfang vor jeder Benutzereingabe gesendet. Der System Prompt spezifiziert die Rolle des Modells, den Kommunikationsstil, Constraints und das Standardverhalten. Alle nachfolgenden User Prompts werden im Kontext dieses System Prompts verarbeitet.

Ein gut gestalteter System Prompt enthält typischerweise:

  • Rollendefinition: "Du bist ein Python-Experte", "Du bist ein technischer Schriftsteller", "Du bist ein Finanzberater" — etabliert die Persönlichkeit und Expertise des Modells
  • Constraints: "Geben Sie keine medizinischen Ratschläge", "Beziehen Sie sich nicht auf Inhalte nach 2024", "Weigern Sie sich, Anfragen für schädlichen Code zu bearbeiten" — legt harte Grenzen für das Verhalten fest
  • Ausgabeformat: "Antwort in JSON", "Verwenden Sie Markdown", "Geben Sie nummerierte Schritte" — definiert, wie Antworten strukturiert sein sollten
  • Kommunikationsstil: "Sei prägnant und direkt", "Verwenden Sie Analogien für Anfänger", "Übernehmen Sie einen professionellen Ton" — prägt die Stimme und den Ton
  • Scope-Grenzen: "Beantworte nur Fragen zu Python", "Ignoriere politische Fragen", "Bearbeite nur technischen Support" — definiert, was das Modell tun wird und nicht tun wird
  • Interaktionsregeln: "Stelle Klärungsfragen", "Zitiere immer Quellen", "Geben Sie Unsicherheit explizit zu" — regelt, wie das Modell mit Grenzfällen umgeht

System Prompt Beispiel

Du bist ein Kundenservice-Spezialist für ein SaaS-Produkt. Deine Rolle ist es, Kunden bei der Behebung technischer Probleme zu helfen, Funktionsfragen zu beantworten und Rechnungsangelegenheiten zu bearbeiten. Constraints: (1) Versprich keine Rückerstattungen — nur Support-Mitarbeiter können Rückerstattungen autorisieren. (2) Teilen Sie keine internen Dokumentationen. (3) Spekulieren Sie nicht über zukünftige Funktionen. (4) Bieten Sie immer an, nach 3 Austauschvorgängen an einen menschlichen Agenten zu eskalieren, wenn das Problem nicht gelöst ist. Stil: Sei einfühlsam, klar und lösungsorientiert. Format: Verwenden Sie nummerierte Schritte für Verfahren; Aufzählungslisten für Optionen; Markdown-Codeblöcke für technische Beispiele. Geltungsbereich: Beantworten Sie Fragen zur API, zum Setup, zur Fehlerbehebung, zu Funktionen und zur Abrechnung. Lehnen Sie Anfragen für Rechtsberatung, kostenlose Upgrades oder Support außerhalb des Produktbereichs ab.

Hier ist ein produktionsreifer System Prompt für einen Kundenservice-Chatbot:

Was ist ein User Prompt?

Ein User Prompt ist die pro-Anfrage-Eingabe — die spezifische Aufgabe, Frage oder Anweisung, die der Endbenutzer für diese einzelne Interaktion bereitstellt. Er wird dem Modell nach dem System Prompt gesendet und wird im Kontext der Constraints und Rollendefinition des System Prompts ausgewertet. Eine einzelne Konversation kann viele User Prompts haben; der System Prompt bleibt gleich.

Ein User Prompt enthält typischerweise:

  • Die spezifische Aufgabe oder Frage: "Fassen Sie diesen Artikel zusammen", "Schreiben Sie Produktkopie", "Debuggen Sie diesen Fehler" — die konkrete Anfrage für diese Interaktion
  • Kontext für diese Anfrage: "Für ein B2B-Publikum", "Für Anfänger", "Für Dokumentation" — verdeutlicht, wer und was dies ist
  • Zusätzliche Anweisungen für diese Aufgabe: "In 200 Wörtern", "Mit Beispielen", "Im professionellen Ton" — verfeinert die Ausgabe für diese spezifische Anfrage
  • Beispiele (falls nötig): "Hier ist ein gutes Beispiel:" — lehrt das Modell den gewünschten Stil
  • Constraints für diese Aufgabe: "Erwähnen Sie nicht die Preisgestaltung", "Vermeiden Sie Fachjargon", "Auf Französisch" — begrenzt, was für diese Anfrage gilt

User Prompt Beispiel

Ich versuche, Single Sign-On (SSO) über SAML 2.0 einzurichten, aber unsere Okta-Integration gibt immer wieder einen Fehler "Signaturverifizierung fehlgeschlagen" zurück. Ich habe die Setup-Anleitung befolgt, die Metadatendatei hochgeladen, aber es funktioniert immer noch nicht. Können Sie mich durch die Schritte zur Fehlerbehebung führen?

Hier ist ein vollständiger User Prompt, der an den oben definierten Kundenservice-Chatbot gesendet wird:

System Prompt vs User Prompt auf einen Blick

DimensionSystem PromptUser Prompt
GeltungsbereichGesamte SitzungEinzelne Anfrage
Festgelegt vonEntwickler/ProduktteamEndbenutzer
HäufigkeitEinmal am AnfangBei jeder Anfrage
DefiniertRolle, Constraints, Stil, VerhaltenAufgabe, Kontext, Format für diese Anfrage
SichtbarkeitNormalerweise vor Benutzern verborgenImmer für Benutzer sichtbar
ÄnderungenSelten (erfordert App-Update)Bei jeder Interaktion
Prompt-Engineering-%~70 % der konsistenten Ausgabequalität~30 % der konsistenten Ausgabequalität
Override-RisikoSchwer zu überschreiben — persistent, entwicklergesteuertEinfach zu passen — benutzergesteuert pro Anfrage
Beste EignungRollenkonsistenz, Sicherheits-Guardrails, AusgabeformatAufgabenspezifisches Detail, Kontext, Few-Shot-Beispiele

Was macht einen effektiven System Prompt aus?

Ein System Prompt muss spezifisch, geschichtet und constraint-fokussiert sein, um konsistentes Verhalten über alle Benutzerinteraktionen hinweg zu erzeugen. Die besten System Prompts sind detailliert — sie spezifizieren nicht nur, was das Modell tun soll, sondern auch, was es ablehnen soll, wie es Antworten formatiert und welche Constraints universell gelten.

Fünf Prinzipien für effektive System Prompts:

  • 1. Explizite Rollendefinition: Gehen Sie nicht davon aus, dass das Modell seinen Job kennt. Sagen Sie "Du bist ein Rolle" am Anfang. Vergleichen Sie: "Hilf beim Schreiben" (vage) vs. "Du bist ein technischer Copywriter, der sich auf B2B-SaaS-Produktbeschreibungen für LinkedIn-Kampagnen spezialisiert" (spezifisch).
  • 2. Constraint-First-Design: Listen Sie auf, was das Modell NICHT tun darf, bevor Sie auflisten, was es tun sollte. "Erfinden Sie keine Statistiken", "Verwenden Sie keine Hyperbel", "Schlagen Sie keine nicht aufgeführten Funktionen vor" — explizite Ablehnungen erzeugen konsistente Grenzen.
  • 3. Formatspezifikation: Jeder System Prompt sollte das Ausgabeformat definieren: JSON, Markdown, Aufzählungslisten, nummerierte Schritte oder Klartext. Ein System Prompt ohne Formatspezifikation zwingt jeden User Prompt, es wiederholt anzugeben.
  • 4. Scope-Grenzen: Definieren Sie das Universum von Anfragen, das Sie bearbeiten. "Beantworten Sie nur API-Fragen", "Geben Sie Python-Ratschläge", "Supportieren Sie Fehlerbehebung" — klare Scope verhindert Out-of-Domain-Antworten.
  • 5. Tests über Modelle hinweg: Testen Sie den System Prompt auf mehreren Modellen — GPT-4o, Claude 4.6 Sonnet, Gemini 1.5 Pro. Einige Modelle sind strenger bei Constraints; andere interpretieren Stil unterschiedlich. Ein robuster System Prompt funktioniert konsistent über alle drei.

Warum sind System Prompts verborgen — und wie können Sie sie anzeigen?

PromptQuorum hat ein kritisches Feature: einen Toggle, der Ihnen alle System Prompts zeigt, einschließlich verborgener in lokalen LLM-Backends. Dies ist besonders wichtig bei der Verwendung von Ollama oder LM Studio, wo unsichtbare System-Logik in der Vergangenheit zu unerwartetem Verhalten und Debugging-Albträumen führte.

Wenn Sie LM Studio oder Ollama mit Ihrer Anwendung verbinden, verursachen verborgene Systeminstruktionen im lokalen Modell:

  • Vertrauensprobleme: Sie wissen nicht, welche Anweisungen das Modell darunter befolgt. Sie haben keine Sichtbarkeit in das "Warum" hinter seinen Antworten.
  • Debugging-Probleme: Ihr lokales LLM gibt unerwartete Ausgaben zurück. Sie schreiben den User Prompt neu. Immer noch falsch. Ohne den System Prompt zu sehen, können Sie das Problem nicht diagnostizieren.
  • Inkonsistenz über Modelle hinweg: Sie führen den gleichen Prompt auf GPT-4o und auf Ollama aus. Unterschiedliche Antworten. Ohne beide System Prompts zu sehen, können Sie nicht sagen, ob der Unterschied Modell-Fähigkeit oder verborgene Anweisungen ist.
  • Regelungs- und Audit-Risiko: Unternehmensbereitstellungen erfordern Transparenz. Wenn Vorschriften verlangen, "welche Anweisungen die KI-Entscheidung geleitet haben?" und der System Prompt ist verborgen, können Sie nicht konform sein.

Der PromptQuorum System Prompt Toggle

PromptQuorum beinhaltet eine umschaltbare Schnittstelle: "System Prompts anzeigen." Wenn aktiviert, sehen Sie den tatsächlichen System Prompt, der auf jedem Modell läuft — GPT-4o, Claude 4.6 Sonnet, Gemini, Ollama, LM Studio, alle. Dies ist besonders wertvoll, wenn ein Prompt zu mehreren lokalen Backends gleichzeitig versendet wird.

Was passiert, wenn System Prompts verborgen sind? Ein echtes Beispiel

PromptQuorum selbst wurde auf Claude Code aufgebaut — und die Entwickler liefen in ein kritisches Problem. Claude Code kommt mit umfangreichen verborgenen Systeminstruktionen, die Code-Generierung, Sicherheitsverhalten und Qualitätschecks leiten. Wenn Claude Code Features generierte, waren diese verborgenen Anweisungen bakedin. Aber wenn derselbe Code auf lokalen LLMs (Ollama, LM Studio) ohne die verborgene System-Logik ausgeführt werden musste, funktionierte alles nicht. Die verborgene "spezielle Sauce" war nicht portierbar.

Die Lösung: Alle System Prompts sichtbar machen. Entwickler müssen sehen, welche Anweisungen das Modell befolgt — nicht raten oder blind debuggen.

Praktische Rezepte: Drei Production System Prompts

Hier sind drei System Prompts, die Sie sich für Ihre eigene Verwendung anpassen können:

Rezept 1: Customer Support Bot

Du bist ein Kundenservice-Spezialist der Stufe 1 für ein SaaS-Produkt. Deine Rolle: Kunden bei der Fehlerbehebung helfen, Konto- und Rechnungsfragen beantworten und komplexe Probleme an Senior Support eskalieren. Constraints: (1) Versprechne nie Rückerstattungen — nur Senior Support genehmigt Rückerstattungen. (2) Teilen Sie niemals interne Dokumentationen. (3) Geben Sie zu, wenn Sie es nicht wissen. Ausgabeformat: Nummerierte Schritte für Verfahren, Aufzählungslisten für Optionen, Markdown-Codeblöcke für Beispiele. Ton: Professionell, einfühlsam, lösungsorientiert. Eskalieren Sie nach 3 fehlgeschlagenen Lösungsversuchen. Geltungsbereich: Kontozugriff, Abrechnung, Funktionen, Setup, Integration, Fehlerbehebung. Lehnen Sie ab: Rechtliche, steuerliche oder buchhalterische Beratung.

Rezept 2: Data Analyst

Du bist ein Senior-Datenanalyst. Deine Rolle: Datensätze analysieren, Trends identifizieren, Empfehlungen geben. Constraints: (1) Zitieren Sie immer die Datenquelle. (2) Gehen Sie niemals von Kausalität ohne Beweis aus. (3) Quantifizieren Sie Unsicherheit — wenn Konfidenz niedrig ist, sagen Sie es. (4) Extrapolieren Sie nicht über die Daten hinaus. Ausgabeformat: Geschäftliche Zusammenfassung (3 wichtige Erkenntnisse) + detaillierte Analyse mit Tabellen + Empfehlungen. Vertrauen Sie auf Vertrauensniveaus. Ton: Klar, präzise, datengesteuert. Geltungsbereich: Analysieren Sie nur bereitgestellte Daten. Lehnen Sie ab: Fabrizieren von Daten, Außerkraftsetzen von Unsicherheit durch Spekulation.

Rezept 3: Code Reviewer

Du bist ein Experten-Code-Reviewer. Deine Rolle: Bewerte Code auf Korrektheit, Performance, Wartbarkeit und Sicherheit. Constraints: (1) Zeigen Sie Stärken und Schwächen auf. (2) Schlagen Sie spezifische Verbesserungen vor, nicht allgemeine Ratschläge. (3) Respektieren Sie die Entscheidungen des Autors — erklären Sie das "Warum", nicht die Forderung. (4) Schlagen Sie keine vorzeitige Optimierung vor. (5) Flagge Sicherheitsprobleme als kritisch. Ausgabeformat: Zusammenfassung + zeilenweise Feedback mit Code-Snippets. Verwenden Sie Markdown-Codeblöcke. Ton: Respektvoll, konstruktiv. Geltungsbereich: Nur Code-Review. Lehnen Sie ab: Refactoring oder architektonische Änderungen außerhalb des Geltungsbereichs.

Verwandte Lektüre

Häufig gestellte Fragen

Was ist ein System Prompt?

Ein System Prompt ist ein Satz persistenter Anweisungen, die definieren, wie ein Sprachmodell sich für eine gesamte Konversationssitzung verhält. Er wird einmal am Anfang festgelegt und gilt für alle Benutzerinteraktionen. Der System Prompt spezifiziert die Rolle, Constraints, das Ausgabeformat und den Kommunikationsstil des Modells.

Was ist ein User Prompt?

Ein User Prompt ist die pro-Anfrage-Eingabe — die spezifische Aufgabe, Frage oder Anweisung, die für diese einzelne Interaktion bereitgestellt wird. Er wird vom Endbenutzer erstellt und ändert sich mit jeder Anfrage. User Prompts werden im Kontext der Regeln und Rolle des System Prompts ausgewertet.

Wer schreibt den System Prompt vs. User Prompt?

Entwickler und Produktteams schreiben System Prompts und versenden sie im Produkt. Endbenutzer schreiben User Prompts, wenn sie mit dem Produkt interagieren. In Tools wie PromptQuorum können Benutzer beide sehen und bearbeiten.

Warum sollte ich den System Prompt sehen, wenn ich ein Endbenutzer bin?

Bei der Verwendung lokaler LLMs wie LM Studio oder Ollama verursachen verborgene System Prompts unerwartes Verhalten und Debugging-Probleme. Das Sehen des System Prompts ermöglicht Vertrauen, lässt Sie die Constraints des Modells verstehen und hilft Ihnen, bessere User Prompts zu schreiben.

Verwenden alle LLMs System Prompts?

Ja. Alle großen LLMs — GPT-4o, Claude 4.6 Sonnet, Gemini 1.5 Pro, Ollama-Modelle, LM Studio — unterstützen das System Prompt + User Prompt-Muster. Einige werden mit Standard-System Prompts geliefert; andere lassen Sie Ihre eigenen definieren.

Kann ein User Prompt einen System Prompt überschreiben?

Nicht direkt. System Prompts haben strukturelle Vorrangstellung — das Modell verarbeitet sie zuerst und behandelt sie als persistente Constraints. Ein User Prompt kann den System Prompt nicht explizit deaktivieren oder überschreiben. Aber ein schlecht gestalteter System Prompt mit vagen Constraints kann ignoriert werden, wenn der User Prompt stark widersprochen wird. Gut gestaltete System Prompts beinhalten explizite Verweigerungsregeln, die dem Benutzer-Override widerstehen.

Was passiert, wenn es keinen System Prompt gibt?

Das Modell fällt auf sein Standard-Trainingsverhalten zurück. GPT-4o, Claude 4.6 Sonnet und Gemini 1.5 Pro haben alle ein eingebautes Baseline-Verhalten (hilfreich, harmlos, ehrlich), wenn kein System Prompt vorhanden ist. Das Modell wird immer noch auf User Prompts antworten, aber ohne Rollendefinition, Ausgabeformat-Constraints oder Scope-Grenzen — Ergebnisse werden weniger konsistent und weniger spezialisiert sein.

Quellen & Weitere Lektüre

Wenden Sie diese Techniken gleichzeitig mit 25+ KI-Modellen in PromptQuorum an.

PromptQuorum kostenlos testen →

← Zurück zu Prompt Engineering

System Prompt vs User Prompt: Der Unterschied | PromptQuorum