PromptQuorumPromptQuorum
Startseite/Prompt Engineering/Jenseits von Text: Wie man mit Bildern promptet
Fundamentals

Jenseits von Text: Wie man mit Bildern promptet

·12 Min. Lesezeit·Von Hans Kuepper · Gründer von PromptQuorum, Multi-Model-AI-Dispatch-Tool · PromptQuorum

Multimodales Prompting – die Kombination von Bildern mit Text – schaltet Funktionen in Vision-Language-Modellen wie GPT-4o und Claude 4.6 Sonnet frei. Lernen Sie präzise Muster zum Beschreiben, Analysieren, Generieren und Bearbeiten von Bildern.

Was ist Multimodales Prompting?

Multimodales Prompting kombiniert Text und Bilder in einem einzelnen Prompt, um die KI-Ausgabe zu steuern. Vision-Language-Modelle (VLMs) – neuronale Netzwerke, die auf Bild- und Textdaten trainiert wurden – verarbeiten diese multimodalen Eingaben, um Fragen zu beantworten, Szenen zu beschreiben, neue Bilder zu generieren oder bestehende zu bearbeiten. Im Gegensatz zu reinem Text-Prompting ermöglicht multimodales Prompting das Zeigen statt Sagen. Ein Modell kann genau sehen, was du meinst, indem es visuelle Details, räumliche Beziehungen und Farben untersucht, statt sich nur auf schriftliche Beschreibung zu verlassen.

Wichtigste Erkenntnisse

  • Multimodales Prompting kombiniert Text und Bilder; Modelle wie GPT-4o und Claude 3.5 Sonnet zeichnen sich durch Bildanalyse und Beschreibung aus
  • Es gibt drei Modi: Bild→Text (beschreiben/analysieren), Text→Bild (generieren) und Bild↔Bild (bearbeiten/transformieren)
  • Vision-Language-Modelle kämpfen mit präzisem Zählen, detaillierten Objektgrenzen und dem Lesen von kleinem Text in Bildern
  • Folge strukturierten Mustern: sei spezifisch bei Analysezielen, gib Kontext und nutze Beispiele für Konsistenz
  • PromptQuorum ermöglicht es dir, multimodale Prompts über mehrere Modelle zu testen und Ausgaben zu vergleichen, um die beste Lösung zu finden

Drei Modi des Multimodalen Prompting

Multimodales Prompting nimmt drei Hauptformen an, jede geeignet für verschiedene Aufgaben.

ModusEingabeAusgabeBeste Anwendungsfälle
Bild → TextBild + TextfrageTextantwortBildunterschriften, Inhaltsmoderation, Objekterkennung, Dokumentenanalyse
Text → BildTextpromptGeneriertes BildKreative Visualisierung, Design-Iteration, Illustration-Generierung
Bild ↔ BildVorhandenes Bild + AnweisungenGeändertes BildInpainting, Stilübertragung, Hochskalierung, Bildkomposition

Wie Vision-Language-Modelle Bilder sehen

Vision-Language-Modelle wie GPT-4o, Claude 3.5 Sonnet und Gemini 1.5 Pro wandeln Bilder in hochdimensionale Vektoren (Embeddings) mit einem visuellen Encoder um und verarbeiten diese Embeddings dann neben Text-Token in einem gemeinsamen semantischen Raum. Dieser Ansatz gibt VLMs klare Stärken über mehrere Aufgaben hinweg: Sie identifizieren Objekte, lesen Text, verstehen räumliche Beziehungen und schlussfolgern über Inhalte über mehrere Bilder hinweg. Gemini 1.5 Pro unterstützt bis zu 1 Million Token, was die Analyse längerer Multimodal-Sequenzen ermöglicht als das 128k-Kontextfenster von GPT-4o. Das Verstehen von Kontextfenster-Limits hilft dir, Prompts zu strukturieren, die Kürzungen vermeiden, wenn du mit langen Bildbeschreibungen oder Multi-Bild-Sequenzen arbeitest.

VLMs zeichnen sich durch Szenenverständnis, Dokumentenanalyse und den Vergleich visueller Elemente aus. Sie haben jedoch vorhersehbare Schwächen:

  • Präzises Zählen (besonders von kleinen Objekten oder Elementen in dichten Szenen)
  • Detaillierte Objektgrenzen und genaue räumliche Messungen
  • Lesen von winzigem Text in Bildern oder komplexen Diagrammen
  • Verständnis von dreidimensionalen räumlichen Beziehungen aus einzelnen Winkeln
  • Vermeidung von halluzinierten Details, die nicht im Bild vorhanden sind

Prompt-Muster für Bild → Text

Wenn du ein Modell auffordert, ein Bild zu analysieren oder zu beschreiben, strukturiere deine Anfrage um vier Muster:

  • Bilder beschreiben: Gib das Analyseziel an, dann spezifiziere das Detailniveau. „Beschreibe dieses Produktfoto in 2–3 Sätzen und konzentriere dich auf Materialien, Farbe und Form" ist hilfreicher als „beschreibe das Bild."
  • Informationen extrahieren: Stelle konkrete Fragen. Statt „Was ist in diesem Dokument?" fragst du „Extrahiere das Datum, die Rechnungsnummer und den Gesamtbetrag aus diesem Beleg." Sei explizit über das Format: „Listenbeschreibung aller Personen als Aufzählungspunkte."
  • Gezielte Fragen stellen: Beschränke deine Frage eng. Statt „Hat dieses Bild Text?" fragst du „Lese alle sichtbaren Texte in diesem Diagramm und transkribiere sie genau." Vergleiche helfen, Halluzinationen zu vermeiden: „Welches Objekt ist am größten? Welches am kleinsten?"
  • Alt-Text generieren: Für Barrierefreiheit fordere das Modell auf, WCAG-konformen Alt-Text zu erstellen. „Schreibe prägnanten Alt-Text (≤125 Zeichen) für dieses Bild, der seinen visuellen Inhalt und Kontext für einen blinden Benutzer beschreibt."

Prompt-Muster für Text → Bild

Text-zu-Bild-Generierung hängt von gut strukturierten Prompts ab. Organisiere jeden Prompt um fünf Kernbausteine:

  • Subjekt: Benenne, was du sehen möchtest. Sei spezifisch: „ein goldener Labrador mit Sonnenbrille" schlägt „ein Hund". Nutze Eigennamen: „ein Jaguar E-Type von 1961" vermittelt mehr als „ein klassisches Auto."
  • Aktion oder Zustand: Beschreibe, was das Subjekt tut. „durch einen Reifen springen," „auf einem Thron sitzen," „sich in Wasser auflösen." Aktive Verben machen Bilder dynamisch; statische Beschreibungen produzieren statische Ergebnisse.
  • Stil und Ästhetik: Gib die visuelle Behandlung an. Referenziere bekannte Stile: „Ölmalerei," „Noir-Filmstill," „CGI-Render," „Aquarell," „Art-Déco-Plakat." Vermeiden vage Begriffe wie „schön" – nutze konkrete Stilreferenzen.
  • Kontext und Umgebung: Sag dem Modell, wo das Subjekt existiert. „in einem nebligen Wald bei Tagesanbruch," „in einer neon-beleuchteten Cyberpunk-Stadt," „auf einem Marmorsockel in einem Museum." Kontext verankert Komposition und Stimmung.
  • Technische Details: Gib Beleuchtung und Kamerawinkel an. „von oben fotografiert, Goldenes-Stunden-Beleuchtung, geringe Tiefenschärfe" oder „Ultra-Weitwinkel, dramatische Schatten, hoher Kontrast." Technische Details steuern die Stimmung.

Prompt-Muster für Bildbearbeitung

Bildbearbeitung (Inpainting, Stilübertragung oder Komposition) erfordert klare Vor- und Nachher-Beschreibung und präzise Einschränkungen.

  • Inpainting: Markiere oder beschreibe die Region, die geändert werden soll. „Ersetze den Hintergrund (derzeit eine graue Wand) mit einem Sonnenuntergang über Bergen." Gib an, was unverändert bleibt: „Halte die Pose und Mimik der Person identisch; ändere nur den Hintergrund."
  • Stilübertragung: Biete sowohl Referenz als auch Ziel. „Wende die Farbpalette und den Pinselstrich-Stil dieses Van-Gogh-Gemäldes (Referenz) auf diese Fotografie (Ziel) an." Gib Konservierung an: „Behalte alle Details des Originals; wende nur den Stil an."
  • Multi-Bild-Komposition: Wenn du Bilder kombinierst, sei explizit. „Kombiniere diese drei Objekte in eine einzelne Szene. Ordne sie von links nach rechts auf einem Holztisch an, beleuchtet vom Sonnenlicht von oben. Blende Kanten nahtlos; stelle konsistente Schatten sicher."

Zuverlässige Ausgaben erreichen: Vier Techniken

Multimodale Modelle erzeugen unterschiedliche Ausgaben über verschiedene Bildtypen hinweg, aber strukturierte Prompts verbessern die Ergebnisse messbar. Diese vier Techniken erhöhen die Zuverlässigkeit:

  • Detailniveau angeben: Vage Anfragen erzeugen vage Ergebnisse. „Analysiere dieses Bild in extremem Detail" funktioniert besser als „analysiere dieses Bild." Für Generierung: „photorealistisch, 4K-Qualität, jedes Detail scharf" schlägt „ein schönes Bild."
  • Positive Formulierung nutzen: Sag dem Modell, was einzubeziehen ist, nicht was auszuschließen ist. Statt „Mache die Farben nicht zu hell," sag „Nutze gedämpfte, kühle Farbtöne mit niedriger Sättigung." Statt „Füge keinen Text hinzu," sag „Stelle sicher, dass kein sichtbarer Text erscheint."
  • Einschränkungen explizit setzen: Einschränkungen verankern Ausgaben. „Extrahiere genau 10 Farben aus diesem Bild, geordnet nach Häufigkeit" ist besser als „welche Farben sind in diesem Bild?" Für Generierung: „1:1 Quadrat, genau zwei Personen, einzelner Innenraum."
  • Vor- und Nachher-Beispiele bereitstellen: Zeige dem Modell, wie Gutes aussieht. Füge Beispielbilder zusammen mit deiner Anfrage ein. Few-Shot-Beispiele verbessern die Konsistenz bei Bearbeitung und Stilübertragung dramatisch.

Häufige Multimodale Fallstricke

Vermeiden diese Fehler, um multimodale Ergebnisse zu verbessern:

  • Vage Bild-Prompts: Schlechter Prompt „Analysiere dieses Bild." Guter Prompt „Dies ist ein Screenshot einer Web-Oberfläche. Identifiziere alle Schaltflächen, Eingabefelder und Links. Für jedes, beachte seine Farbe, Position und sichtbaren Text."
  • Bild-Labels oder Kontext vergessen: Sag dem Modell, was das Bild zeigt, bevor du Fragen stellst. „Dies ist ein Mikroskopiebild eines Viruspartikels. Beschreibe die sichtbare Struktur." ist besser als „Was ist das?"
  • Falscher Analysierungsumfang: Schlechter Prompt „Zähle die Objekte in diesem Bild." Guter Prompt „Zähle nur die roten Äpfel in dieser Obstschale. Zähle keine anderen Früchte. Falls unsicher, beachte es."
  • Präzision annehmen: Vision-Language-Modelle sind anfällig für Halluzinationen. Verlass dich nicht auf sie für Pixel-perfekte Genauigkeit. Für kritische Aufgaben verwende spezialisierte Werkzeuge (OCR für Text, Objekterkennungs-APIs für Zählen) zusammen mit VLMs.
  • Mit mehreren Bildern überlasten: Die meisten VLMs handhaben 2–10 Bilder zuverlässig; die Leistung verschlechtert sich darüber hinaus. Batch sie: „Analysiere die ersten 5 Bilder. Dann analysiere die nächsten 5." Label klar: „Bild 1: Beschreibung, Bild 2: Beschreibung."
  • Datenschutz und Jurisdiktionsrisiken mit Cloud-VLMs: In der EU fällt das Senden von Bildern mit persönlichen Daten an Cloud-VLMs wie GPT-4o oder Gemini unter GDPR-Artikel 9, wenn biometrische Informationen beteiligt sind. Lokale Modelle über Ollama oder LM Studio verarbeiten Bilder vor Ort, halten Daten innerhalb deiner Jurisdiktion ohne externe API-Aufrufe.

Wie PromptQuorum dir beim Prompting mit Bildern hilft

PromptQuorum ist eine Multi-Model-Prompt-Dispatch-Plattform, mit der du multimodale Prompts gleichzeitig über GPT-4o, Claude 3.5 Sonnet, Gemini 1.5 Pro und andere Modelle testen kannst. Beim Testen desselben Produktbild-Beschreibungs-Prompts über drei Modelle lieferte GPT-4o die strukturierteste Ausgabe, Claude 3.5 Sonnet erzielte die höchste Präzision bei Textextraktion und Gemini 1.5 Pro erfasste die meisten kontextuellen Details – was offenbarte, dass verschiedene Modelle bei verschiedenen Bildanalysaufgaben hervorragend sind. Claude 3.5 Sonnet ist präzise bei Dokumentenanalyse; GPT-4o zeichnet sich durch Szenenverständnis aus; Gemini 1.5 Pro handhabt komplexe Multi-Bild-Vernunft.

Durch das Dispatch desselben multimodalen Prompts an alle drei siehst du, welches Modell am besten antwortet, und nutzt dann Consensus Scoring, um ihre Ausgaben zu gewichten.

  • Multi-Model-Bildvergleich: Lade ein Bild hoch und stelle dieselbe Frage über alle Modelle. Vergleiche Antworten in Sekunden, um herauszufinden, welches Modell deinen Anwendungsfall passt.
  • Framework-Anwendung: Wende PromptQuorums strukturiertes Prompt-Framework auf multimodale Anfragen an. Definiere Rollen, Kontext, Einschränkungen und Ausgabeformat – dann füge ein Bild ein. Dies stellt Konsistenz über Modelle sicher.
  • Consensus Scoring auf Bildausgaben: Wenn mehrere Modelle dasselbe Bild analysieren, identifiziert Consensus Scoring, welche Analysen am zuverlässigsten sind. Falls drei Modelle zustimmen, aber eins nicht, kennzeichnet der Score den Ausreißer.

Mini-Rezepte: Copy-Paste Multimodale Prompts

Nutze diese Vorlagen als Startpunkte für häufige Aufgaben. Jede folgt strukturierten Prompt-Bausteinen, um Konsistenz und Wiederholbarkeit zu sichern.

  • Produktfotografie: „Analysiere dieses Produktbild und extrahiere: (1) Hauptmaterialien, (2) Farbpalette, (3) Größe relativ zur Umgebung, (4) Beleuchtungsrichtung, (5) Mängel. Sei spezifisch; vermeide generische Adjektive."
  • Dokumentenextraktion: „Extrahiere allen sichtbaren Text aus diesem Dokument. Behalte Formatierung, Zeilenumbrüche und Hervorhebung. Falls Text teilweise unleserlich ist, beachte UNKLAR und deine beste Vermutung. Formatiere als Markdown-Codeblock."
  • UI/UX-Kritik: „Identifiziere: (1) primärer Call-to-Action und Sichtbarkeit, (2) visuelle Hierarchie, (3) Abstands- und Ausrichtungsprobleme, (4) Farbkontrast-Probleme. Konzentriere dich nur auf funktionale und Barrierefreiheit-Bedenken."
  • Text-zu-Bild-Vorlage: „Subjekt: Substantiv. Aktion: Verb + Zustand. Stil: Kunststil. Kontext: Einstellung. Technisch: Kamerawinkel, Beleuchtung. Beispiel: Subjekt: Vintage-Grammophon. Aktion: spielt mit sichtbaren Schallwellen. Stil: Surrealismus, Ölmalerei. Kontext: Antiquitätenladen, gedimmt. Technisch: Seitenwinkel, goldenes Licht, geringe Tiefenschärfe."
  • Bildbearbeitung: „Bearbeite dieses Zielfeld, um den Stil dieses Referenzbildes anzupassen und dabei die Komposition und das Subjekt des Zielbildes zu bewahren. Füge keine großen Elemente hinzu oder entferne sie; wende nur Farb-, Beleuchtungs- und Texturveränderungen an."
  • Alt-Text-Generierung: „Schreibe Alt-Text für dieses Bild. Muss ≤125 Zeichen sein. Beschreibe, was ein blinder oder sehbehinderter Benutzer wissen muss. Beispiel: 'ein Mann in einem blauen Anzug schüttelt einer Frau in einem roten Kleid die Hand bei einem formellen Ereignis mit einer Stadtkulisse im Hintergrund.'"

FAQ

Welches Vision-Language-Modell ist am besten zur Bildanalyse?

Es gibt kein einzelnes bestes Modell. GPT-4o zeichnet sich durch allgemeines Szenenverständnis und komplexe Logik aus. Claude 3.5 Sonnet ist präzise bei Dokumentenanalyse und Textextraktion. Gemini 1.5 Pro handhabt längere multimodale Kontexte (1 Million Token). Nutze PromptQuorum, um alle drei gegen deine spezifische Aufgabe zu testen.

Können Vision-Language-Modelle Objekte genau zählen?

Nein. VLMs kämpfen mit präzisem Zählen, besonders von kleinen oder dicht gepackten Objekten. Für genaue Zählungen verwende spezialisierte Objekterkennungs-APIs, oder bitte das Modell, Objekte mit expliziten Einschränkungen aufzuzählen: „Zähle nur rote Elemente; sei konservativ – falls unsicher, zähle es nicht."

Wie viele Bilder kann ich in einen Prompt aufnehmen?

Die meisten VLMs handhaben 2–10 Bilder zuverlässig. Die Leistung verschlechtert sich über 10 hinaus. Falls du viele Bilder analysieren musst, batch sie und verarbeite in Runden. Beschrifte jedes Bild klar: „Bild 1: Beschreibung, Bild 2: Beschreibung."

Welche Bildformate unterstützen Vision-Language-Modelle?

GPT-4o, Claude 3.5 Sonnet und Gemini 1.5 Pro akzeptieren JPEG, PNG, GIF und WebP. Die meisten unterstützen Bilder bis zu 20 MB. Spezifische Limits variieren nach Modell; überprüfe OpenAI- und Anthropic-Dokumentation für aktuelle Details.

Kann ich lokale Modelle wie Ollama für multimodales Prompting verwenden?

Ja. Modelle wie LLaVA und Ollama unterstützen lokale Bildanalyse. Lokale Modelle bieten Datenschutz, aber niedrigere Genauigkeit als GPT-4o oder Claude 3.5 Sonnet. Nutze sie für unkritische Aufgaben oder wenn Datenschutz essentiell ist.

Wie verbessere ich die Konsistenz in der Text-zu-Bild-Generierung?

Nutze strukturierte Vorlagen (Subjekt/Aktion/Stil/Kontext/Technisch), gib Referenzbilder und gib Einschränkungen an (Auflösung, Komposition, Elementanzahl). Iteriere mit demselben Modell – das Wechseln von Modellen zwischen Iterationen erzeugt inkonsistente Ergebnisse.

Was ist der Unterschied zwischen Prompting für Bildanalyse versus Generierung?

Analyseprompts geben den Informationsumfang an („Extrahiere nur das Datum und die Rechnungsnummer"). Generierungsprompts müssen alle visuellen Elemente klar beschreiben (Subjekt, Aktion, Stil, Kontext, technische Details). Generierung erfordert mehr Präzision, da das Modell vorausdenkt statt wahrzunehmen.

Verwandte Lektüre

Wenden Sie diese Techniken gleichzeitig mit 25+ KI-Modellen in PromptQuorum an.

PromptQuorum kostenlos testen →

← Zurück zu Prompt Engineering

Jenseits von Text: Wie man mit Bildern promptet | PromptQuorum