PromptQuorumPromptQuorum

Comment fonctionne PromptQuorum

Un workflow en 4 étapes : écrire un prompt structuré, l'optimiser avec votre propre LLM, l'envoyer à 25+ services IA, puis analyser chaque réponse pour trouver le consensus.

Fonctionne entièrement dans votre navigateur — aucun serveur PromptQuorum ne voit jamais vos prompts ou clés API
1
Écrire/prompt

Structurer votre prompt

Choisissez parmi 9 frameworks de prompt engineering intégrés — ou créez le vôtre. Chaque framework vous guide à travers les bons champs pour votre tâche.

  • Single Prompt Line — prompts rapides et non structurés
  • CRAFT — Context, Role, Action, Format, Target
  • CO-STAR — vainqueur du concours Singapore GPT-4
  • RISEN — tâches entreprise avec étapes séquentielles
  • TRACE — quand vous avez besoin d'exemples few-shot
  • APE, SPECS, Google Prompt, RTF + 2 slots personnalisés
Un assistant de framework vous aide à choisir le bon en vous demandant ce que vous essayez de faire.
2
Optimiser/optimize

Affiner avec votre propre LLM

Votre LLM connecté transforme les champs bruts du framework en un prompt de précision. Vous affinez ensuite itérativement avec 8 raffinements en un clic — aucune expertise en prompt engineering requise.

  • Smart Temperature — détecte automatiquement l'intention factuelle, équilibrée ou créative
  • Historique des versions — chaque raffinement sauvegardé, revertible à tout moment
  • Évaluation de qualité — notation 1–5 étoiles avec suggestions d'amélioration spécifiques
  • Mode enseignement — explique exactement pourquoi chaque changement a été effectué
  • Rendre concis, Développer les détails, Décomposer en étapes, Simplifier, Ajouter des contrôles qualité…
  • Instruction personnalisée — raffinement en texte libre en langage naturel
Votre LLM. Votre clé API. Rien ne passe par les serveurs PromptQuorum.
3
Envoyer/dispatch

Envoyer à toutes les IA en même temps

Envoyez le prompt optimisé à plusieurs services IA en un clic. PromptQuorum pré-charge votre prompt dans chaque destination via URL — sans copier-coller.

  • Auto-dispatch : ChatGPT, Gemini, Perplexity, Claude, Copilot, DeepSeek, Mistral…
  • Copier-coller : Grok, Qwen, Meta AI, Poe, Kimi, LM Studio, Jan AI, GPT4All…
  • Perplexity s'exécute immédiatement — prompt auto-soumis à l'arrivée
  • 2 slots URL personnalisés pour tout service IA absent de la liste
  • Passe d'amélioration finale optionnelle via votre LLM avant envoi
  • 25+ destinations au total
Tous les onglets du navigateur s'ouvrent en parallèle. Collectez toutes les réponses en moins d'une minute.
4
Quorum/quorum

Trouver ce sur quoi toutes les IA s'accordent

Collez les réponses dans PromptQuorum. Choisissez vos types d'analyse. Votre LLM lit toutes les réponses et synthétise ce qui importe.

  • Résumé consensuel — thèmes et accords partagés entre tous les modèles
  • Détection des contradictions — où les modèles ont divergé, signalé explicitement
  • Détection des hallucinations — signale les affirmations potentiellement fausses
  • Score de confiance — niveau de certitude par modèle
  • Sélection de la meilleure réponse — choisit la réponse individuelle la plus solide
  • Fusion pondérée — synthétise une réponse hybride tirant le meilleur de tous
Quand 5 modèles s'accordent sur une réponse, la confiance est bien plus élevée que quand 1 seul modèle répond.

9 frameworks de prompt intégrés

Chaque framework structure votre saisie différemment. Un assistant de framework vous aide à choisir — ou vous pouvez créer deux frameworks entièrement personnalisés.

FrameworkIdéal pour
Single Prompt LinePrompts rapides et non structurés
APEPont simple à 3 champs
CRAFTÉcriture créative, usage général
CO-STARCommunication professionnelle, marketing
SPECSAnalyse et recherche
RISENTâches entreprise séquentielles
TRACEQuand des exemples sont nécessaires
Google PromptTâches professionnelles
RTFMinimal — les 3 champs les plus impactants

13 types d'analyse Quorum

Combinez librement. Lancez 2 ou les 13 en même temps. Chaque analyse est propulsée par votre LLM connecté, pas par un serveur PromptQuorum.

Synthèse
  • Résumé consensuel
  • Fusion pondérée
  • Extraction de faits atomiques
Comparaison
  • Cartographie des chevauchements
  • Détection des contradictions
  • Score de confiance
Qualité
  • Vérification de complétude
  • Détection des hallucinations
  • Élimination des redondances
Recommandations
  • Sélection de la meilleure réponse
  • Ensemble multi-modèles
  • Signalement de controverse
Exporter les résultats en 6 formats
.txt.md.json.csv.html.pdf

Plusieurs formats → téléchargés en archive .zip. API File System Access pour la sélection de dossier (Chrome/Edge/Safari 16+).

Key Concepts

Multi-Model Dispatch
Sending one prompt simultaneously to 25+ AI models in a single click. PromptQuorum pre-loads your prompt into each destination via URL — no copy-pasting, all tabs open in parallel.
Quorum Analysis
Structured comparison of responses from multiple AI models to identify consensus, contradictions, and confidence levels. PromptQuorum offers 13 analysis types including Hallucination Detection and Best Answer Selection.
Consensus Scoring
A confidence rating derived from the degree of agreement across multiple model responses. Higher consensus = higher reliability. Lower consensus flags areas of uncertainty or potential hallucination.
Hallucination Detection
Identifying factual claims that appear in only one or a minority of model responses, indicating potential AI fabrication. Cross-referencing 5+ independent models dramatically reduces the rate of undetected hallucinations.
BYOM — Bring Your Own Model
Connecting your own API keys directly to AI providers. Keys are stored only in your browser's localStorage and connect directly to providers — no PromptQuorum server ever receives or transmits your credentials.

Apportez votre propre modèle (BYOM)

PromptQuorum n'appelle jamais aucun LLM avec ses propres clés. Chaque appel va directement de votre navigateur à votre fournisseur choisi. Vos clés API restent dans le localStorage de votre navigateur — jamais transmises à un serveur PromptQuorum.

APIs Cloud (apportez votre clé)
  • OpenAI (GPT-4, GPT-4o)
  • Anthropic (Claude 3.5)
  • Google Gemini 1.5
  • Grok (xAI)
  • DeepSeek
  • Mistral
  • Cohere
  • Together AI
  • Groq
  • OpenRouter (free tier)
Local (aucune clé API requise)
  • Ollama (localhost:11434)
  • LM Studio (localhost:1234)
  • Jan AI (localhost:1337)
  • GPT4All (localhost:4891)
  • Open WebUI
  • KoboldCpp
  • vLLM
  • oobabooga
  • Any OpenAI-compatible endpoint

Zéro télémétrie

Pas d'analyse, pas de tracking, pas de collecte de données. Pas même de stats d'usage anonymes.

Zéro inscription

Aucun compte requis. Pas d'email. Pas de connexion. Ouvrez l'app et commencez.

Fonctionne localement

App desktop via Electron, mobile via Capacitor. Fonctionne entièrement hors ligne avec un LLM local.

Prêt à l'essayer ?

Rejoignez la liste d'attente pour un accès anticipé. Les premiers utilisateurs obtiennent des fonctionnalités premium à vie.

Rejoindre la liste d'attente

← Retour à l'accueil

How Multi-Model AI Dispatch & Consensus Works | PromptQuorum