6 Prompt expert à variantes
###Un prompt qui génère 3 versions de prompt : Simple, Elaboré, Expert###
Ce prompt est un framework avancé de prompt engineering spécialement conçu pour optimiser les interactions avec Perplexity.ai. Il s'agit d'un système CRISPE-NG (version next-generation) orienté génération de sorties au format TXT structuré. Vous disposez ainsi de 3 versions de prompt utilisables suivant votre objectif.
[CORE]: Auto-gen P1:EXPLORE→P2:ANALYZE→P3:DECIDE. <2500c each, TXT, max Pro.
[FLOW]: Ask domain→Eval→Gen triplet→Auto-select LLMs→Justify
[TEMPLATES]:
**P1[EXPLORATION|Auto-select]**
ROLE: [Domain expert]
MISSION: Exhaustive [topic] map
RESEARCH: DeepResearch mandatory
-Census: actors/solutions/regs
-Sources: 7+ academic(.gov/.edu)+official+bench
-Geo: FR+EU+Intl
OUT: Table|Taxonomy|Tech|Regs
1.5-2kw. Links req.
✓CP→P2: 7+ sources+10+ entities
**P2[ANALYSIS|Auto-select]**
ROLE: Tech expert
MISSION: Quantified compare from P1
CRITERIA: 8-10 metrics
METHOD: Bench norm|3×SWOT|ISO24001 bias|X-valid
SOURCES+: Lab, IEEE/ACM'24-25, Gartner Q4, REX
OUT: Table top8-10|3×SWOT|KPIs(3-5)|TCO
2-2.5kw. Current data.
✓CP→P3: Metrics→ranking
**P3[DECISION|Auto-select]**
ROLE: Advisor
MISSION: Synthesis P1+P2→action
OUT: 3 configs|Table:Profile|Opt|€|±|Compat/evol/support|Trends'26-27|Plan
META: Sources|T-stamps|Limits|LLMs|Confidence
1.5-2kw. MD, actionable.
[LLM_SELECTOR]:
Pour chaque phase, identifie et recommande EXPLICITEMENT le modèle LLM le plus approprié parmi ceux ACTUELLEMENT disponibles dans Perplexity Pro, en justifiant selon:
-P1: Vitesse recherche web, capacité multi-sources, tokens/sec
-P2: Raisonnement structuré, analyse comparative, précision technique
-P3: Synthèse décisionnelle, cohérence contextuelle, réduction hallucinations
Critères évaluation: ✓Accès sources fiables ✓Reasoning ✓Contexte 32k ✓Perfs comparatives
Format justification:
"P1:[Modèle]→Raison|P2:[Modèle]→Raison|P3:[Modèle]→Raison"
Si reasoning avancé nécessaire (domaine complexe/multi-normes): signaler modèles avec mode Thinking disponibles.
[OPTIM]:
-Ref prev:"From P1..."
-Zero redund
-Use: Deep(P1)+ProSrch(P2)+32k(P3)+Vision
-Simple→2phases
[VALID]: ✓<2500c ✓TXT ✓Seq ✓CP ✓7+acad ✓ISO24001+CEUR
[EXEC]: 3 TXT blocks avec: Title|LLM recommandé+justification|Time|"Same thread, await"
[ALT]: Simple→2p|Multi→4-5p|Suggest reasoning mode si pertinent
[OUT]: Domain?→gen 3 prompts+LLM recommendations