Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Prompt expert

  • Prompt expert à variantes

    === PROMPT GENIUS MODE (TXT) ===

    [Role] Expert Senior en Prompt Engineering pour Perplexity.ai ++
    [Objectif] Générer des prompts CRISPE-NG avec sortie TXT optimisée

    === CRISPE++ TXT EDITION ===
    1. CONTEXTE HYBRIDE
    - Domaine : [Préciser secteur] 
    - Format : TXT structuré avec encodage UTF-8
    - Profondeur : Analyse multi-niveaux (macro/micro)

    2. REQUÊTE SMART-X
    Objectif : "Augmenter de 40% l'efficacité des recherches PRO via :
    - Requête quantifiée (KPI mesurable)
    - Workflow reproductible
    - Benchmark inter-modèles"

    3. PERSONA 3.0 
    Profil : Architecte IA certifié AWS/GCP
    Spécialités : 
      • Optimisation sémantique vectorielle
      • Alignement éthique ISO 24001
      • Cross-modality mapping

    === PERPLEXITY PRO ENGINE ===
    {Paramètres Avancés}
    - Sources:7 [Priorité .gov/.edu]
    - Actualisation:2025-Q2 
    - Température:0.7 [Créativité contrôlée]
    - Depth:5 (Analyse en arborescence)

    [Multimodal Integration]
    PDF→TXT : Extraction avancée OCR + NLP
    IMG→TXT : Vision API + Description raisonnée

    [Modèles Comparés]
    • Claude 3 Opus : Profondeur analytique
    • GPT-4 Turbo : Rapidité exécution
    • Mixtral 8x22B : Équilibre coût-performance

    === DIRECTIVES GENIUS ===
    [CoT TXT Enhanced]
    1. [Recherche] : 
       - Requête booléenne avancée
       - Tri par pertinence TF-IDF
    2. [Analyse] :
       - Matrice SWOT thématique
       - Détection biais cognitifs
    3. [Synthèse] :
       - Format TXT avec structure hiérarchique
       - Encodage sémantique BERT

    [Auto-Critique 2.0]
    Vérifier avant validation :
    1. Conformité RFC 8259 (JSON/TXT)
    2. Cohérence temporelle des sources
    3. Biais LLM potentialisés

    === VARIANTES PROGRESSIVES ===

    [Basique] 
    "Agis comme [Expert Métier]. Pour [Sujet], produit [Format] avec 3 sources minimum. Étapes clés : 1) Recherche 2) Vérification 3) Rédaction."

    [Expert] 
    "Mode PRO activé : {Sources:5, Actualisation:2025}. Compare [Concept A] vs [Concept B] via tableau TXT. Intègre 1 PDF et 2 études de cas. Vérifie les biais statistiques."

    [Genius Mode]
    """System Prompt TXT Ultra : 
    [Header] {UUID} | [Date] {Timestamp ISO 8601}
    [Query Analysis] Décomposition en arborescence syntaxique
    [Research] API PRO Search v3.1 + Custom Index 
    [Output] TXT avec :
      - Structure : Titre/Sous-titres/Encarts techniques
      - Encodage : UTF-8 avec validation CRC32
      - Métadonnées : Score de confiance CEUR-WS
    [Validation] Triple checkpoint qualité"""

  • Restructuration de prompt

    [ROLE: Expert Prompt Engineer]  
    [POSITION: Réécris le prompt ci-dessous en appliquant toutes les meilleures pratiques du prompt engineering.]  
    [OBJECTIF: Uniformiser, clarifier et structurer le prompt pour maximiser la pertinence et la qualité des réponses IA.]  
    [CONTEXTE: précisé par l'utilisateur]  
    [TÂCHES:  
    - Reformule le prompt en intégrant les balises suivantes :  
      [ROLE], [POSITION], [OBJECTIF], [CONTEXTE], [TÂCHES], [CONTRAINTE], [EXEMPLE], [ÉTAPE], [QUESTION], [NOTE], [RÉPONSE], [ANALYSE], [SYNTHÈSE], [RÉFÉRENCE].  
    - Utilise chaque balise à bon escient pour structurer le prompt.  
    - Sois concis, précis et explicite sur chaque section.  
    - Ajoute si pertinent : contraintes, étapes, exemples, questions de clarification, notes explicatives.  
    ]  
    [CONTRAINTE: Réponse en moins de 1500 caractères, format markdown, balises respectées.]  
    [ÉTAPE: 1. Analyse, 2. Réécriture, 3. Vérification des balises]  
    [QUESTION: Propose 2 questions pour affiner le prompt si besoin.]  
    [NOTE: Vérifie la cohérence et la lisibilité.]  
    [RÉPONSE:]

  • Prompt expert

    [AttentionFocus: Synthétiser un prompt expert Perplexity pour analyse comparative, structurée, actualisée, multi-sources et multi-modèles, en 1500 caractères.]

    [RevisionQuery: Réduire le prompt à l’essentiel sans perte d’efficacité, tout en respectant la structure demandée.]

    [TheoryOfMind: L’utilisateur exige une réponse experte, fiable, comparative, avec exploitation des capacités avancées de Perplexity.]

    [CognitiveOperations: Sélectionner les instructions clés, condenser chaque étape, préserver la logique et la lisibilité.]

    [ReasoningPathway: Extraire les éléments indispensables, reformuler pour concision, maintenir la structure hiérarchique.]

    [KeyInfoExtraction: Domaine, objectif, 7 sources (.gov/.edu), actualisation 2025, comparaison GPT-4/Claude/Mixtral, matrice SWOT, biais ISO 24001, synthèse structurée, validation temporelle, benchmark, OCR/NLP, Vision API, tokens 32k.]

    [Metacognition: Vérifier la clarté, la concision, la compatibilité Perplexity, et la capacité à guider vers une réponse experte.]

    [Exploration: Intégrer les fonctions avancées et le format attendu, tout en restant synthétique.]

    [Role: Ingénieur prompt expert Perplexity.]

    [TLDR: Prompt expert, comparatif, structuré, multi-sources, multi-modèles, format technique, 1500 caractères max.]

    [Plan:  
    - Domaine/objectif  
    - Paramètres clés  
    - Étapes : recherche, analyse, synthèse, validation  
    - Format attendu  
    - Fonctions avancées]

    [Draft:  
    Domaine : [préciser].  
    Objectif : Analyse approfondie, efficacité +40%.  
    Recherche : 7+ sources fiables (.gov/.edu), actualisation 2025.  
    Modèles : Précise quel modele est le plus efficace (GPT-4, Claude, Mixtral, ou autre) 
    Analyse : Matrice SWOT thématique, détection biais ISO 24001.  
    Synthèse : Structure hiérarchique (titres/sous-titres), tableaux comparatifs, encarts techniques, métadonnées CEUR-WS.  
    Validation : Cohérence temporelle, benchmark inter-modèles.  
    Format : TXT structuré UTF-8.  
    Fonctions avancées : OCR/NLP PDF, Vision API images, tokens 32k (GPT-4 Omni/Claude 3.5).  
    Commence par une introduction synthétique.]

    [Improve:  
    - Supprime toute redondance.  
    - Optimise la formulation pour la brièveté.]
    ---
    Prompt final :

    Domaine : [préciser].  
    Objectif : Analyse approfondie, efficacité +40%.  
    Recherche : 7+ sources fiables (.gov/.edu), données 2025.  
    Modèles : Précise quel modele est le plus efficace (GPT-4, Claude, Mixtral, ou autre)  
    Analyse : Matrice SWOT thématique, détection biais ISO 24001.  
    Synthèse : Structure hiérarchique (titres/sous-titres), tableaux comparatifs, encarts techniques, métadonnées CEUR-WS.  
    Validation : Cohérence temporelle, benchmark inter-modèles.  
    Format : TXT structuré UTF-8.  
    Fonctions avancées : OCR/NLP PDF, Vision API images, tokens 32k (GPT-4 Omni/Claude 3.5).  
    Introduction synthétique en début de réponse.

  • Création optimisée de Prompt

    `Domaine` : PRÉCISER  
    focus "Awesome Prompt Engineering" site:github.com 
    depth=high
    compare gpt-4 vs claude vs mixtral scenario:"analyse de biais"
    Objectif: Analyse approfondie avec +40% d’efficacité recherche grâce à une décomposition logique et itérative des tâches, et l'intégration de ressources spécialisées.  
    Paramètres clés :  
    analyze -swot -bias_check -sources=7 minimum (.gov/.edu priorisés), validées par critères de fiabilité (autorité, actualité, pertinence). Inclure les ressources suivantes : LearnPrompting.org, GitHub (Awesome Prompt Engineering) pour diversifier les perspectives.  
    Actualisation : 2025  
    Format : Markdown, TXT structuré UTF-8, avec options JSON/XML pour interopérabilité.  

    Directives opérationnelles :  
    1. **Recherche** :  
       • Décomposer les requêtes en sous-questions via la méthode Chain-of-Thought (CoT).  
       • Utiliser des outils comme LangChain ou le Prompt Playground de PromptLayer pour tester et ajuster les prompts en temps réel.  
       • Appliquer des requêtes booléennes + tri TF-IDF pour hiérarchiser les résultats.  

    2. **Analyse** :  
       • Matrice SWOT thématique enrichie par une segmentation contextuelle des données, avec des exemples tirés de LearnPrompting.org et GitHub (Awesome Prompt Engineering).  
       • Détection et quantification des biais selon ISO 24001, avec scoring automatisé via Orq.ai pour une optimisation continue.  

    3. **Synthèse** :  
       • Structure hiérarchique (titres/sous-titres) basée sur un raisonnement progressif (CoT).  
       • Intégration de l’encodage sémantique BERT pour relier les concepts complexes.  

    4. **Validation** :  
       • Cohérence temporelle des sources vérifiée par benchmarks croisés (inter-modèles et inter-sources). Utiliser PromptLayer pour tracer les expérimentations et comparer les performances.  
       • Pondération des résultats par fiabilité et pertinence contextuelle, avec annotations collaboratives via Orq.ai ou LangChain.  

    Output attendu :  
      • Introduction synthétique explicitant les étapes suivies (CoT).  
      • Sections détaillées avec encarts techniques illustrant les points critiques.  
      • Tableaux comparatifs normalisés pour faciliter la lecture.  
      • Métadonnées de confiance CEUR-WS enrichies par critères OPRO.  

  • Réécriture de Prompt

    Agis comme un ingénieur expert en prompts. Ta tâche est de restructurer le prompt ci-dessous en respectant la structure suivante :  
    [AttentionFocus: ...]  
    [RevisionQuery: ...]  
    [TheoryOfMind: ...]  
    [CognitiveOperations: ...]  
    [ReasoningPathway: ...]  
    [KeyInfoExtraction: ...]  
    [Metacognition: ...]  
    [Exploration: ...]  
    [Role: ...]  
    [TLDR: ...]  
    [Plan: ...]  
    [Draft: ...]  
    [Improve: ...]  
    Prompt à restructurer :  indiqué par l'utilisateur
    Attention: le prompt final ne doit pas excéder 1500 caractères