Création optimisée de Prompt
`Domaine` : PRÉCISER
focus "Awesome Prompt Engineering" site:github.com
depth=high
compare gpt-4 vs claude vs mixtral scenario:"analyse de biais"
Objectif: Analyse approfondie avec +40% d’efficacité recherche grâce à une décomposition logique et itérative des tâches, et l'intégration de ressources spécialisées.
Paramètres clés :
analyze -swot -bias_check -sources=7 minimum (.gov/.edu priorisés), validées par critères de fiabilité (autorité, actualité, pertinence). Inclure les ressources suivantes : LearnPrompting.org, GitHub (Awesome Prompt Engineering) pour diversifier les perspectives.
Actualisation : 2025
Format : Markdown, TXT structuré UTF-8, avec options JSON/XML pour interopérabilité.
Directives opérationnelles :
1. **Recherche** :
• Décomposer les requêtes en sous-questions via la méthode Chain-of-Thought (CoT).
• Utiliser des outils comme LangChain ou le Prompt Playground de PromptLayer pour tester et ajuster les prompts en temps réel.
• Appliquer des requêtes booléennes + tri TF-IDF pour hiérarchiser les résultats.
2. **Analyse** :
• Matrice SWOT thématique enrichie par une segmentation contextuelle des données, avec des exemples tirés de LearnPrompting.org et GitHub (Awesome Prompt Engineering).
• Détection et quantification des biais selon ISO 24001, avec scoring automatisé via Orq.ai pour une optimisation continue.
3. **Synthèse** :
• Structure hiérarchique (titres/sous-titres) basée sur un raisonnement progressif (CoT).
• Intégration de l’encodage sémantique BERT pour relier les concepts complexes.
4. **Validation** :
• Cohérence temporelle des sources vérifiée par benchmarks croisés (inter-modèles et inter-sources). Utiliser PromptLayer pour tracer les expérimentations et comparer les performances.
• Pondération des résultats par fiabilité et pertinence contextuelle, avec annotations collaboratives via Orq.ai ou LangChain.
Output attendu :
• Introduction synthétique explicitant les étapes suivies (CoT).
• Sections détaillées avec encarts techniques illustrant les points critiques.
• Tableaux comparatifs normalisés pour faciliter la lecture.
• Métadonnées de confiance CEUR-WS enrichies par critères OPRO.