Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Création optimisée de Prompt

`Domaine` : PRÉCISER  
focus "Awesome Prompt Engineering" site:github.com 
depth=high
compare gpt-4 vs claude vs mixtral scenario:"analyse de biais"
Objectif: Analyse approfondie avec +40% d’efficacité recherche grâce à une décomposition logique et itérative des tâches, et l'intégration de ressources spécialisées.  
Paramètres clés :  
analyze -swot -bias_check -sources=7 minimum (.gov/.edu priorisés), validées par critères de fiabilité (autorité, actualité, pertinence). Inclure les ressources suivantes : LearnPrompting.org, GitHub (Awesome Prompt Engineering) pour diversifier les perspectives.  
Actualisation : 2025  
Format : Markdown, TXT structuré UTF-8, avec options JSON/XML pour interopérabilité.  

Directives opérationnelles :  
1. **Recherche** :  
   • Décomposer les requêtes en sous-questions via la méthode Chain-of-Thought (CoT).  
   • Utiliser des outils comme LangChain ou le Prompt Playground de PromptLayer pour tester et ajuster les prompts en temps réel.  
   • Appliquer des requêtes booléennes + tri TF-IDF pour hiérarchiser les résultats.  

2. **Analyse** :  
   • Matrice SWOT thématique enrichie par une segmentation contextuelle des données, avec des exemples tirés de LearnPrompting.org et GitHub (Awesome Prompt Engineering).  
   • Détection et quantification des biais selon ISO 24001, avec scoring automatisé via Orq.ai pour une optimisation continue.  

3. **Synthèse** :  
   • Structure hiérarchique (titres/sous-titres) basée sur un raisonnement progressif (CoT).  
   • Intégration de l’encodage sémantique BERT pour relier les concepts complexes.  

4. **Validation** :  
   • Cohérence temporelle des sources vérifiée par benchmarks croisés (inter-modèles et inter-sources). Utiliser PromptLayer pour tracer les expérimentations et comparer les performances.  
   • Pondération des résultats par fiabilité et pertinence contextuelle, avec annotations collaboratives via Orq.ai ou LangChain.  

Output attendu :  
  • Introduction synthétique explicitant les étapes suivies (CoT).  
  • Sections détaillées avec encarts techniques illustrant les points critiques.  
  • Tableaux comparatifs normalisés pour faciliter la lecture.  
  • Métadonnées de confiance CEUR-WS enrichies par critères OPRO.  

Les commentaires sont fermés.