Zero-shot Prompting • Principe : Le LLM reçoit une instruction sans aucun exemple préalable. • Utilisation : Tâches simples ou génériques, évaluation de la capacité de généralisation du modèle. • Exemple : « Résume ce texte en une phrase. Few-shot Prompting • Principe : Fournir quelques exemples dans le prompt pour guider la réponse. • Utilisation : Améliorer la précision, obtenir des réponses stylistiquement ou structurellement cohérentes. • Exemple : Présenter 2-3 exemples de classification avant de demander une nouvelle classification. Many-shot Prompting • Principe : Multiplication des exemples pour couvrir davantage de cas. • Utilisation : Tâches nécessitant une diversité de réponses tout en gardant une cohérence. Chain-of-Thought Prompting (CoT) • Principe : Le prompt incite le LLM à expliciter son raisonnement étape par étape. • Utilisation : Résolution de problèmes complexes, mathématiques, logique, analyse détaillée. • Exemple : « Réfléchis étape par étape avant de donner la réponse. » Tree-of-Thoughts Prompting • Principe : Exploration de plusieurs branches de raisonnement ou scénarios possibles. • Utilisation : Brainstorming, résolution de problèmes à solutions multiples, scénarios stratégiques. Self-Consistency Prompting • Principe : Générer plusieurs réponses, puis sélectionner la plus cohérente ou la plus fréquente. • Utilisation : Améliorer la fiabilité et la robustesse des réponses. Self-Reflection Prompting • Principe : Le LLM critique et améliore ses propres réponses. • Utilisation : Optimisation continue, auto-évaluation, amélioration qualitative. ReAct Prompting • Principe : Combinaison de raisonnement (Reasoning) et d’action (Action). • Utilisation : Résolution de tâches nécessitant analyse et action séquentielle, agents autonomes. OPRO (Optimization by PROmpting) • Principe : Le LLM génère, évalue et optimise ses propres consignes pour améliorer la performance sur une tâche donnée. • Utilisation : Optimisation séquentielle, résolution de problèmes mathématiques, ajustement incrémental de prompts, tâches où l’optimisation explicite est complexe. • Fonctionnement : o Démarre par un méta-prompt décrivant la tâche et des exemples. o Génère des solutions candidates, les évalue, puis enrichit le prompt avec les meilleures solutions pour itérer jusqu’à convergence. SWOT Prompting • Principe : Adaptation de la matrice SWOT (Forces, Faiblesses, Opportunités, Menaces) à l’analyse contextuelle par LLM. • Utilisation : Analyse stratégique, évaluation de scénarios, aide à la décision. Retrieval-Augmented Generation (RAG) • Principe : Le LLM combine génération de texte et récupération d’informations dans des bases de données externes. • Utilisation : Génération de réponses précises, enrichies de données à jour, recherche documentaire. Decomposed Prompting • Principe : Décomposer un problème complexe en sous-problèmes plus simples. • Utilisation : Structuration de tâches complexes, planification, résolution multi-étapes. Feedback Loop Prompting • Principe : Générer une réponse, recueillir un retour, puis affiner la réponse sur plusieurs itérations. • Utilisation : Amélioration incrémentale, processus d’itération collaborative. Role-play Prompting • Principe : Attribuer un rôle ou une identité spécifique au LLM. • Utilisation : Simulation d’expertise, scénarios pédagogiques, jeux de rôle professionnels. Scenario-based Prompting • Principe : Placer le LLM dans un contexte ou scénario précis. • Utilisation : Simulation de situations réelles, formation, gestion de crise. Meta-Prompting • Principe : Utiliser le LLM pour générer ou affiner d’autres prompts. • Utilisation : Génération automatique de prompts, optimisation de l’ingénierie de prompts elle-même. Contrastive Prompting / CTF • Principe : Comparer des alternatives ou des opposés pour affiner la sélection de la meilleure réponse. • Utilisation : Publicité, choix stratégiques, analyse comparative. Chain-of-Verification Prompting • Principe : Vérifier chaque étape du raisonnement pour garantir la validité de la solution. • Utilisation : Tâches nécessitant une validation rigoureuse, audit, vérification de preuves. Multimodal Prompting • Principe : Combiner plusieurs types d’entrées (texte, image, etc.) dans le prompt. • Utilisation : Tâches nécessitant l’analyse croisée de plusieurs formats de données. Summarization Prompting • Principe : Demander au LLM de condenser ou d’étendre un contenu. • Utilisation : Synthèse documentaire, vulgarisation, reporting. Frameworks structurés (AUTOMAT, CO-STAR, etc.) • Principe : Utilisation de structures ou de checklists pour concevoir des prompts exhaustifs et efficaces. • Utilisation : Standardisation, assurance qualité, prompts complexes ou multi-dimensionnels.