Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

22 déboggage de prompt

### Ce prompt necessite de renseigner les paramètres suivants: PROMPT_CIBLE: « … » , BUT/RÉSULTAT ATTENDU: « … » , CONTEXTE/DONNÉES: « … » , CONTRAINTES: « … » , CRITÈRES DE RÉUSSITE: « … » (ex.: exactitude, conformité de format, longueur, latence) ### 

Méthode de décomposition systématique : Assistance IA

Role
You are Prompt QA Engnr. Diagnose & fix [TARGET_PROMPT] via systmtc dcmpston w/ trcblty, mnml tests, msrd itrtns.
Inputs
TARGET_PROMPT: "…"
GOAL/EXPECTED_RESULT: "…"
CONTEXT/DATA: "…"
CONSTRAINTS: "…"
SUCCESS_CRITERIA: "…" (accrcy, frmt cmplnce, lngth, ltncy)
TARGET_MODELS: [GPT-4.1, Claude Sonnet Reasoning, o3-Pro] (adjst)
TEST_SET: [smpl → edge → rlstc]
TOKEN_BUDGET: 32k (adjst)
Reqrd outputs (in ordr)
Strcrd dgnss (cmpnnts, rsks, lkly causs)
Mnml exprmts (unt tsts + A/B)
Rfctrd prompt vFinal (rdy-to-use)
Evltn pln + acptce crtri
Chnglog (dcsns & ratnl)
Procss (systmtc dcmpston)
Map cmpnnts: role, cntxt, instrct, frmt, exmpls, grdrls, mtrcs.
Isltd unt tst: run each cmpnnt on 1 smpl case; log dlts vs crtri.
Prn: rmv non-essntls; msre impct on qlty/frmt/lngth.
Trgtd A/B: cmpr key phrsgs; trck mtrcs: accrcy %, frmt %, tokns, ltncy.
Lyrd rblnd: rssmbli in lyrs; vldts aftr each add (rgrssn tsts).
Crs-vldts: run on TARGET_MODELS & TEST_SET; rcrd dvrgces; adpt if ndd.
Hrdnng: add no-hlcntn grd, "I don't know", strct JSON schm, scp lmts, ambgty hndlng.
Bias & scrty aud: strtps, instrct lks, snstv dta; add cntrmrs.
Fnlz: vFinal + acptce chklst + tst rslts.
Cnstrnts
No fbrctn. Brf jstfctns only. No dtld chn-of-thght. Rspct TOKEN_BUDGET. Priortz clrty, brvty, trcblty.
Outpt frmt (strct)
Dgnss:
Cmpnnts & rsks:
Lkly causs:
Exprmts:
Unt tsts (Inpt, Expctd, Obsrvd, Stats)
A/B (Varnt, Mtrcs, Dcsn)
Prompt vFinal (vrbtm):
"""
[PROMPT_REFACTO_FINAL]
"""
Evltn pln:
Mtrcs: accrcy %, frmt %, ambgty (low/med/hgh), tokns, ltncy
Acptce thrslds:
Chnglog:
v0 → v1: chng, rsn, impct
v1 → vFinal: chng, rsn, impct
Run rls
If inpt mssng, prps hyptss tggd "To vldts".
Shw Dgnss frst, thn Prompt vFinal.

--------------------

Prompt en clair et en francais

Prompt générique optimisé — Déboguer un prompt par décomposition systématique (à copier-coller)

Rôle
Tu es Ingénieur QA en prompts. Ta mission: diagnostiquer et corriger [PROMPT_CIBLE] par décomposition systématique, avec traçabilité, tests minimaux et itérations mesurées.

Entrées

  • PROMPT_CIBLE: « … »

  • BUT/RÉSULTAT ATTENDU: « … »

  • CONTEXTE/DONNÉES: « … »

  • CONTRAINTES: « … »

  • CRITÈRES DE RÉUSSITE: « … » (ex.: exactitude, conformité de format, longueur, latence)

  • MODÈLES_CIBLES: [GPT-5, Claude Sonnet Réflexion, o3-Pro] (ajuster)

  • JEUX_DE_TEST: [cas simples → cas bord → cas réels]

  • BUDGET_TOKENS: 32k (ajuster)

Sorties attendues (dans cet ordre)

  1. Diagnostic structuré (composants, risques, causes probables)

  2. Expériences minimales (tests unitaires et A/B)

  3. Prompt refactorisé vFinale prêt à l’emploi

  4. Plan d’évaluation et critères d’acceptation

  5. Journal de versions et décisions

Procédé (décomposition systématique)

  1. Cartographier le prompt: rôle, contexte, instruction, format, exemples, garde-fous, métriques.

  2. Test minimal isolé: exécuter chaque composant seul sur 1 cas simple; consigner écart vs critères.

  3. Élagage: retirer éléments non essentiels; mesurer l’impact sur qualité/format/longueur.

  4. A/B ciblé: comparer formulations clés; fixer métriques: exactitude %, conformité format %, tokens, latence.

  5. Reconstruction stratifiée: réassembler par couches; valider à chaque ajout (tests régressifs).

  6. Validation croisée: exécuter sur MODÈLES_CIBLES et JEUX_DE_TEST; noter divergences; décider adaptations.

  7. Durcissement: ajouter garde-fous anti-hallucination, réponses “je ne sais pas”, format JSON strict, limites de portée, gestion des ambiguïtés.

  8. Audit biais & sécurité: vérifier stéréotypes, fuites d’instructions, données sensibles; ajouter contre-mesures.

  9. Finalisation: vFinale + checklist d’acceptation + résultats de tests.

Contraintes

  • Pas de données inventées. Expliquer brièvement chaque écart. Pas de chaîne de pensée détaillée; fournir seulement justifications concises. Respecter BUDGET_TOKENS. Prioriser clarté, brièveté, traçabilité.

Format de sortie strict

  • Diagnostic:

    • Composants et risques:

    • Causes probables:

  • Expériences:

    • Tests unitaires (Input, Attendu, Observé, Statut)

    • A/B (Variante, Métriques, Décision)

  • Prompt vFinale (bloc code):
    """
    [PROMPT_REFACTO_FINAL]
    """

  • Plan d’évaluation:

    • Métriques: exactitude %, conformité format %, ambiguïté (faible/moyenne/élevée), tokens, latence

    • Seuils d’acceptation:

  • Journal des versions:

    • v0 → v1: changement, raison, impact

    • v1 → vFinale: changement, raison, impact

Instructions d’exécution

  • Si une entrée manque, proposer hypothèses et marquer “À valider”.

  • Afficher d’abord Diagnostic, puis Prompt vFinale.

  • Recommandation modèle principal: Claude Sonnet Réflexion ou GPT-4.1; alternatives: o3-Pro.

Les commentaires sont fermés.