Prompt Engineering: parle à ton LLM comme un pro
Tes prompts sont nuls ? C'est normal. Voici les techniques qui marchent vraiment pour obtenir ce que tu veux.
Tu demandes un truc à ChatGPT et tu obtiens une réponse générique inutilisable.
Le problème, c'est pas le modèle. C'est comment tu lui parles.
Context engineering, pas juste prompt engineering
Andrej Karpathy préfère parler de "context engineering" plutôt que "prompt engineering". Pourquoi ? Parce que dans toute app LLM sérieuse, "context engineering is the delicate art and science of filling the context window with just the right information for the next step."
Un LLM ne comprend pas ce que tu veux. Il prédit la suite la plus probable en fonction de ce qu'il a reçu. Si tu lui donnes du contexte vague, il génère du contenu vague.
La bonne nouvelle : tu n'as pas besoin de devenir un expert en "prompt engineering". Ethan Mollick le dit clairement : pour la plupart des usages, avoir une conversation avec l'IA suffit. 80% du travail, c'est juste ça.
La base : sois précis
Mauvais prompt :
Écris moi un email
Bon prompt :
Écris un email de relance pour un client qui n'a pas répondu depuis 2 semaines. Ton professionnel mais pas froid. Maximum 5 lignes.
La différence ? Le contexte. Le ton. Les contraintes. Tu donnes au modèle les informations dont il a besoin pour générer quelque chose d'utile.
Les techniques qui marchent vraiment
Donne un rôle
Les LLMs répondent mieux quand ils ont un personnage à jouer.
Tu es un expert en marketing B2B avec 15 ans d'expérience...
Ça active les bons patterns dans le modèle. C'est pas de la magie, c'est de la probabilité conditionnelle. Le modèle a vu des milliers de textes écrits par des "experts en marketing B2B" pendant son entraînement.
Montre des exemples (few shot prompting)
Au lieu d'expliquer ce que tu veux, montre le. C'est LE conseil qui revient sans cesse : utilise des exemples.
Voici des exemples du format attendu :
Input: "réunion demain 14h"
Output: { "type": "meeting", "date": "tomorrow", "time": "14:00" }
Input: "rappeler Jean vendredi"
Output: { "type": "reminder", "person": "Jean", "day": "friday" }
Maintenant, traite : "call avec Marie lundi 10h"
Les exemples valent mieux que mille explications. Le modèle comprend immédiatement le format attendu.
Chain of thought
Pour les problèmes complexes, demande au modèle de réfléchir étape par étape.
Réfléchis étape par étape avant de répondre.
Ça force le modèle à "montrer son travail". Ça réduit les erreurs de raisonnement, surtout pour les tâches qui demandent de la logique.
Structure avec des délimiteurs
Sépare clairement les sections de ton prompt.
### Instructions
[tes instructions]
### Contexte
[le contexte]
### Tâche
[ce que tu veux]
Le modèle comprend mieux quand c'est structuré. C'est comme parler à quelqu'un : si tu mélanges tout dans un paragraphe confus, il va se perdre.
L'approche conversationnelle
Un point que beaucoup ignorent : les meilleurs "prompters" ne sont pas des développeurs. Ce sont des gens qui savent enseigner ou manager.
Pourquoi ? Parce qu'ils n'essaient pas de "programmer" l'IA. Ils lui parlent comme à une personne qu'ils forment. Ils itèrent. Ils ajustent. Ils corrigent.
Si ta première tentative ne donne pas le résultat voulu, ne réécris pas tout ton prompt. Dis simplement "c'est trop long, raccourcis" ou "change le ton, c'est trop formel". L'IA comprend.
Le prompt roman. Un prompt de 2000 mots n'est pas mieux. Il est pire. Le modèle se perd dans les instructions.
Les instructions contradictoires. "Sois concis mais détaillé" ne veut rien dire. Choisis. Ou précise : "Concis sur la forme, détaillé sur les chiffres."
Pas de format de sortie. Si tu veux du JSON, dis le. Montre un exemple. Le modèle ne peut pas deviner que tu veux un format spécifique.
Croire que c'est de la programmation. Le prompt engineering n'est pas du code. Tu ne peux pas t'attendre à des résultats 100% déterministes. C'est plus proche de la communication humaine.
Le prompt engineering va disparaître
Dernière vérité importante : tout ça devient moins critique avec le temps.
La réalité : les modèles deviennent de plus en plus bons à comprendre ton intention, même quand tu t'exprimes mal. Être "bon en prompting" est un état temporaire.
Les modèles s'améliorent pour comprendre ce que tu veux même quand tu t'exprimes mal. Le vrai skill qui restera ? Savoir quoi demander, pas comment le demander.
En attendant, ces techniques marchent. Utilise les pour obtenir de meilleurs résultats. Mais ne perds pas des heures à optimiser un prompt. Parle au modèle, itère, et passe à autre chose.