
Au fil des avancées de l’intelligence artificielle 💡, la maîtrise du prompting devient une compétence essentielle. Pour accompagner cette évolution, Google a publié un guide détaillé de 68 pages, rédigé par Lee Boonstra, ingénieure chez Google. Après avoir parcouru ce guide pendant tout un weekend (avec l’aide de ChatGPT et Gemini), qui est devenu une référence, et qui propose des méthodes éprouvées pour concevoir des prompts performants, que ce soit pour les modèles Gemini ou d’autres LLM (Large Language Models), j’ai voulu vous partager les 6 techniques les plus pertinentes mises en lumière.
Maîtriser les réglages pour des réponses précises et contrôlées
Pour exploiter pleinement le potentiel d’un modèle d’intelligence artificielle, il est crucial de comprendre et d’ajuster trois paramètres fondamentaux : max tokens, température, top-K et top-P. Ces variables influencent la longueur, la créativité, la rigueur et même la fiabilité des réponses générées.
Exemple d’usage concret :
- Pour une tâche de résumé d’article :
max_tokens
= 300 (pour limiter la sortie)température
= 0.3 (réponses précises)top-P
= 0.8top-K
= 20
Résultat : un résumé synthétique et fidèle au texte d’origine.
À retenir :
- Température = 0 : pour des réponses déterministes (utile pour des tâches factuelles comme la traduction ou les calculs).
- Température > 1 : favorise la créativité, mais augmente le risque d’erreurs (idéal pour de la fiction ou des idées nouvelles).
- top-K restreint le modèle à un nombre fixe d’options, top-P agit sur un seuil de probabilité cumulée. Ces deux leviers permettent de doser la précision ou la diversité.
Guider l’IA par l’exemple grâce au few-shot prompting
Le few-shot prompting consiste à fournir au modèle des exemples clairs de ce que l’on attend. C’est une alternative puissante au fine-tuning, sans nécessiter d’entraînement supplémentaire.
Exemple d’application :
Vous voulez que le modèle convertisse des commandes de pizza en JSON. Voici comment structurer votre prompt :
luaCopierModifierEXEMPLE 1 :
Commande : Je veux une pizza moyenne avec jambon et champignons.
Réponse attendue :
{
"taille": "moyenne",
"ingrédients": ["jambon", "champignons"]
}
EXEMPLE 2 :
Commande : Une grande pizza, moitié fromage, moitié légumes grillés.
Réponse attendue :
{
"taille": "grande",
"ingrédients": [["fromage"], ["légumes grillés"]]
}
À partir de là, vous pouvez demander une nouvelle interprétation. Ce format permet à l’IA de généraliser à partir d’exemples concrets.
Bonnes pratiques :
- Variez les formulations (oral, écrit, questions implicites).
- Corrigez toute erreur dans les exemples (les fautes influencent fortement la qualité).
- Privilégiez la clarté sur la complexité.
Structurer la réflexion avec l’approche par recul stratégique (Step-back Prompting)
Cette méthode repose sur deux étapes distinctes :
- D’abord, on demande au modèle quelle stratégie il adopterait pour résoudre un problème.
- Ensuite, on lui demande de résoudre ce même problème à l’aide de la stratégie identifiée.
Pourquoi ça marche ?
En incitant l’IA à prendre du recul, elle active une forme de raisonnement déductif plus large, mobilisant des principes plutôt que des automatismes.
Exemple de prompt mathématique :
- Étape 1 : « Quelle méthode utiliserais-tu pour résoudre le problème suivant : ‘Si un train roule à 80 km/h pendant 3 heures, quelle distance a-t-il parcourue ?’ »
- Étape 2 : « Applique maintenant cette méthode pour résoudre le problème. »
Ce procédé est particulièrement utile dans des cas complexes : analyse juridique, code informatique, ou argumentation logique.
Gagner en fiabilité en répétant et comparant les réponses (Self-consistency)
Le self-consistency prompting consiste à envoyer plusieurs fois le même prompt, avec une température élevée, pour obtenir différentes réponses. Ensuite, la réponse la plus fréquente est considérée comme la plus fiable.
Exemple de cas pratique : analyse de sentiment d’une conversation.
- Prompt : « Cette discussion est-elle positive ou négative ? Réponds uniquement par POSITIF ou NÉGATIF. »
- Envoie le prompt 5 fois avec
température = 1.5
. - Résultats : POSITIF, NÉGATIF, POSITIF, POSITIF, POSITIF.
- Réponse retenue : POSITIF (majorité)
Ce type de méthode est utile pour :
- Les tâches de classification sensibles (avis client, modération).
- Les résolutions de problèmes ambigus.
- Réduire les hallucinations d’un LLM en croisant les réponses.
Optimiser automatiquement vos prompts avec des variantes testées (APE)
Le Automatic Prompt Engineering (APE) permet de générer automatiquement plusieurs versions d’un prompt, puis de les tester pour trouver le plus performant.
Étapes concrètes :
- Donnez un prompt de base (ex : « Résume cet article en trois phrases. »).
- Le modèle génère 10 variantes du prompt.
- Chaque version est testée sur un même texte source.
- Les sorties sont comparées à une référence humaine.
- Les meilleures versions (selon BLEU, ROUGE, ou évaluation humaine) sont conservées.
Exemple de variation générée automatiquement :
- « Donne-moi un résumé bref et clair. »
- « Résume le contenu en mettant en avant les points clés. »
- « Quelle est l’idée principale de ce texte ? »
Cela permet d’identifier les formulations les plus robustes, notamment quand vous développez des assistants personnalisés ou des outils de génération de contenu automatisé.
Documenter vos expérimentations dans un tableur pour progresser plus vite
Dans le domaine du prompt engineering, tester, observer et itérer sont les clés de l’amélioration. Pour cela, l’un des outils les plus simples et les plus efficaces reste… le bon vieux tableur. Créer un tableau de bord dédié à vos prompts vous permet non seulement de garder une trace de vos essais, mais surtout d’analyser leur efficacité avec du recul.
Voici comment structurer votre tableur pour qu’il devienne un véritable laboratoire :
Nom du test | Objectif | Température | Top-K | Top-P | Max Tokens | Prompt | Résultat généré | Évaluation |
---|
- Nom du test : Donnez un titre évocateur à chaque tentative (ex. : « Résumé article – ton neutre »).
- Objectif : Résumer, générer du code, classer, traduire, etc.
- Paramètres : Notez précisément les réglages de génération (température, top-K, top-P, etc.).
- Prompt utilisé : Copiez exactement le texte envoyé.
- Sortie générée : Collez le résultat du modèle pour pouvoir le comparer.
- Évaluation : Ajoutez un commentaire subjectif ou une note : « OK », « approximatif », « à retravailler », etc.
Avec le temps, vous constituerez une base de données personnalisée de ce qui fonctionne le mieux pour vos cas d’usage. Cela accélère l’apprentissage, vous aide à détecter les biais ou répétitions, et surtout… vous évite de refaire les mêmes erreurs.
Conclusion
Le prompt engineering, ce n’est pas une science obscure réservée aux chercheurs. C’est un dialogue : entre vous, vos besoins, et un modèle qui tente de vous comprendre. À travers des techniques comme le few-shot prompting, le raisonnement en deux temps, la répétition, ou encore l’évaluation automatique, vous affinez progressivement votre manière de « parler » à l’IA. Et même si certains réglages ou approches peuvent sembler techniques, rappelez-vous : chaque test est une opportunité d’apprendre. En cultivant un état d’esprit curieux, rigoureux mais aussi créatif, vous transformez un simple prompt en véritable levier d’innovation 🚀.