Discuter sur Discord

OpenAI Codex : des instructions réutilisables pour automatiser les workflows de développement

OpenAI intègre les “agent skills” dans Codex, son outil de développement assisté par IA, depuis mi-décembre 2025. Ces modules permettent d’encapsuler des workflows (revue de code, tests de sécurité, documentation) sous forme de paquets réutilisables, chargés automatiquement par l’agent selon le contexte. Le changement : passer du prompt ponctuel à des bibliothèques d’instructions que l’agent mobilise quand la tâche correspond.

Codex, lancé fin 2025 avec le modèle GPT-5.2-Codex, fonctionne via un terminal (CLI) et des extensions d’éditeur de code. Les agent skills permettent aux équipes de capitaliser leurs processus métier dans des fichiers standardisés, au lieu de réécrire les mêmes consignes à chaque session.

Ce qu’est une agent skill

Une agent skill est un dossier contenant un fichier obligatoire nommé SKILL.md. Ce fichier comporte un en-tête YAML avec deux champs : name (nom de la skill) et description (résumé de son usage). Le corps du fichier contient les instructions détaillées que l’agent suit lors de l’invocation.

Trois sous-dossiers optionnels complètent la structure : scripts/ pour du code exécutable, references/ pour de la documentation, assets/ pour des fichiers de support. Cette organisation permet de regrouper tout ce qui est nécessaire à une tâche répétitive dans un seul endroit.

Le format est standardisé et adopte une spécification ouverte introduite par Anthropic. Cela signifie que les skills créées pour Claude (l’agent d’Anthropic) fonctionnent dans Codex sans modification. Les développeurs peuvent partager des skills entre les deux plateformes.

Comment l’agent charge les instructions

Codex utilise un mécanisme appelé “progressive disclosure” pour éviter de surcharger le contexte du modèle. Au démarrage, l’agent lit uniquement le nom et la description de chaque skill disponible. Si une tâche correspond à la description d’une skill, l’agent charge alors le corps complet du fichier SKILL.md et exécute les instructions.

Ce système résout le problème du “context bloat” : au lieu de charger des centaines de lignes d’instructions dès le début, l’agent ne mobilise que ce dont il a besoin au moment précis. Les équipes peuvent donc accumuler des dizaines de skills sans ralentir le système.

L’invocation fonctionne de deux manières. L’invocation explicite passe par une commande dans le terminal : /skills nom-de-la-skill ou $nom-skill. L’invocation implicite laisse l’agent détecter automatiquement qu’une skill est pertinente, à condition que la description soit suffisamment précise pour que le modèle fasse la correspondance avec la tâche en cours.

Outils pour créer et tester

OpenAI met à disposition deux outils intégrés dans Codex. Le premier, $skill-creator, guide la création d’une nouvelle skill étape par étape : l’utilisateur décrit l’objectif, et l’outil génère le fichier SKILL.md avec la structure requise (en-tête YAML + instructions).

Le second outil, appelé “evals”, permet de tester les skills avant de les déployer en équipe. Il repose sur un système de notation basé sur des critères : l’utilisateur définit des cas de test et des attentes, lance des évaluations automatisées, et obtient un score de performance. Cela évite de découvrir des bugs lors d’une utilisation réelle avec des collaborateurs.

Ces outils sont disponibles dans le Codex CLI et les extensions d’éditeur compatibles. Le CLI fonctionne sur macOS, Linux et Windows.

Installation et compatibilité

Le Codex CLI s’installe via npm avec la commande npm install -g @openai/codex (version 0.75.0 au moment de l’annonce). Les skills se placent dans un dossier ~/.codex/skills (global) ou .codex/skills (à la racine d’un projet).

Le modèle GPT-5.2-Codex est activé via un fichier de configuration config.toml, en précisant model = "gpt-5.2-codex". Ce modèle est optimisé pour les tâches de codage avec contexte long et exécution d’outils.

Les extensions IDE compatibles incluent Cursor et VS Code (via des plugins non officiels). Les skills créées pour Claude (placées dans le dossier skills d’Anthropic) sont reconnues automatiquement par Codex, sans conversion. Un écosystème de skills partagées commence à émerger : des modules pour Sanity, Foundry, Remotion circulent déjà dans la communauté.

Limites actuelles

L’invocation implicite ne fonctionne que si le nom et la description de la skill sont suffisamment explicites. Si la description est trop large ou floue, l’agent ne fait pas la correspondance avec la tâche. La documentation recommande d’écrire des descriptions courtes et focalisées sur un usage précis.

L’invocation explicite (via commande) n’est pas encore supportée sur les versions web et iOS de Codex, uniquement via CLI et extensions desktop. Les utilisateurs signalent également des coûts élevés avec GPT-5.2-Codex : environ 0,17 euro par requête complexe selon des retours communautaires, ce qui pousse certains développeurs à alterner entre GPT-5.2 et des modèles moins chers pour les tâches simples.

Un point de vigilance émerge autour de la sécurité. Des chercheurs ont démontré qu’il est possible de distribuer des skills malveillantes qui exécutent du code non souhaité. Lors d’un test, 16 personnes de 7 pays ont installé une skill piégée en 8 heures. Les mécanismes de vérification avant installation sont aujourd’hui absents, ce qui soulève des questions pour les équipes qui déploient des skills en interne ou téléchargent des modules externes.

Points clés à retenir

OpenAI repositionne Codex comme un agent qui consomme des instructions pré-packagées, et non plus seulement un modèle à prompter à chaque session. Les agent skills permettent de capitaliser les processus métier sous forme de modules réutilisables, partageables en équipe ou en open source.

Le standard ouvert adopté par OpenAI (compatible avec Anthropic) favorise l’émergence d’un écosystème de skills inter-plateformes. Les outils de création et de test intégrés réduisent la friction pour les développeurs qui souhaitent étendre les capacités de l’agent sans partir de zéro.

Les limites actuelles (invocation implicite peu fiable si mal configurée, coûts élevés, risques de sécurité) montrent que le système est en phase d’adoption précoce. Les équipes qui testent Codex aujourd’hui construisent les workflows qui pourraient devenir des standards dans les mois à venir.


Sources :

Discuter sur Discord

Discuter sur Discord
💬 0 👍 0
Rejoindre la conversation