NXL Forge.Pendant que le marché rédige — nous livrons
Article de fond··8 min de lecture

Le rapport Anthropic sur l'agentic coding en 2026, lu côté studio

Anthropic publie ses huit tendances 2026 sur l'agentic coding. Vue d'un studio qui livre avec Claude tous les jours : trois constats tiennent, deux sont gonflés, un grand absent reste à creuser.

agentic-codinganthropicia-codagecontext-engineeringclaude-code

Anthropic a publié son rapport sur les tendances de l'agentic coding pour 20261. Le document identifie huit tendances qui devraient redéfinir le développement logiciel cette année. Il a circulé largement sur LinkedIn et dans la presse spécialisée ces dernières semaines, avec des reprises plus ou moins approfondies2.

Comme studio qui pilote Claude au quotidien pour livrer des produits en production, on a lu ce rapport avec une grille particulière. Une partie de ce qu'il décrit colle à ce qu'on vit sur les projets. Une autre partie sent la projection commerciale d'un éditeur qui doit vendre son modèle. Voici la lecture qui en sort, tendance par tendance.

L'aveu enterré dans la préface

Le chiffre le plus important du rapport ne figure dans aucune des huit tendances. Il est dans la préface. Les développeurs utilisent l'IA dans environ 60 % de leur travail. Ils déclarent pouvoir « déléguer pleinement » seulement 0 à 20 % des tâches1.

Ce chiffre aurait dû faire le titre du rapport. Il l'aurait fait dans un document moins commercial. D'un côté, il dit que l'IA s'est massivement insérée dans le quotidien des développeurs. De l'autre, il rappelle qu'elle reste une assistance qu'il faut superviser sur la majorité des tâches.

Sur nos propres projets, le ratio sonne juste. Sur nos projets, on délègue le code de routine, les CRUD, les tests unitaires standards. On ne délègue pas les décisions d'architecture, ni les choix de schéma de base, ni les règles métier qui ont été négociées avec le client. Personne de sérieux ne le fait.

Le reste du rapport tend à oublier ce point d'ancrage. Ses prédictions parlent d'agents qui travaillent pendant des jours, qui codent en COBOL, qui font tourner des migrations complètes. Le document ne ment pas, il extrapole depuis quelques cas spectaculaires une trajectoire générale. La nuance reste dans la préface, et elle disparaît ensuite.

Une analyse du rapport publiée fin avril par Hivetrail formule la même chose autrement3. Ce que le rapport prédit, c'est en réalité une explosion de la demande pour une compétence rare : le context engineering. Savoir quoi mettre dans le contexte d'un agent, dans quel ordre, avec quelle granularité. Cette compétence n'apparaît pas explicitement chez Anthropic, mais elle est la condition de réussite de toutes les tendances annoncées.

Ce que le rapport décrit correctement

La transformation du rôle d'ingénieur correspond à ce qu'on observe. Le rapport prédit que les développeurs deviennent orchestrateurs d'agents. Sur nos projets, c'est déjà le cas. Le temps qu'on passe à écrire du code à la main a baissé de façon nette. Le temps qu'on passe à structurer des prompts, à découper des tâches et à valider du code généré a augmenté en proportion. La compétence qu'on cherche à recruter n'est plus tout à fait la même. On a besoin de développeurs qui savent décider, pas seulement de développeurs qui savent écrire.

L'effondrement du temps d'onboarding sur une nouvelle codebase est lui aussi observable. Le rapport cite Augment Code et un client dont un projet estimé à quatre à huit mois s'est terminé en deux semaines1. Le cas est extrême, on y reviendra. Le phénomène général est bien réel. Quand on intègre un nouveau projet client, le temps qu'il fallait avant pour comprendre une codebase de taille moyenne s'est divisé par cinq, peut-être plus. Claude lit les fichiers, identifie les patterns, produit une carte mentale en quelques heures. Ça ne remplace pas la maîtrise du métier, ça réduit le coût d'entrée.

L'augmentation du volume de production constitue le constat le plus juste du document. Le rapport note un point que beaucoup de commentateurs ratent : les ingénieurs ne font pas simplement le même travail plus vite, ils font 27 % de tâches qu'ils n'auraient pas faites avant1. Les petits outils internes, les dashboards de debug, les scripts de migration ponctuels, tout ce qui était abandonné faute de temps. Cette part-là, on la vit aussi. Le pourcentage de code utile mais qui n'aurait jamais été écrit avant est probablement supérieur à 27 % chez nous.

Ce que le rapport gonfle

Les agents long-running capables de travailler pendant des jours méritent un correctif sérieux. Le rapport cite Rakuten qui a fait implémenter par Claude Code une méthode d'extraction de vecteurs sur vLLM, une bibliothèque de 12,5 millions de lignes, en sept heures de travail autonome avec 99,9 % de précision numérique1.

Le cas est impressionnant. Il est aussi exceptionnel et choisi avec soin. vLLM est une bibliothèque massivement open-source, dont le code a été vu mille fois pendant l'entraînement de Claude. La tâche est techniquement précise, vérifiable par benchmark numérique, sans ambiguïté métier. Aucun de ces facteurs ne se trouve dans la moyenne d'un projet client. Les vraies missions se font sur des codebases privées que Claude ne connaît pas, avec des règles métier non documentées et des décideurs qui changent d'avis en cours de route. Sept heures d'autonomie sans intervention humaine dans ces conditions, c'est encore très rare en 2026.

La démocratisation du code aux non-développeurs est l'autre tendance qu'il faut nuancer. Le rapport cite Zapier avec ses 89 % d'adoption IA et ses huit cents agents déployés en interne1. Le chiffre fait rêver. Il ne dit rien sur la qualité de ce qui tourne, sur le coût total de maintenance, ni sur le nombre de ces agents qui survivront à six mois d'usage. Faire générer un workflow Zapier ou un script Python par Claude est devenu trivial. Le faire tourner de façon fiable en production, sans dérive silencieuse et sans dette technique invisible, n'a rien à voir.

Sur ce point précis, le retour terrain ne laisse pas de doute. Un non-développeur qui produit du code avec Claude crée souvent plus de problèmes qu'il n'en résout. Le code marche en démo, il plante en production4. Cette frontière-là, le rapport préfère ne pas la regarder.

Ce que le rapport ne dit pas

Une question est entièrement absente du document Anthropic. Combien coûte l'orchestration humaine quand l'agent dérape ?

Le rapport décrit une trajectoire où les agents s'occupent du tactique et où les humains supervisent. La supervision y est présentée comme une activité légère, intelligente, ciblée sur les bons moments. Dans la réalité d'un projet, la supervision a un coût matériel. Quand un agent prend une mauvaise décision d'architecture sur trois heures de session, la dette accumulée n'est pas neutre. Quand un système multi-agents passe par une dérive silencieuse de contexte, la détection prend du temps. Quand un agent long-running corrompt l'état d'une branche Git, la récupération coûte cher.

Anthropic a publié en parallèle un autre document sur l'Effective Context Engineering5. Ce document est paradoxalement plus utile que le rapport sur les tendances pour comprendre ce qui se passe vraiment en 2026. Il décrit le contexte comme une ressource finie, avec un budget d'attention à respecter, et appelle à une discipline d'ingénieur dans sa gestion. C'est exactement ce que le rapport sur les tendances suppose mais ne décrit pas.

Pour un studio qui livre du SaaS, la traduction est simple. La compétence qui fait la différence entre un projet qui finit en deux semaines et un projet qui dérive sur trois mois n'est pas la puissance du modèle. C'est la qualité de l'orchestration humaine en amont. Les prompts, les CLAUDE.md, les règles métier explicitées, les checkpoints, les budgets de tokens, les permissions Claude Code6. Le rapport parle d'orchestration sans dire ce que ça coûte d'apprendre à orchestrer.

Ce que ça change pour les équipes qui veulent shipper

Le rapport Anthropic n'est pas malhonnête. C'est un document de prévision raisonnablement étayé, qui s'appuie sur des cas client réels. Il dit des choses justes sur la transformation du rôle, sur la compression du temps de développement, sur l'augmentation du volume de production. Il sous-vend la difficulté de l'orchestration, il survend la fiabilité des agents long-running, et il occulte le coût caché de la supervision.

Pour une équipe qui veut construire un SaaS en 2026, la lecture pratique tient en quelques constats.

L'avantage va aux équipes qui investissent dans le context engineering, pas seulement dans les modèles. Le modèle est une commodité qui change tous les trois mois. La discipline d'orchestration est un actif qui se construit projet après projet, et qui détermine la rentabilité réelle d'un workflow piloté par IA. C'est ce qu'on essaie de transmettre dans notre méthode, et c'est ce qui rend possible des livraisons en quelques semaines plutôt qu'en plusieurs mois.

Le marché va se polariser entre les équipes qui ont fait ce travail et celles qui se contentent de prompts ad hoc. Les premières livrent en semaines ce que les secondes livrent en mois. Cet écart va se creuser, pas se réduire, parce que la barrière à l'entrée du context engineering est haute et que la courbe d'apprentissage est longue.

Le bon ratio à viser n'est pas 100 % d'IA. C'est celui de la préface du rapport, 60 % d'utilisation et 0 à 20 % de délégation pleine. Ce ratio reflète la réalité d'un travail bien fait. Il faut résister à la pression de le pousser plus loin sous prétexte de productivité affichée. C'est sur les 80 % restants, là où l'humain reste pleinement dans la boucle, que se joue la qualité du logiciel livré.

Le rapport Anthropic est un bon document à lire, à condition de garder ses propres mesures à côté. Le reste se passe sur le terrain, et le terrain ne ment pas.

Footnotes

  1. Anthropic — 2026 Agentic Coding Trends Report. AI is a constant collaborator, but using it effectively requires active supervision and validation. (publié début 2026). Consulter le rapport 2 3 4 5 6

  2. Joe Njenga, Medium. Anthropic quietly released an 8-point AI coding trends report. (mars 2026). Lire l'analyse

  3. Hivetrail — We Read Anthropic's 2026 Agentic Coding Trends Report. Context engineering is the load-bearing skill of 2026. (avril 2026). Lire l'analyse

  4. NXL Forge — Vibe coding : pourquoi ça marche en démo et plante en prod. Le code marche en démo, il plante en production. (27 février 2026). Voir l'article

  5. Anthropic Engineering — Effective Context Engineering for AI Agents. Context is a critical but finite resource for AI agents. (29 septembre 2025). Lire le billet

  6. NXL Forge — 15 features Claude Code que vous n'utilisez probablement pas. Le vrai workflow d'un développeur Anthropic, par Boris Cherny. (6 avril 2026). Voir l'article

Sur le même thème

Votre idée mérite un vrai logiciel

Du formulaire d'adhésion au logiciel industriel sur mesure.

NXL Forge associe expertise senior et IA de pointe. Livré avant que les autres vous aient rappelé.