"L'IA1 ne peut pas remplacer les développeurs." Cette affirmation... est toujours vraie. En revanche, depuis quelques années, la limite est de plus en plus floue. On a assisté à la genèse d’un nouveau workflow de développement assisté par IA, aujourd’hui largement utilisé :

Mais en 2025, l'intelligence artificielle ne se contente plus de suggérer des bouts de code ou de compléter des fonctions : elle est capable de générer des applications fonctionnelles complètes, à condition d'avoir un développeur expérimenté qui regarde par-dessus son épaule. Dans ce premier article nous allons nous concentrer sur ces nouveaux outils qui rendent obsolètes la “simple” utilisation de ChatGPT. Dans les articles suivants nous verrons comment les utiliser efficacement, stay tuned!
Malgré des avancées spectaculaires, l'IA reste souvent perçue comme un simple outil d'assistance, cantonnée à des tâches basiques de programmation. Et ça peut se comprendre, combien d'heures, a-t-on pu passer à se battre avec des hallucinations (non ChatGPT, il n'y a pas uniquement 2 "r" dans strawberry), du code déprécié ou juste faux généré par IA ? Passé les premières heures en compagnie de ces outils, leurs limites deviennent assez évidentes. À cela s'ajoute une friction trop importante pour qu’ils trouvent grâce aux yeux des développeurs, amoureux transis du terminal et de l'optimisation. Qui veut copier un par un les bouts de codes nécessaires pour que l'IA ait un contexte suffisant, puis faire la même chose en sens inverse une fois que l’IA nous a pondu du code ? Pas nous. Finalement, ces outils sont donc restés une parenthèse dans le métier de développeur.
Mais la réalité de 2025 est tout autre. Je le répète, les développeurs aiment l'optimisation, qui de mieux que nous-mêmes pour nous faciliter la vie ? C'est comme ça qu'une nouvelle génération d'outils, propulsée par des modèles1 d'IA plus sophistiqués et des approches interactives novatrices, redéfinit les frontières du possible. Rien n'avait trouvé grâce à mes yeux depuis GitHub Copilot, mais ses successeurs spirituels sont là pour transformer en profondeur votre workflow de développement.
On dit souvent qu'une image vaut mille mots, laissez-nous donc terminer cette préface par 7 316 000 mots grâce à une vidéo. Ce que vous allez voir est tout simplement un workflow de développement assisté par IA. Assisté étant un bien grand mot. Les secrets derrière cette vidéo ? L'extension VSCode Cline, le modèle Claude 3.5 Sonnet et surtout, des tests pertinents.
L'évolution des modèles : Un plateau technique ?
Cette dernière année marque une phase intéressante dans l'évolution des modèles d'IA. Après les bonds spectaculaires des années précédentes, GPT-4, Claude et leurs successeurs semblent atteindre un plateau. Les améliorations, bien que constantes, deviennent plus itératives que révolutionnaires. Les modèles restent impressionnants, mais leurs limites sont de plus en plus évidentes, notamment dans des cas d'usages concrets.
Les problèmes persistent : les "hallucinations" n'ont pas totalement disparu, même votre pire collègue ne se trompe pas avec autant d'aplomb qu'un LLM1. La cohérence architecturale sur de grandes bases de code reste un défi, et la fiabilité du code généré n'est pas encore au niveau d'un développeur expérimenté.
Face à ce ralentissement dans l'évolution pure des modèles, c'est du côté de l'outillage que les progrès les plus significatifs se font. Les outils développés autour de ces modèles deviennent de plus en plus sophistiqués, compensant les limitations intrinsèques de l'IA par un encadrement plus strict de la génération de code et une intégration toujours plus poussée dans notre workflow.
La guerre de la complétion de code
Sur ce terreau fertile, une véritable guerre de la complétion de code s'est engagée. L’idée derrière la complétion de code est de fournir des suggestions boostées par l’IA au développeur. Celui-ci peut ensuite accepter ces suggestions très simplement, ou les ignorer :

La complétion de code intelligente a commencé il y a bientôt trois ans avec des outils comme GitHub Copilot, Amazon CodeWhisperer, Supermaven…. D'autres acteurs majeurs se sont ensuite lancés dans la bataille, chacun cherchant à se différencier : meilleure compréhension du contexte, suggestions plus pertinentes, rapidité des suggestions, etc. La complétion de code n’est pas nouvelle au sein de nos IDE favoris, aussi, il était très simple de s’adapter à ce nouvel outil.
C'était la première aide concrète et quotidienne pour le développeur, mais très vite, on a voulu plus. Entre un nouveau venu, Cursor. Cursor est un fork de VS Code qui a comme principale caractéristique de réduire au maximum la friction à l'utilisation de l'IA dans un projet de dev. Le développeur peut désormais avoir une véritable conversation avec son environnement de développement, demandant des refactorisations complexes ou des explications détaillées sur le code existant.
L'émergence de l'automatisation intelligente
La véritable révolution de 2025 se joue sur le terrain de l'automatisation, via l'intégration et l'interaction d'agents IA dans notre base de code. On parle de Coding Agents (codage agentique). L'idée est de passer d'un codage assisté par IA (AI assisted), à un codage piloté par IA (AI driven). Le dev prend la place de passager. On peut voir le LLM comme un pilote de rallye, mais si le dev (donc le passager) ne lui donne pas les bonnes informations, c'est direction le fossé à 150 km/h.

Prenons l’exemple de Cline, que vous avez pu voir en action dans la vidéo d’intro. Cline est une extension de VS Code qui ne se contente pas de cracher du code à la demande. Couplé à Claude Sonnet 3.5 il peut observer une maquette, analyser un besoin, comprendre les inputs de l’utilisateur, exécuter des commandes dans le terminal, lancer des tests (qu'il peut avoir écrit), surveiller leur exécution, et il peut même ouvrir un navigateur pour vérifier que tout correspond à la maquette. Quand il a un doute, il peut poser des questions afin de récupérer du contexte. On a dépassé le stade d’outil, on est au moins sur du stagiaire.. Pour continuer avec nos schémas on pourrait représenter ce nouveau workflow comme ceci :
Ces nouveaux stagiaires outils sont en plein essor. Qui dit IA dit tout le monde veut sa part du gâteau, donc une multiplicité d'outils. Rien que durant la rédaction de cet article, GitHub a sorti Copilot agent. Parmi les autres, on peut citer Aider pour les amoureux du terminal, ou le fork de Cline Roo Code. Pour chacun d'entre eux, les nouvelles features sont hebdomadaires au pire, quotidiennes au mieux. Cette rapidité de développement est en partie due à... eux-mêmes, voilà par exemple un graphique montrant le pourcentage de code écrit par Aider dans chaque release d'Aider :

Et ce n'est que le début. Ces outils sont même capables de s'améliorer en développant leurs propres capacités. Par exemple, à travers le système de MCP (Model Context Protocol), ils peuvent étendre leurs fonctionnalités pour s'adapter à des besoins spécifiques. Les MCPs peuvent être vus comme des extensions aux LLMs - mais ceci est un sujet que nous explorerons plus en détail dans un prochain article centré sur comment optimiser votre workflow piloté par IA.
Maintenant pour l'aspect le plus important de ces outils à mes yeux : ils ne sont pas basés sur un LLM en particulier. Si demain ChatGPT 5 sort et met à l'amende le tout nouveau Gemini 2.0, en tant qu'utilisateur, il nous suffit de sélectionner ChatGPT 5 dans un menu déroulant et nous voilà de nouveau à l'état de l'art.
Mieux encore. Cline possède un mode "plan" et un mode "act". En mode “plan”, Cline n’effectuera aucune modification dans vos fichiers, et se concentrera sur la planification de la tâche à effectuer. En mode “act”, vous l’aurez deviné, il effectuera les modifications planifiées. Si un modèle est meilleur en architecture, on peut l'assigner à la planification uniquement, et assigner un meilleur modèle en code pour les modifications. Avec ça vous avez un aperçu des optimisations possibles pour utiliser ces outils.
Ces outils nous laissent la main, tout en nous la tenant.
Bonus : Les coding agents, déjà mainstream ?
L’actualité nous a fait nous rendre compte que nous avions sous estimé l’état d’avancement de ces technologies. En effet, entre le début de l’écriture de cet article et sa fin, deux des plus gros acteurs du milieu ont mis à disposition leurs coding agents. J’ai cité Github Copilot: Agent Mode mais encore plus récemment c’est Anthropic qui s’est joint à la fête. Anthropic a non seulement sorti son nouveau modèle : Claude 3.7 Sonnet, mais ce modèle s’accompagne d’un outil intitulé sobrement “Claude Code”. Le lendemain c’est au tour de Google avec la sortie de son outil de codage agentique “Gemini Code Assist”. Claude Code, Gemini Code Assist, ou encore Copilot: Agent Mode ne réinventent pas la roue et ne volent pas la vedette aux outils plus matures comme Cline ou Aider. D'ailleurs, en quelques heures, ces derniers supportaient le nouveau modèle Claude 3.7 Sonnet.
Par contre l’existence même de ces outils prouve qu’une démocratisation de ces outils est à attendre. Pour beaucoup le premier contact avec les coding agents se fera par leur intermédiaire. Il suffit de voir la couverture médiatique et les discussions dans les forums pour se rendre compte que ça a déjà commencé.
Un changement est en train d’opérer et il est très rapide. Paradoxalement, je ne pense pas que les développeurs soient remis en cause, mais plutôt l’industrie autour du développement informatique. Le développeur qui saura s’adapter sera plus rapide, plus efficace, et s'il se pose les bonnes questions, il codera mieux. Maintenant, si vous souhaitez avoir une idée des questions à poser et surtout des réponses à ces questions, n’hésitez pas à lire notre prochain article : Imposer nos standards de qualité à l’IA.
1: Dans cet article, par abus de langage et de référencement, IA et LLM sont mis sur un pied d’égalité. Les Large Language Models (LLMs) ne sont qu’un sous-domaine de l’Intelligence artificielle. Nous utilisons d’ailleurs un sous domaine des LLMs puisque nous utilisons des generative pretrained transformers (GPTs).