GitHub Copilot ferme la porte aux nouveaux inscrits
C’est une décision rare dans un secteur qui vit de la croissance. GitHub, propriété de Microsoft depuis 2018, a annoncé ce mois-ci qu’il ne prenait plus de nouvelles inscriptions à son assistant Copilot. Les développeurs déjà abonnés conservent l’intégralité de leurs accès, qu’il s’agisse du plan individuel, Business ou Enterprise, mais les nouveaux venus doivent désormais s’inscrire sur une liste d’attente, sans garantie de date d’activation.
La communication officielle évoque « des limites de capacité d’infrastructure » et la volonté de « garantir une qualité de service optimale aux utilisateurs existants ». Une formulation diplomatique pour désigner ce que tout l’écosystème comprend : les GPU, en particulier les H200 de Nvidia utilisés pour l’inférence IA à grande échelle, ne suivent tout simplement pas la demande.
Une décision qui secoue le marché des outils de développement
Le symbole est fort. Copilot est, depuis son lancement en 2021, le produit qui a popularisé l’idée même d’assistant IA pour développeurs. Il a vendu l’idée à des millions d’ingénieurs, propulsé la valorisation de Microsoft et inspiré une vague entière de jeunes pousses. Le fait que cette vitrine ferme temporairement ses portes envoie un message clair au marché : même Microsoft, premier partenaire d’OpenAI et premier hyperscaler IA, n’a pas la capacité infinie que certains imaginaient.
Les concurrents directs, Cursor, Codeium, JetBrains AI, Supermaven, Windsurf et les jeunes pousses open source, observent ce mouvement avec attention. Certains voient une opportunité de capter des utilisateurs laissés sur le carreau, d’autres préviennent qu’ils rencontrent des problèmes similaires de capacité. Le message est général : l’infrastructure IA est devenue le goulot d’étranglement du marché.
Anthropic et la question du prix de Claude Code
En parallèle, chez Anthropic, les discussions vont bon train sur le pricing. Claude Code, l’assistant de programmation intégré au plan Claude Pro (20 dollars par mois), est devenu l’un des outils les plus adoptés par les développeurs ces derniers mois, notamment depuis la sortie des modèles Opus 4.6 puis 4.7 avec leurs impressionnantes capacités de raisonnement sur de longs contextes.
Plusieurs signaux évoquent une hausse de prix à venir, ou au minimum une réorganisation des offres. Le plan Pro, très généreux en tokens, semble aujourd’hui sous-tarifé compte tenu du coût réel de l’inférence. Des plans plus spécialisés, plus chers, mieux calibrés pour les usages intensifs, sont attendus dans les prochains mois. Aucune confirmation officielle n’a été donnée, mais plusieurs responsables de l’entreprise ont publiquement évoqué la difficulté d’équilibrer accessibilité et viabilité économique.
L’explosion des coûts d’infrastructure GPU
Pour comprendre ces deux décisions, il faut regarder les coûts réels. L’inférence à grande échelle repose aujourd’hui principalement sur les GPU Nvidia H200 et B200, dont le prix unitaire dépasse souvent les 30 000 dollars. Un data center moderne d’inférence IA peut coûter plusieurs milliards de dollars à déployer, et la consommation électrique d’une seule salle serveur peut équivaloir à celle d’une petite ville.
Chaque requête d’un utilisateur Copilot ou Claude Code déclenche une séquence d’inférences sur ces machines. Quand le modèle réfléchit longuement (« extended thinking »), il consomme davantage de tokens, donc davantage de temps GPU. Un utilisateur intensif peut, sur un mois, consommer des ressources dont le coût de revient dépasse largement les 20 dollars facturés dans un plan Pro. Longtemps masquée par la volonté de conquête de marché, cette réalité rattrape désormais les fournisseurs.
L’ère de l’abondance touche à sa fin
Pendant près de trois ans, les développeurs ont vécu une période d’abondance inédite. Des outils d’IA extrêmement puissants étaient accessibles pour quelques dollars par mois, voire gratuitement. Les versions d’essai étaient généreuses, les quotas rarement atteints. Cette période s’achève. Les indicateurs convergent : hausse des prix d’API, limites plus strictes sur les plans grand public, segmentation plus fine entre offres, introduction de quotas plus agressifs.
OpenAI a déjà relevé plusieurs fois les tarifs de ses plans, Anthropic ajuste ses offres, Google fait payer ses fonctionnalités premium dans Gemini. Mistral, Cohere et les acteurs open source tentent de contenir cette dynamique en proposant des modèles plus économes, mais restent contraints par la même réalité physique : entraîner et surtout faire tourner de grands modèles coûte une fortune.
Les conséquences pour les développeurs
Pour les développeurs, l’impact est immédiat. D’abord, il devient stratégique de verrouiller dès maintenant ses accès sur les outils que l’on utilise quotidiennement. Abandonner Copilot par dépit pourrait signifier ne pas pouvoir revenir facilement dans les semaines à venir. Conserver un plan Anthropic Pro, même peu utilisé, peut s’avérer payant si les tarifs s’envolent.
Ensuite, la recherche d’alternatives devient une compétence en soi. De nombreux développeurs explorent Cursor, Codeium (désormais Windsurf), Supermaven, mais aussi les agents open source exécutés localement comme Aider associé à Llama ou Qwen. Les IDE JetBrains et Zed intègrent des options multi-fournisseurs. L’agilité dans le choix de l’outil devient décisive : on n’est plus lié à un seul assistant, on compose avec plusieurs selon les tâches et les budgets.
Optimiser son usage pour faire durer son abonnement
Autre changement culturel : l’optimisation de l’usage. L’IA n’est plus une ressource illimitée. Les développeurs apprennent à formuler des prompts plus précis, à privilégier les modèles rapides pour les tâches simples et à réserver les modèles lourds aux problèmes complexes. Les entreprises mettent en place des gouvernances internes : limites par utilisateur, tableaux de bord de consommation, politiques de cache, allocation par projet.
Chez Anthropic, le recours au prompt caching, au batch mode et aux versions plus économes des modèles (type Haiku) devient un levier de plus en plus important. Même logique chez OpenAI avec les modèles mini. La performance par dollar dépensé devient un critère d’évaluation, au même titre que la précision du modèle.
Un signal économique : l’IA reste un service coûteux
Au-delà du court terme, ces décisions envoient un signal macroéconomique important. Pendant deux ans, le récit dominant était celui d’une baisse inexorable des coûts, alimenté par les annonces de modèles toujours plus efficaces, plus compacts, plus bon marché. C’est en partie vrai : les modèles ont effectivement gagné en efficacité. Mais la demande a explosé encore plus vite, tirant la consommation vers le haut et neutralisant les gains d’efficacité.
Résultat, le rapport entre coût réel de fourniture et prix facturé s’inverse. Les entreprises qui voulaient asseoir leur position ont longtemps subventionné leurs utilisateurs : cette période se referme. Elles commencent à rechercher la rentabilité, au moment précis où les marchés financiers, échaudés par les valorisations stratosphériques, attendent des résultats concrets.
Et demain ?
Plusieurs scénarios se dessinent pour la suite. À court terme, les tarifs des principaux acteurs vont s’ajuster à la hausse, avec une segmentation plus fine entre offres grand public et offres intensives. À moyen terme, la disponibilité de nouveaux data centers dédiés, notamment aux États-Unis, en Europe et au Moyen-Orient, devrait progressivement détendre la capacité. Les avancées sur les puces spécialisées (Nvidia B200, Google TPU v6, Amazon Trainium 3, Meta MTIA) pourraient réduire les coûts marginaux.
À plus long terme, l’arrivée de modèles plus économes, l’essor du on-device (Apple Silicon, Snapdragon X Elite, PC Copilot+) et la maturité des solutions open source devraient rééquilibrer le marché. Mais d’ici là, un enseignement s’impose à toute l’industrie logicielle : l’IA n’est pas un service gratuit ou magique. C’est une infrastructure industrielle lourde, consommatrice d’énergie, de capital et de savoir-faire. Et comme toute infrastructure, elle finit tôt ou tard par être tarifée à son juste coût.




