TL;DR
- 88% des entreprises utilisent l'IA, mais 95% n'ont aucun ROI mesurable. L'adoption est large, la transformation est rare.
- Le "10x developer" est un mythe : +5.4% en conditions reelles, et -19% pour les experts sur du code complexe (etude METR).
- L'open source a gagne : l'ecart entre modeles ouverts et fermes est passe de 17.5 a 0.3 points MMLU en deux ans.
- L'impact emploi reel est le "quiet non-replacement" : on ne remplace pas l'IA par des humains, on ne remplace pas les departs.
- Le cout environnemental est le secret le mieux garde : empreinte carbone de New York City, consommation d'eau equivalente a la production mondiale d'eau en bouteille.
- Ni big bang ni big flop. C'est une transformation lente, comme l'electricite ou Internet -- evidente en retrospective, chaotique pendant.
Trois ans
Trois ans. C'est le temps qui s'est ecoule depuis que ChatGPT a change le monde. Ou pas. Ca depend a qui tu demandes.
Demande a un VC de la Silicon Valley, et c'est la plus grande revolution technologique depuis Internet. Demande a un DSI qui a claque son budget IA sans resultat mesurable, et c'est le plus gros over-hype de la decennie. Demande a un dev qui utilise Claude Code tous les jours, et c'est un outil formidable mais imparfait. Demande a un employe de centre d'appels dont le poste a ete "optimise", et c'est une menace bien reelle.
Ils ont tous raison. Et c'est ca le probleme des bilans IA : la realite est trop nuancee pour un titre d'article.
Mais essayons quand meme.
Ce qui a vraiment change
L'IA est entree dans le quotidien des devs
C'est le changement le plus concret. 37.4% des adultes americains actifs utilisent l'IA generative au travail (Federal Reserve Bank of St. Louis). Les messages ChatGPT sont passes de 451 millions par jour en juin 2024 a 2.63 milliards par jour en juin 2025. OpenAI compte plus d'un million de clients enterprise.
Ce ne sont pas des chiffres de hype. Ce sont des chiffres d'usage. Les gens utilisent ces outils. Tous les jours. Pour ecrire, coder, reflechir, chercher, structurer. Pas pour remplacer leur travail -- pour l'augmenter.
En tant que dev, le changement est tangible. Le workflow de 2022 (Stack Overflow, documentation, essai-erreur) s'est transforme. Le workflow de 2025, c'est un LLM en copilote permanent : debugging, generation de tests, refactoring, premiere ebauche de code. L'agent IA ne code pas a ta place, mais il code avec toi. Et ca change la nature du travail.
L'adoption enterprise est reelle (mais superficielle)
88% des entreprises utilisent l'IA dans au moins une fonction (McKinsey 2025). Mais -- et c'est un "mais" enorme -- seulement 1% se decrivent comme ayant des deployments "matures". 75% n'ont pas de feuille de route IA claire. 82% ne suivent pas de KPIs definis.
L'adoption est large mais peu profonde. Tout le monde teste. Presque personne ne transforme. C'est la difference entre "on a mis un chatbot sur le site" et "on a redesigne nos workflows autour de l'IA".
Ce qui a ete survendu
Le "10x developer" : un fantasme
On nous avait promis que l'IA allait decupler la productivite des developpeurs. Les benchmarks de GitHub annoncaient +55% de vitesse. La realite est plus sobre.
L'etude BlueOptima (fevrier 2026), menee sur 30 000 developpeurs dans 18 entreprises, en conditions reelles de production, donne +5.4%. Les utilisateurs intensifs montent a +20%. C'est bien. C'est utile. Ce n'est pas 10x.
Mais le chiffre le plus troublant vient de l'etude METR (arXiv, juillet 2025). Sur 16 developpeurs experimentes travaillant sur leur propre code open source, l'IA les a ralentis de 19%. Les devs avaient predit un gain de 24%. L'ecart entre perception et realite est un gouffre.
L'hypothese : le temps passe a verifier, corriger et integrer les suggestions IA annule les gains de vitesse sur du code complexe et mature. L'IA accelere le boilerplate. Elle ralentit la reflexion.
Le ROI : 95% au tapis
C'est le chiffre qui fait mal. L'etude MIT (2025) conclut que 95% des entreprises investissant dans l'IA generative n'ont obtenu aucun ROI mesurable. Et seulement 23% mesurent precisement leur retour sur investissement.
Ca ne veut pas dire que l'IA ne marche pas. Ca veut dire que la plupart des entreprises ne savent pas comment l'utiliser, ne mesurent pas ce qu'elles font, et ne redesignent pas leurs processus. Elles greffent l'IA sur des workflows existants et s'etonnent que ca ne change rien.
Les ~6% de "high performers" (McKinsey) qui obtiennent un impact EBIT superieur a 5% ont tous un point commun : ils ne se sont pas contentes d'ajouter un outil. Ils ont repense leur facon de travailler.
Les emplois : pas les millions promis
Goldman Sachs predisait 300 millions d'emplois exposes mondialement. La realite de 2025 : environ 55 000 licenciements officiellement attribues a l'IA aux Etats-Unis (Challenger, Gray & Christmas). Estimation reelle en incluant les non-remplacements : 200 000 a 300 000.
C'est significatif. Mais c'est loin des predictions cataclysmiques. Et il faut nuancer : 60% des managers admettent mettre en avant l'IA comme raison de licenciement parce que c'est "mieux vu que les contraintes financieres" (Fortune, mars 2026). L'IA est parfois un pretexte commode.
L'"AGI l'annee prochaine" : toujours l'annee prochaine
Chaque annee depuis 2023, des voix influentes predisent l'AGI imminente. Chaque annee, les memes problemes fondamentaux persistent : hallucinations, raisonnement fragile, manque de fiabilite sur les taches critiques. GPT-5, Claude 4, Gemini 2 -- chaque generation ameliore les choses, mais aucune ne resout les limites structurelles des architectures actuelles.
Comme le resume Gary Marcus (novembre 2025) : "Presque un trillion de dollars plus tard, les memes problemes fondamentaux persistent."
Le 5% contre les 95%
C'est peut-etre le constat le plus important de ces trois ans. L'IA generative cree une fracture nette entre deux groupes.
Les 5% qui transforment. Ils redesignent les workflows au lieu de greffer l'IA. Ils investissent dans la donnee proprietaire. Ils ont une strategie formelle (80% de taux de succes contre 37% pour les autres). Ils mesurent des KPIs clairs. Resultat : 240% de ROI moyen sur 12 mois pour l'automatisation de processus (Arcade.dev/Gartner). 40% de reduction des couts operationnels.
Les 95% qui experimentent. Ils ajoutent des chatbots. Ils lancent des POC. 30% de ces POC sont abandonnes (Gartner). Ils n'ont pas de feuille de route. Ils ne mesurent pas le ROI. Ils depensent et esperent que ca marche.
La technologie n'est pas le probleme. L'integration organisationnelle l'est. C'est exactement ce qui s'est passe avec les precedentes vagues technologiques : le cloud, le big data, le mobile. Les outils etaient la. La capacite a les utiliser intelligemment est arrivee des annees plus tard.
L'open source qui a tout change
L'histoire la plus sous-estimee de ces trois ans, c'est la montee en puissance de l'IA open source.
En 2023, les modeles ouverts etaient loin derriere. L'ecart sur MMLU (un benchmark de reference) entre modeles ouverts et fermes etait de 17.5 points. Fin 2025, cet ecart est tombe a 0.3 points. Quasi-nul.
Le choc DeepSeek a ete le moment pivot. En janvier 2025, DeepSeek R1 a demontre qu'un modele frontier pouvait etre entraine pour environ 5.9 millions de dollars -- contre des centaines de millions pour les modeles fermes. Sous licence MIT. Entierement ouvert. Si le frontier coute 6 millions au lieu de 100, les barrieres a l'entree s'effondrent.
Aujourd'hui, cinq familles de modeles open source atteignent simultanement le niveau frontier : DeepSeek, Qwen, Kimi, GLM, Mistral. L'inference open source coute 3 a 18 fois moins cher que GPT-5. La tendance est structurelle, pas anecdotique.
Ce que ca change concretement : un dev peut maintenant faire tourner un modele de qualite frontier sur son propre serveur, avec ses propres donnees, sans envoyer quoi que ce soit a un tiers. Pour le RAG, le fine-tuning, les agents specialises -- l'open source a democratise l'acces a l'IA de pointe.
Le cout invisible
C'est le sujet dont personne ne parle dans les keynotes.
Energie. Les data centers americains consomment 183 TWh en 2024, soit plus de 4% de l'electricite nationale. La projection pour 2030 : 426 TWh. L'IA represente 15% de cette consommation, et cette part augmente rapidement. En Irlande, les data centers pourraient representer 32% de la consommation electrique nationale d'ici 2026.
Carbone. L'empreinte carbone de l'IA en 2025 est estimee entre 32.6 et 79.7 millions de tonnes de CO2. Pour donner un ordre de grandeur : c'est l'equivalent des emissions annuelles de New York City.
Eau. Les data centers IA consomment entre 312 et 765 milliards de litres d'eau par an pour le refroidissement. C'est comparable a la consommation mondiale d'eau en bouteille.
Les entreprises tech ont toutes pris des engagements carbone-neutre qu'elles ne peuvent plus tenir. L'energie est en train de devenir le facteur limitant principal de la croissance IA, plus que les algorithmes ou les donnees. Et les factures d'electricite des menages americains devraient augmenter de 8% en moyenne d'ici 2030 -- 25% en Virginie, epicentre des data centers.
C'est le "dirty secret" de la revolution IA. Chaque prompt, chaque image generee, chaque agent qui tourne en boucle a un cout environnemental. Ce cout est actuellement externalise et invisibilise. Ca ne durera pas.
La "quiet non-replacement"
L'impact reel de l'IA sur l'emploi n'est pas le licenciement spectaculaire. C'est le non-remplacement silencieux.
Salesforce supprime 4 000 postes de support client -- l'IA peut gerer "la moitie du travail". Microsoft coupe environ 15 000 emplois, 30% du code etant deja ecrit par l'IA. Mais le mecanisme dominant n'est pas le licenciement. C'est le poste qui se libere et qu'on ne repourvoit pas. Quelqu'un part a la retraite, demissionne, change de role -- et l'equipe absorbe la charge grace a l'IA.
C'est plus insidieux que des vagues de licenciements parce que c'est invisible dans les statistiques. Pas de plan social, pas de media coverage, pas de syndicat alerte. Juste un headcount qui baisse doucement.
Les entrees de carriere sont les plus touchees. Si une equipe de 10 peut faire le travail de 12 grace a l'IA, le poste junior qu'on ouvrait chaque annee n'ouvre plus. C'est un probleme a moyen terme : ou formerons-nous les seniors de 2035 si on n'embauche plus de juniors en 2025 ?
L'etude Anthropic (mars 2026) apporte une nuance importante : l'exposition theorique et l'exposition reelle divergent enormement. 94% de capacite theorique pour les emplois tech, mais seulement 33% d'exposition reelle. L'IA peut theoriquement faire beaucoup de choses. En pratique, l'integration dans les vrais processus de travail est lente.
Verdict : ni big bang, ni big flop
Alors, ou en est-on ?
L'IA generative n'est pas la revolution instantanee qu'on nous vendait en 2023. Ce n'est pas non plus un flop. C'est une transformation lente, inegale, et profondement imparfaite.
L'analogie la plus juste, c'est l'electricite. Quand les usines ont eu acces a l'electricite a la fin du XIXe siecle, elles ont commence par remplacer la machine a vapeur centrale par un moteur electrique central. Les gains etaient marginaux. Il a fallu des decennies pour que les ingenieurs comprennent qu'il fallait redesigner les usines autour de moteurs electriques distribues -- un par machine. C'est a ce moment-la que la productivite a explose.
L'IA est au stade du "moteur electrique central". On greffe l'IA sur les vieux processus. Les vrais gains viendront quand on redesignera les processus autour de l'IA. Et ca prendra des annees, pas des mois.
Le changement est reel. Le hype est exagere. La verite est entre les deux.
Pour les devs, le conseil est simple : utilise l'IA comme un outil, pas comme un remplacement. Apprends a prompter, apprends les limites, apprends quand l'IA aide et quand elle ralentit. Les +5.4% de productivite en conditions reelles, c'est gratuit -- il suffit de savoir les capturer. Et ne crois personne qui te promet le 10x.
Pour les entreprises : arretez d'experimenter sans mesurer. Definissez ce que vous voulez accomplir avant de choisir l'outil. Les 6% qui reussissent ne sont pas plus malins que les autres -- ils sont plus disciplinés.
Pour tout le monde : l'IA consomme des ressources reelles. De l'electricite, de l'eau, du carbone. On ne peut pas ignorer ca indefiniment sous pretexte que la technologie est "cool". La prochaine grande question de l'IA ne sera pas "que peut-elle faire ?" mais "a quel prix ?".
Trois ans apres ChatGPT, on sait une chose avec certitude : l'IA est la pour rester. La question n'est plus "est-ce que ca marche ?" C'est "est-ce qu'on sait s'en servir ?"
La reponse, pour l'instant, est : pas vraiment. Mais on apprend.
Ressources
- MIT - The GenAI Divide (2025) -- l'etude sur les 95% sans ROI mesurable
- McKinsey - The State of AI: Global Survey 2025 -- donnees d'adoption enterprise
- METR/arXiv (juillet 2025) -- etude montrant -19% de productivite pour les devs experimentes
- BlueOptima (fevrier 2026) -- +5.4% en conditions reelles sur 30K devs
- Deloitte - The State of AI in the Enterprise (2026) -- donnees de productivite et d'adoption
- Gary Marcus - Three years on (novembre 2025) -- critique informee du progres IA
- IEA - Energy and AI (2025) -- donnees sur la consommation energetique des data centers
- Anthropic - Observed Exposure Study (mars 2026) -- ecart entre exposition theorique et reelle
- StackOverflow Blog - AI Hype in 2025 Didn't Match Reality -- retrospective developpeur
- California Management Review - Open-Source AI (janvier 2026) -- analyse de la montee de l'open source IA