Passer au contenu principal
RM
Retour au blog

AI SDK 6, Rolling Releases, BotID, Microfrontends — Vercel définit le cloud de demain.

Radnoumane Mossabely8 min read
Vercel Ship 2025
Vercel
AI SDK
Next.js
Cloud
Frontend
0 vues

TL;DR

  • Vercel Ship decembre 2025 pose les bases du "AI Cloud" : une plateforme qui integre l'IA dans chaque couche du deploiement.
  • AI SDK 6 beta introduit des abstractions pour agents IA : boucles d'execution, gestion d'etat, orchestration multi-modeles.
  • Rolling Releases permettent des deploiements graduels avec rollback automatique -- fini le "tout ou rien".
  • BotID est un CAPTCHA invisible qui detecte les bots IA sans friction utilisateur.
  • Microfrontends et l'acquisition de NuxtLabs montrent que Vercel mise sur le multi-framework.
  • Vercel n'est plus un hebergeur. C'est une plateforme d'execution pour applications IA.

Vercel Ship : plus qu'une conference produit

Chaque annee, Vercel organise Ship, sa conference produit phare. En general, c'est l'occasion d'annoncer des ameliorations a Next.js et a la plateforme de deploiement. Cette edition de decembre 2025 est differente. Le message est explicite : Vercel se repositionne comme un "AI Cloud".

Ca peut sembler du marketing -- et en partie, ca l'est. Mais les annonces techniques sont concretes, et elles dessinent une vision coherente de ce que sera le deploiement d'applications dans les deux prochaines annees.

AI SDK 6 beta : des agents en production

Ce que c'est

AI SDK est le toolkit de Vercel pour integrer des LLM dans des apps frontend et backend. La version 5 permettait de streamer des reponses et de gerer des conversations. La version 6 va beaucoup plus loin : elle introduit des primitives pour construire des agents IA.

Les nouvelles abstractions

Agent Loop. C'est le pattern fondamental : un LLM qui recoit un objectif, execute des actions, observe les resultats, et decide de la prochaine etape. AI SDK 6 fournit un createAgent() qui gere cette boucle nativement.

hljs typescript
import { createAgent } from 'ai/agent';
import { openai } from '@ai-sdk/openai';

const agent = createAgent({
  model: openai('gpt-4o'),
  tools: [searchTool, calculatorTool, databaseTool],
  maxSteps: 10,
  onStepComplete: (step) => {
    console.log(`Step ${step.number}: ${step.toolCall?.name}`);
  },
});

const result = await agent.run(
  "Trouve les 5 produits les plus vendus ce mois-ci et genere un rapport"
);

State Management. Les agents ont besoin de memoire entre les etapes. AI SDK 6 introduit un systeme de state type qui persiste entre les appels d'outils. Plus besoin de bricoler du localStorage ou du Redis pour maintenir le contexte.

Multi-Model Orchestration. Tu peux maintenant router differentes taches vers differents modeles dans un meme workflow. Un modele rapide pour la classification, un modele puissant pour la generation, un modele specialise pour le code. Le routage se fait par configuration, pas par code.

Ce que ca change

Jusqu'ici, construire un agent IA en JavaScript, c'etait assembler des briques disparates : LangChain pour l'orchestration, un framework pour le state, du code custom pour la boucle. AI SDK 6 propose un package unifie, type-safe, avec du streaming natif et une integration Vercel.

C'est le meme mouvement que Next.js a fait pour le rendu web : prendre un pattern emergent (les agents), le standardiser, et le rendre accessible a tout l'ecosysteme JavaScript.

Fluid Active CPU pricing

Le probleme du serverless

Le modele serverless classique, c'est du "pay per invocation". Chaque requete demarre un environnement, execute du code, puis s'eteint. Le probleme : les cold starts, le gaspillage de ressources entre les requetes, et un pricing imprevisible pour les workloads IA qui sont longs et gourmands en CPU.

La solution Vercel

Le Fluid Active CPU pricing facture uniquement le temps CPU reel consomme par ton application. Pas de cold start facture, pas de temps d'attente facture, pas de memoire inactive facturee. C'est un modele "pay for what you compute", pas "pay for what you allocate".

Pour les applications IA -- ou une requete peut prendre 30 secondes de traitement intensif -- c'est un changement significatif. Tu paies pour les 30 secondes de CPU, pas pour les 60 secondes de function duration.

Mon avis

C'est du bon pricing pour les workloads IA. Mais la transparence reste a verifier. "Active CPU" ca veut dire quoi exactement ? Si ton code attend une reponse d'une API externe, c'est du CPU "actif" ou "inactif" ? Les details d'implementation vont compter. Attends les premiers retours de production avant de migrer tes workloads critiques.

Rolling Releases : le deploiement graduel

C'est peut-etre la feature la plus attendue par les equipes en production. Jusqu'ici, deployer sur Vercel, c'etait du "all or nothing" : tu pushes, tout le trafic bascule sur la nouvelle version.

Rolling Releases permet de deployer graduellement :

  1. Canary : 1% du trafic sur la nouvelle version
  2. Monitoring : metriques automatiques (error rate, latence, Core Web Vitals)
  3. Progression : 10%, 50%, 100% si tout va bien
  4. Rollback automatique : retour instantane si les metriques se degradent
hljs json
{
  "rolling": {
    "enabled": true,
    "stages": [
      { "percent": 1, "duration": "5m" },
      { "percent": 10, "duration": "15m" },
      { "percent": 50, "duration": "30m" },
      { "percent": 100 }
    ],
    "rollback": {
      "errorRateThreshold": 0.01,
      "latencyP99Threshold": 2000
    }
  }
}

C'est ce que les grandes equipes faisaient deja avec des outils comme LaunchDarkly ou des configurations Kubernetes maison. Vercel le rend accessible en un fichier de config. Pour les equipes qui deployent plusieurs fois par jour, c'est un game changer en termes de confiance.

BotID : le CAPTCHA invisible

Le probleme

Les bots IA sont partout. Ils scrappent, ils testent, ils genèrent du trafic artificiel. Les CAPTCHAs traditionnels sont penibles pour les vrais utilisateurs et de moins en moins efficaces contre les bots modernes.

La solution

BotID detecte les bots sans aucune interaction utilisateur. Pas de puzzle, pas de "selectionnez les feux de circulation", pas de checkbox. Le systeme analyse les patterns de comportement (mouvement souris, patterns de navigation, fingerprinting) pour classifier le trafic.

hljs typescript
import { botId } from '@vercel/bot-id';

export async function middleware(request: NextRequest) {
  const classification = await botId(request);

  if (classification.isBot && classification.confidence > 0.95) {
    return new Response('Access denied', { status: 403 });
  }

  // Pour les bots "amicaux" (Googlebot, etc.)
  if (classification.isBot && classification.isKnownCrawler) {
    // Laisser passer avec rate limiting
  }
}

C'est un produit malin : il repond a un vrai besoin (proteger les apps contre le scraping IA), il utilise les donnees de trafic que Vercel a deja (des milliards de requetes par jour), et il cree un avantage competitif pour la plateforme. Si tu veux BotID, tu restes sur Vercel.

Microfrontends et l'acquisition de NuxtLabs

Microfrontends natifs

Vercel supporte desormais les microfrontends en natif : plusieurs applications frontend (React, Vue, Svelte) deployees comme un seul site, avec du routing au niveau de la plateforme.

hljs json
{
  "microfrontends": {
    "apps": {
      "/": { "framework": "nextjs", "directory": "apps/main" },
      "/blog": { "framework": "nuxt", "directory": "apps/blog" },
      "/docs": { "framework": "sveltekit", "directory": "apps/docs" }
    },
    "shared": {
      "header": { "directory": "packages/header" },
      "footer": { "directory": "packages/footer" }
    }
  }
}

C'est une reponse directe aux grandes organisations qui ont des equipes differentes sur des frameworks differents. Au lieu de forcer tout le monde sur Next.js, Vercel dit : "venez comme vous etes".

L'acquisition de NuxtLabs

L'acquisition de NuxtLabs (l'equipe derriere Nuxt.js et Nitro) confirme cette strategie multi-framework. Vercel n'est plus une "entreprise Next.js". C'est une plateforme d'execution qui supporte tous les frameworks JavaScript modernes.

Le signal strategique est important : Vercel passe de "construis ton app avec notre framework" a "deploie ton app, quel que soit ton framework, sur notre infra". C'est un changement de modele economique -- de product company a platform company.

Ce que Vercel est en train de devenir

Si tu prends du recul sur toutes ces annonces, le pattern est clair.

Avant : Vercel = "le meilleur endroit pour deployer une app Next.js" Maintenant : Vercel = "la plateforme d'execution pour applications IA, multi-framework, avec deploiement graduel"

C'est un repositionnement ambitieux. Les risques sont reels :

  • Complexite : plus de features = plus de surface a maintenir, plus de bugs potentiels
  • Dependance : AI SDK, BotID, Rolling Releases... chaque feature te lie un peu plus a la plateforme
  • Prix : le Fluid CPU pricing peut etre moins cher ou plus cher selon ton workload -- fais le calcul

Mais la vision est coherente. Le cloud de demain ne separe pas "hebergement" et "IA". Les applications modernes sont des applications IA. Et Vercel se positionne pour etre la plateforme sur laquelle elles tournent.

Mon verdict

Vercel Ship 2025 est la conference la plus ambitieuse de Vercel. Les annonces sont concretes, techniques, et repondent a des vrais besoins. AI SDK 6 est le plus gros changement : si l'abstraction agent tient ses promesses, ca va simplifier la vie de beaucoup de devs JavaScript.

Rolling Releases et BotID sont des features matures qui auraient du exister depuis longtemps. Mieux vaut tard que jamais.

L'acquisition de NuxtLabs est le signal le plus fort : Vercel joue desormais sur le terrain des plateformes, pas des frameworks. C'est un bon signe pour l'ecosysteme -- et un signal d'alerte pour les concurrents (Cloudflare, Netlify, Fly.io).

Pour les devs : surveille AI SDK 6. Teste Rolling Releases si tu deploies souvent. Et garde un oeil sur le pricing -- c'est la ou les promesses cloud se verifient toujours en dernier.

Ressources

Partager: