Passer au contenu principal
RM
Retour au blog

Un parcours concret pour les développeurs qui veulent comprendre et utiliser l'IA, sans bullshit ni PhD requis.

Radnoumane Mossabely9 min read
Parcours apprentissage IA en 8 semaines
IA
Apprentissage
LLM
Développeur
Guide
9 vues

TL;DR

  • Un parcours en 4 phases de 2 semaines : fondations, prompt engineering, RAG + tool use, agents
  • Chaque phase a un livrable concret que tu peux montrer
  • Tu n'as pas besoin d'un PhD, d'un GPU ou de 6 mois. Tu as besoin de coder.
  • Article 4/4 de la serie "Comprendre l'IA en 2026"

Tu n'es pas en retard. Tu es dev.

Tu sais coder. Tu sais lire de la doc, debugger un truc qui ne marche pas, livrer un produit. Tu as vu l'IA exploser depuis fin 2022. ChatGPT, Copilot, Claude, les agents, MCP, RAG. Chaque semaine un nouveau truc.

Et tu n'as pas eu le temps de plonger. Parce que tu avais des sprints, des deadlines, un vrai boulot. Ca fait trois ans que tu te dis "faut que je m'y mette".

Bonne nouvelle : c'est rattrapable. Et plus vite que tu ne le penses.

Pourquoi c'est rattrapable

Le stack IA pour un developpeur n'est pas aussi profond qu'on le croit. La majorite de ce que tu dois comprendre tient en une dizaine de concepts. Le reste, c'est de la pratique.

Ce qui rend l'IA intimidante, c'est le bruit. Les threads Twitter de 47 tweets sur un paper que personne n'a lu. Les frameworks qui changent tous les mois. Les "AI bros" qui font croire qu'ils comprennent tout depuis 2020.

La realite : si tu sais appeler une API REST, tu sais deja utiliser un LLM. Si tu sais gerer un projet Node ou Python, tu sais construire un agent. La courbe d'apprentissage est raide au debut, puis elle s'aplatit vite.

Voici un plan en 8 semaines. Deux heures par jour suffisent. Chaque phase produit quelque chose de concret.

Parcours d'apprentissage IA en 8 semaines

Semaines 1-2 : les fondations

Objectif : comprendre ce qu'est un LLM et comment lui parler.

Tu n'as pas besoin de comprendre les maths derriere les Transformers pour les utiliser (j'ai ecrit un article dedie sur le sujet). Mais tu dois saisir l'intuition. Un LLM predit le token suivant. Il ne "comprend" pas au sens humain. Il a ete entraine sur du texte, et il est tres bon pour generer du texte plausible.

Ce que tu fais :

  • Lis l'intro et la conclusion de "Attention Is All You Need" (le paper original des Transformers). Pas besoin de tout comprendre. Retiens l'idee du mecanisme d'attention.
  • Regarde "Let's build GPT" d'Andrej Karpathy sur YouTube. C'est long (2h), mais c'est la meilleure explication qui existe pour un dev.
  • Regarde la serie "Neural Networks" de 3Blue1Brown pour l'intuition visuelle.
  • Cree un compte API chez Anthropic ou OpenAI.
  • Fais ton premier appel API en Python ou TypeScript. Un simple POST avec un prompt, une reponse.
  • Joue avec la tokenization. Utilise le tokenizer d'OpenAI (tiktoken) pour voir comment le texte est decoupe. Ca t'evitera des surprises sur les couts et les limites de contexte.

Livrable : un script qui appelle un LLM et obtient une reponse structuree.

Semaines 3-4 : prompt engineering

Objectif : savoir structurer des prompts efficaces.

Le prompt engineering n'est pas du voodoo. C'est de l'ingenierie d'interface. Tu donnes des instructions claires a un systeme, et il les execute. Comme une spec, mais pour un LLM.

Ce que tu fais :

  • Ecris des system prompts. Comprends la difference entre system, user, et assistant messages.
  • Teste le few-shot prompting : donne 2-3 exemples dans ton prompt pour guider le format de sortie.
  • Apprends le chain-of-thought : demande au modele de raisonner etape par etape avant de repondre. La difference de qualite est enorme.
  • Compare Claude, GPT-4 et Gemini sur le meme probleme. Chaque modele a ses forces. Tu dois developper une intuition de quand utiliser lequel.
  • Decouvre le prompting structure : XML tags, markdown, instructions explicites sur le format de sortie.

Livrable : un outil CLI qui utilise un LLM avec un prompt structure pour resoudre un probleme reel. Par exemple : un outil qui analyse un fichier de logs et resume les erreurs, ou un outil qui genere des commits messages a partir d'un diff.

Semaines 5-6 : RAG et tool use

Objectif : faire un LLM qui utilise tes donnees et tes outils.

C'est la ou tu passes de "utilisateur de ChatGPT" a "developpeur IA". RAG (Retrieval-Augmented Generation) permet a un LLM de repondre en se basant sur tes documents. Le tool use (ou function calling) permet au LLM d'executer des actions.

Ce que tu fais :

  • Installe une vector database locale. ChromaDB est le plus simple pour commencer.
  • Indexe tes propres documents en embeddings. Un README, une doc technique, un wiki interne. Comprends ce qu'est un embedding : une representation numerique du sens d'un texte.
  • Construis un pipeline RAG basique : question utilisateur, recherche dans les embeddings, injection du contexte dans le prompt, reponse du LLM.
  • Implemente du function calling avec l'API Anthropic ou OpenAI. Donne au LLM la capacite d'appeler une fonction (chercher dans une base de donnees, envoyer un email, creer un ticket).
  • Comprends les limites : le RAG n'est pas magique. La qualite du chunking et du retrieval determine la qualite des reponses.

Livrable : un chatbot qui repond a des questions sur tes propres documents. Pas un chatbot generique. Un chatbot qui connait ta doc.

Semaines 7-8 : agents et MCP

Objectif : comprendre l'IA agentique.

Un agent, c'est un LLM qui peut raisonner, planifier et executer des actions en boucle. Il decide quoi faire, le fait, evalue le resultat, et recommence si necessaire. C'est le futur du dev IA, et c'est plus accessible que tu ne le crois.

Ce que tu fais :

  • Utilise Claude Code sur un vrai projet. Pas un todo app. Un vrai projet avec du vrai code. Observe comment il raisonne, decoupe les taches, utilise les outils.
  • Cree un agent simple avec le SDK Anthropic. Un agent qui peut chercher sur le web, lire des fichiers, et produire un rapport.
  • Decouvre MCP (Model Context Protocol). C'est un protocole ouvert qui permet aux LLM d'interagir avec des outils externes de maniere standardisee. Construis un serveur MCP basique qui expose une API ou un outil.
  • Teste un systeme multi-agent : deux agents qui collaborent sur une tache. Par exemple, un agent qui recherche et un agent qui redige.

Livrable : un agent qui accomplit une tache multi-etapes de bout en bout. Par exemple : un agent qui prend une issue GitHub, analyse le code concerne, propose un fix, et cree une PR.

Les erreurs a eviter

Ne pas essayer de tout comprendre avant de coder. Le piege classique du dev. Tu lis 15 articles sur les transformers, tu regardes 10 videos, et tu n'as toujours pas fait un seul appel API. Apprends en construisant. Les concepts s'ancrent quand tu les utilises.

Ne pas se perdre dans les frameworks. LangChain, LlamaIndex, CrewAI, AutoGen... Il y en a un nouveau chaque semaine. Comprends les concepts d'abord (RAG, agents, tool use), puis choisis un framework. Pas l'inverse.

Ne pas se comparer aux "AI bros" de Twitter. Survivorship bias. Tu vois ceux qui postent, pas les milliers qui galèrent en silence. La plupart des gens qui postent des threads sur l'IA decouvrent les concepts en meme temps que toi.

Ne pas croire qu'il faut un GPU monstrueux. Les APIs suffisent pour 95% des cas d'usage. Tu n'as pas besoin de faire tourner un modele en local pour apprendre. Si un jour tu veux faire du fine-tuning, tu loueras du compute. Pas maintenant.

Ne pas ignorer la securite. L'injection de prompt est reelle. Si tu construis un produit qui utilise un LLM, tu dois comprendre les risques : injection, exfiltration de donnees, hallucinations presentees comme des faits. C'est comme l'injection SQL : ca se previent, mais faut le savoir.

Apres les 8 semaines

Soyons honnetes : apres 8 semaines, tu n'es pas expert. Personne ne l'est en 8 semaines.

Mais tu comprends l'essentiel. Tu sais ce qu'est un LLM, comment lui parler, comment le connecter a tes donnees et a tes outils, et comment construire un agent. Tu as 4 projets concrets que tu peux montrer.

La suite depend de ce qui t'interesse :

  • Agents avances : orchestration, planification, memoire longue terme
  • RAG avance : reranking, hybrid search, chunking intelligent
  • Fine-tuning : adapter un modele a ton domaine specifique
  • Infra ML : deploiement, monitoring, observabilite des systemes IA
  • Securite IA : red teaming, guardrails, evaluation systematique

Choisis une direction. Creuse. Construis. Le plus important maintenant, c'est de ne pas t'arreter.

Ressources

Semaine 1-2 (Fondations):

Semaine 3-4 (Prompts):

Semaine 5-6 (RAG + Tools):

Semaine 7-8 (Agents + MCP):

Cette serie en 4 articles

Cet article est le dernier d'une serie de 4 pour comprendre l'IA en 2026 en tant que developpeur :

  1. Ce qui s'est passe en IA depuis ChatGPT : la frise chronologique 2022-2026
  2. RAG, MCP, function calling — le kit du dev en 2026 : les patterns concrets pour integrer les LLM
  3. Les agents IA ne sont pas du hype : quand le LLM planifie, raisonne et agit en autonomie
  4. Rattraper 3 ans d'IA en 8 semaines : le parcours concret (cet article)

Voir aussi : Comment fonctionnent les LLM -- l'architecture Transformer, les tokens, le mecanisme d'attention.

J'ai fait ce parcours. Ce blog documente le chemin. Si tu as des questions, retrouve-moi sur X @RadnouTech.

Partager: