Qu'est-ce qu'un agent IA ? Définition, architecture et premiers exemples

Qu'est-ce qu'un agent IA ? Définition, architecture, cycle ReAct, multi-agents et agentic RAG. Guide clair pour décideurs.

Silhouette humanoïde lumineuse bleue et or orchestrant des outils flottants (marteau, engrenages, clés) autour d'un plateau circulaire holographique, sur fond sombre étoilé
L'agent IA : un orchestrateur qui décide quand et comment utiliser ses outils
toc Sommaire
Résumer avec l'IA

Article 1/4 de la série Agents IA — Comment créer un agent IA ? (à venir) · Agents IA dans l'équipe (à venir) · Agents IA face aux organisations (à venir)

ChatGPT répond à vos questions. Un agent IA, lui, accomplit des missions. Derrière ce changement de vocabulaire se joue une rupture technique qui va redéfinir ce que l'on attend d'un logiciel — et de ceux qui les pilotent.


"C'est quoi la différence entre un agent IA et une skill ?"

La question a été posée vendredi après-midi lors d'un point en équipe. Pourquoi on parle de "skills" dans Claude [NdR : Claude Code] ? Pourquoi on parle d'agents partout ailleurs ? Comment l'un fonctionne avec l'autre ?

C'est une excellente question. Et le fait qu'il soit difficile d'y répondre en trente secondes en dit long sur l'état du vocabulaire de l'IA en 2026.

La réponse tient dans une métaphore simple : l'agent est le menuisier, la skill est son marteau.

Une skill (ou "outil", ou "tool") est une capacité d'action spécifique et délimitée. C'est un mécanisme qui permet au modèle d'IA d'interagir avec son environnement : lire un fichier, exécuter une recherche web ou lancer une requête SQL.

Un agent, en revanche, est le système autonome qui décide quand et comment utiliser ces skills. Il reçoit un objectif à atteindre, planifie les étapes nécessaires, et appelle la bonne skill au bon moment pour avancer.

L'exemple de Claude Code illustre bien cette complexité. L'architecture y empile quatre niveaux : un agent orchestrateur principal, des skills (programmes d'action complexes), des sous-agents spécialisés que ces skills peuvent mobiliser, et des tools atomiques (lire un fichier, lancer une recherche). Ce qu'un autre éditeur appellerait "agent", Claude Code l'appelle tantôt skill, tantôt sous-agent — selon le niveau d'autonomie accordé.

Même si le secteur produit encore du jargon à cadence industrielle — ce qu'un éditeur appelle tool, un autre l'appelle skill — ce duo « cerveau qui décide / bras qui exécute » reste le principe de base. Vous retrouverez tout ce vocabulaire détaillé dans le glossaire du site. Mais pour l'heure, voyons justement de quoi est fait ce "cerveau" sous le capot.


Définition : ce qui fait qu'un système devient un "agent"

Un agent IA est un système logiciel capable de percevoir son environnement, de raisonner sur un objectif et d'exécuter des actions de manière autonome — en boucle, jusqu'à atteindre ce but.

Trois mots comptent dans cette définition : percevoir, raisonner, agir. Ce triptyque distingue fondamentalement un agent d'un simple LLM. ChatGPT, Claude ou Gemini pris dans leur usage de base sont des systèmes de question-réponse : vous entrez un prompt, vous obtenez une sortie, l'interaction s'arrête. Un agent, lui, orchestre plusieurs étapes, décide de ses propres actions intermédiaires et corrige sa trajectoire en fonction des résultats obtenus.

La distinction tient à un mot : autonomie. Un LLM répond. Un agent décide.

En termes techniques, pour passer de ce triptyque conceptuel à un agent fonctionnel, on construit le système autour d'un LLM (qui joue le rôle de "cerveau") en lui ajoutant quatre briques logicielles :

1. La mémoire (pour percevoir sur la durée) — stockage des échanges passés (mémoire à court terme) et des connaissances persistantes (mémoire à long terme, souvent vectorielle). Sans mémoire, un agent oublie tout entre deux exécutions et ne peut pas capitaliser sur ses actions passées.

2. La planification (pour raisonner) — capacité à décomposer un objectif complexe en sous-tâches séquentielles ou parallèles. L'agent ne reçoit pas un script à suivre : il construit lui-même le plan d'action en fonction du contexte. Sans planification, il faut scripter chaque enchaînement à la main — et tout casse dès que le contexte change.

3. Les outils ou tools (pour pouvoir agir) — fonctions que l'agent peut appeler : API externe, recherche web, exécution de code, lecture/écriture de fichiers, requêtes SQL… C'est le bras opérationnel. Un agent sans tools est un cerveau sans bras.

4. L'action (pour interagir avec le réel) — exécution effective des sous-tâches planifiées via les outils mis à disposition. C'est la couche qui transforme un raisonnement en résultat concret : un email envoyé, un fichier créé, un CRM mis à jour.


Agent IA vs chatbot : où se situe la vraie rupture

La confusion entre les deux coûte cher — en attentes mal calibrées, en déceptions, et parfois en projets abandonnés après des résultats décevants.

Un chatbot — même sophistiqué, même basé sur un LLM — est fondamentalement réactif et sans état (stateless) : chaque échange est traité indépendamment. Il ne prend aucune initiative, ne consulte aucun système externe sauf configuration explicite, et ne mémorise rien entre deux sessions.

Un agent IA est proactif et avec état (stateful) : il maintient un contexte entre les étapes, décide lui-même de ses prochaines actions, et itère jusqu'à réussir — ou échouer de manière contrôlée. Confié à l'objectif "Prépare un brief concurrentiel sur nos trois principaux fournisseurs", il enchaîne de manière autonome : recherche web → extraction de données → structuration → rédaction → export PDF — sans intervention humaine entre chaque étape.

Critère Chatbot Agent IA
Mode Réactif, tour par tour Proactif, multi-étapes
État Stateless (ou mémoire limitée) Stateful, persistant
Outils externes Rare ou absent Natif
Planification Aucune Autonome
Gestion d'erreur Pas de retry automatique Retry, bifurcation, escalade
Intervention humaine À chaque échange Optionnelle (human in the loop)

La frontière n'est pas toujours nette dans les produits commerciaux — Claude, Gemini et GPT-4 peuvent adopter un comportement agentique selon leur configuration — mais la distinction architecturale reste valide.


Comment ça fonctionne : le cycle ReAct

Le fonctionnement d'un agent repose sur une boucle itérative connue sous le nom de ReAct (Reasoning + Acting), formalisée par Yao et al. en 2022 et devenue la base de la plupart des frameworks modernes.

1. Percevoir — L'agent reçoit un objectif et observe l'état actuel de son environnement : données disponibles, historique des actions passées, résultats des étapes précédentes.

2. Raisonner — Le LLM analyse la situation et produit un plan d'action : quelle sous-tâche prioriser, quel outil appeler, comment formuler la requête. C'est ici que la qualité du modèle sous-jacent fait la différence.

3. Agir — L'agent exécute l'action choisie — appel API, recherche web, script Python, lecture de fichier — et attend le résultat. Cette étape est la seule qui produit un effet dans le monde réel.

4. Observer — L'agent analyse le résultat, le compare à l'objectif, et décide : continuer (nouvelle itération), corriger (changer de stratégie) ou terminer (objectif atteint ou erreur irrécupérable).

Ce cycle peut s'enchaîner des dizaines de fois pour une seule mission complexe. C'est exactement ce comportement "en boucle" que couvre le terme agentic AI — une IA qui agit, pas une IA qui répond.


Les architectures multi-agents : diviser pour mieux régner

Un agent seul traite efficacement des tâches séquentielles. Pour les workflows complexes — ceux qui nécessitent des compétences variées ou des traitements en parallèle — on orchestre plusieurs agents spécialisés : c'est l'architecture multi-agents.

Le pattern fondamental oppose deux rôles complémentaires.

L'orchestrateur est l'agent "chef de projet" : il reçoit l'objectif global, le décompose en sous-tâches, les délègue aux bons agents spécialisés et agrège les résultats. C'est le seul à interagir avec l'utilisateur final. Il ne sait pas forcément comment faire les choses — il sait qui les fait et dans quel ordre.

Les sous-agents sont les agents experts : chacun maîtrise un domaine précis — recherche web, analyse de données, rédaction, validation réglementaire, appel d'API spécifique. Ils reçoivent une sous-tâche, l'exécutent et retournent un résultat structuré à l'orchestrateur.

Les architectures plus avancées ajoutent le parallélisme (plusieurs sous-agents traitent simultanément des tâches indépendantes) et le critic pattern (un agent évalue la sortie d'un autre avant validation).

Sur une plateforme de contenu, l'architecture pourrait déployer cinq agents spécialisés : recherche SEO (Ahrefs/Rankplorer pour le français), recherche factuelle avec filtrage de domaines (Perplexity API ou Brave API), rédaction (Mistral Large), vérification anti-hallucinations (Mistral Magistral) et formatage final. L'orchestrateur coordonne la chaîne selon le type de contenu à produire. Sur un test interne de 50 articles, le pipeline a produit une qualité éditoriale jugée publiable sans reprise majeure, et aucune hallucination détectée lors de la relecture humaine sur les données réglementaires et les sources citées.


Agentic RAG : quand la base de connaissance devient active

Le RAG classique fonctionne en deux temps : l'agent consulte une base de documents, récupère les passages pertinents, les injecte dans le contexte du LLM qui génère sa réponse. C'est efficace — mais linéaire et rigide.

L'agentic RAG ajoute de l'intelligence à la phase de récupération : l'agent décide comment interroger la base (reformulation de requête, requêtes parallèles), si les résultats sont suffisants, et quand il faut compléter avec une source externe. La récupération devient une action parmi d'autres dans le cycle ReAct, pas une étape fixe en amont.

Concrètement :

  • RAG classique : question → recherche vectorielle unique → réponse
  • Agentic RAG : question → planification → recherche 1 → évaluation → si insuffisant : reformulation + recherche 2 → éventuellement recherche web → synthèse → réponse

La qualité sur les questions complexes ou ambiguës progresse nettement — au prix d'une latence plus élevée et d'une infrastructure plus complexe.


Trois exemples pour ancrer le concept

Veille réglementaire automatisée — Chaque matin, un analyste ouvre le Journal Officiel, parcourt les circulaires ministérielles, croise avec ses sources sectorielles et prie pour ne rien rater. Deux heures plus tard, il a un résumé — s'il n'a pas été interrompu. Un agent fait la même chose en quelques minutes : il surveille quotidiennement ces sources, produit un résumé structuré dès qu'une publication correspond à des critères prédéfinis, et l'envoie au bon interlocuteur. Le temps restant sert à la relecture et au passage à l'action.

Production de contenu SEO à l'échelle — Manuellement, un rédacteur analyse les mots-clés, cherche les sources, rédige, vérifie ses faits et formate le tout. Résultat : deux à trois contenus par jour, dans le meilleur des cas. Un agent enchaîne ces mêmes étapes — données de positionnement, sources factuelles, rédaction, vérification, formatage HTML — et traite plusieurs dizaines de contenus à l'heure. Nuance importante : Google dévalorise les contenus générés en masse sans valeur ajoutée éditoriale. L'agent accélère la production, mais sans relecture humaine et sans angle original, le trafic organique finit par stagner voire reculer.

Qualification de leads B2B — Un nouveau contact arrive dans le CRM. Le commercial ouvre LinkedIn, Societe.com, cherche les appels d'offres en cours, estime le budget DSI… Vingt minutes par lead — avant même de décrocher le téléphone. Un agent fait ce travail en quelques secondes : il analyse le contact entrant, recherche les informations publiques (taille, budget DSI, communications récentes, appels d'offres en cours), évalue le fit avec les critères de qualification et enrichit le CRM avec une fiche structurée prête à l'emploi.

Dans les trois cas, le point commun est identique : une mission définie → un cycle ReAct → des outils réels → un résultat livré sans intervention humaine à chaque étape.


Ce que cet article ne couvre pas — et pourquoi

Cet article répond à une question précise : qu'est-ce qu'un agent IA ? Il ne traite pas intentionnellement des frameworks pour en construire un, de leur déploiement dans les équipes, ni de leur impact sur les organisations. Ces sujets méritent chacun leur propre développement.

La série complète :

  • Article 1 (celui-ci) — Qu'est-ce qu'un agent IA ? Définition, architecture, exemples
  • Article 2 — Comment créer un agent IA ? Frameworks, étapes et pièges à éviter (à venir)
  • Article 3 — Agents IA dans l'équipe : cas d'usage concrets et premiers déploiements (à venir)
  • Article 4 — Agents IA face aux organisations : gouvernance, autonomie et questions stratégiques (à venir)

L'article 2 entrera dans le concret : comment construire un agent, quels frameworks choisir, et les pièges à éviter. Pour le recevoir dès sa publication, abonnez-vous au flux RSS ou suivez-moi sur LinkedIn.

Romain Delfosse
Romain Delfosse Digital Governance & Platform Strategy