Depuis fin 2024, un mot revient dans toutes les annonces des géants de la tech : « agents ». OpenAI, Google, Anthropic, Microsoft — tous orientent leurs feuilles de route vers l'IA agentique. Ce n'est pas un effet de mode. C'est un changement de paradigme dans la façon dont les LLM interagissent avec le monde réel.
Du chatbot à l'agent : la différence fondamentale
Un chatbot classique fonctionne en mode requête-réponse. Vous posez une question, il génère du texte. Point final. Il ne peut ni consulter votre CRM, ni envoyer un email, ni vérifier un stock, ni déclencher un workflow.
Un Agent IA va plus loin. Il reçoit un objectif, décompose cet objectif en sous-tâches, planifie un ordre d'exécution, utilise des outils externes (APIs, bases de données, navigateur web, fichiers), évalue ses résultats intermédiaires, et ajuste son plan si nécessaire. Le LLM n'est plus le produit final — il devient le cerveau d'un système qui agit.
Un exemple concret. Objectif : « Prépare le compte-rendu de la réunion de lundi et envoie-le à l'équipe. » L'agent va récupérer l'enregistrement ou les notes de la réunion, les résumer dans le format habituel de l'entreprise, identifier les participants, et envoyer l'email avec le compte-rendu en pièce jointe. Quatre outils, zéro intervention humaine entre les étapes.
Le function calling : donner des mains à l'IA
La brique technique qui rend les agents possibles s'appelle le Function Calling (ou Tool Use). Au lieu de répondre uniquement en texte, le LLM peut « décider » d'appeler une fonction externe.
Le mécanisme est simple. Le développeur décrit les outils disponibles (nom, description, paramètres) dans le System Prompt ou via une API dédiée. Quand le LLM juge qu'un outil est nécessaire pour répondre, il génère un appel structuré (JSON) avec les bons paramètres. Le système exécute la fonction et renvoie le résultat au LLM, qui l'intègre dans sa réponse ou décide d'appeler un autre outil.
C'est le LLM qui choisit quel outil utiliser, quand, et avec quels paramètres. Il « raisonne » sur l'utilisation des outils de la même façon qu'il raisonne sur le texte.
La boucle agentique : raisonner, agir, observer
Le pattern fondamental des agents IA est la boucle ReAct (Reasoning + Acting). À chaque étape, l'agent suit trois phases.
Raisonner : « Que dois-je faire pour atteindre l'objectif ? Quelle est la prochaine étape ? ». Agir : exécuter une action (appeler un outil, générer du contenu, interroger une base). Observer : analyser le résultat de l'action et décider si l'objectif est atteint ou s'il faut continuer.
Cette boucle tourne jusqu'à ce que l'agent considère la tâche terminée ou qu'une limite (nombre d'itérations, timeout, budget de tokens) soit atteinte. C'est cette capacité d'itération autonome qui distingue un agent d'un simple chatbot augmenté.
Architectures multi-agents
Pour les tâches complexes, un seul agent ne suffit pas. Les architectures multi-agents répartissent le travail entre plusieurs agents spécialisés, coordonnés par un agent orchestrateur.
Un système de support client multi-agent pourrait comprendre un agent de triage qui analyse la demande et la route, un agent technique qui interroge la documentation, un agent commercial qui vérifie le compte client, et un agent rédacteur qui formule la réponse finale. Chaque agent a son propre System Prompt, ses propres outils, et sa propre logique.
Les frameworks comme LangChain, LangGraph, CrewAI, AutoGen ou le Swarm d'OpenAI fournissent les briques pour orchestrer ces architectures. Le protocole MCP (Model Context Protocol) d'Anthropic standardise la connexion entre LLM et outils externes.
Les risques de l'autonomie
Plus un agent est autonome, plus les risques augmentent. Un agent qui peut envoyer des emails, modifier des bases de données ou passer des commandes peut aussi faire des erreurs aux conséquences réelles.
La gestion de ces risques repose sur plusieurs garde-fous. Le HITL (Human-in-the-Loop) impose une validation humaine avant les actions critiques — l'agent prépare, l'humain valide. Les permissions granulaires limitent les outils accessibles et les actions autorisées. La traçabilité complète enregistre chaque étape du raisonnement et chaque appel d'outil pour permettre l'audit.
La règle pragmatique : commencez par des agents supervisés (l'humain reste dans la boucle) avant de leur accorder plus d'autonomie progressivement, à mesure que la confiance se construit.
Les cas d'usage concrets en entreprise
Les agents IA ne sont pas un concept théorique — ils sont déjà déployés. L'assistance client de niveau 1 traite les demandes courantes en interrogeant le CRM et la base de connaissances. L'automatisation comptable rapproche les factures, vérifie les données et prépare les écritures. Le monitoring IT détecte les anomalies, diagnostique la cause probable et déclenche les correctifs. La veille concurrentielle scrape les sources, synthétise les changements et alerte les équipes concernées.
Le point commun : des tâches répétitives, multi-étapes, impliquant plusieurs systèmes, où l'agent remplace des heures de travail manuel par des minutes d'exécution automatisée.
L'avenir : les agents comme interface
La tendance de fond est claire. L'interface de demain ne sera plus un formulaire, un dashboard ou un bouton — ce sera une conversation avec un agent capable d'exécuter n'importe quelle action dans vos systèmes. Le LLM devient l'interface universelle entre l'humain et la machine.
On passe de « l'IA qui parle » à « l'IA qui fait ».