Sections

“Ils savent percevoir, raisonner, agir et s’améliorer seuls” : les agents IA entrent en scène, bien plus puissants que ChatGPT


Ils promettent de planifier vos vacances, écrire du code, analyser un bilan comptable avant même que vous n’ouvriez le fichier. Ces “agents IA”, cousins dopés aux grands modèles de langage, seraient la prochaine étape de l’informatique. Plongée dans un phénomène aussi exaltant que fragile.

Publié le 29/05/25 à 07h00
© Shutterstock / Stock-Asso - Agent IA

En résumé
Les agents IA autonomes arrivent, transformant notre quotidien : Des logiciels intelligents comme Lucie gèrent emails, achats et déplacements sans intervention humaine.
Derrière ces agents, une technologie issue de décennies de recherche : De Turing à GPT-4, l’intelligence artificielle progresse, couplant perception, raisonnement et action pour accomplir des tâches complexes.
Promesses enthousiasmantes, mais obstacles encore nombreux : Fiabilité, consommation énergétique et adaptation du web restent des défis majeurs pour l’avènement de ces assistants numériques.
7h02, un mardi de mai 2027… Votre alarme se déclenche, mais vous n’avez plus besoin de vérifier vos emails. Un programme a déjà réservé vos billets de train, rédigé un mémo pour votre patron et lancé la commande d’épicerie. À l'œuvre, l’agent IA que vous avez baptisé Lucie. Derrière le tour de magie, celle-ci découpe ses objectifs en micro-tâches, s’auto-alimente en requêtes, consulte des bases ouvertes, puis agit dans votre dos.
Si cette description ressemble un peu à de la science-fiction, les pontes de l’intelligence artificielle nous promettent pourtant que l’avènement des agents IA est imminent. Nous vous avions rapporté il y a quelques semaines une démo d’un tel agent à l’œuvre dans le navigateur Opera. Évidemment, Google, OpenAI et les autres commencent aussi à avancer leurs pions.
Publicité, votre contenu continue ci-dessous
Mais alors même que cet article se trouvait en relecture, prêt à être publié, Opera a dégainé Opera Neon, le tout premier navigateur grand public, qui repose sur les capacités agentiques que nous allons vous détailler dans les lignes qui suivent.
Une idée qui remonte aux années 1950
La perspective d’entités artificielles capables d’agir de manière autonome n’est cependant pas foncièrement nouvelle. Ses racines plongent en effet profondément dans l’histoire de l’informatique. Dès les années 1950, des pionniers comme Alan Turing s’interrogeaient sur la capacité des machines à “penser”. La conférence de Dartmouth en 1956 a officiellement baptisé le domaine de “l’intelligence artificielle”, jetant ses bases conceptuelles. Puis les années 1980 et 1990 ont vu l’émergence des premiers systèmes multi-agents (SMA), conçus pour des tâches de simulation et de planification dans des environnements contrôlés.
Publicité, votre contenu continue ci-dessous
Citons aussi des programmes comme ELIZA (1966), un des premiers chatbots simulant un psychothérapeute, ou PARRY qui mimait un paranoïaque, puis A.L.I.C.E. dans les années 1990, qui préfigurait déjà de l’interaction homme-machine. Néanmoins, il aura fallu attendre l’essor des grands modèles de langage (LLM) pour transformer la théorie en lignes de code réelles, avec notamment AutoGPT, le projet open source qui a fait exploser les compteurs GitHub en avril 2023.
Opera Browser Operator, un agent IA pour automatiser les tâches en ligne.
© Opera
Des knowbots des années 1990 aux boucles de réflexion d’AutoGPT
Le mot agent vient d’une branche de l’IA qui, dès les années 1990, imaginait des logiciels autonomes parcourant le web pour extraire ou filtrer de l’information. À l’époque, les pionniers parlent de software agents. Ceux-ci s’appuient sur des protocoles rudimentaires et l’idée d’Agent-Oriented Programming, sorte de programmation objet appliquée aux comportements intelligents.
Ces premiers avatars annonçaient les robots d’indexation (crawlers) et les systèmes de recommandation. Au tournant des années 2000, des expérimentations en robotique ou en finances ont élargi le champ, sans pour autant toucher le grand public. Il faudra l’arrivée de GPT-3 (2020), puis GPT-4 (2023) pour qu’une nouvelle génération de développeurs ressorte le terme et le couple à des modèles génératifs massifs. L’agent devient alors une “boîte à outils” qui se parle à elle-même pour accomplir une mission.
© Shutterstock / Dave Hoeek
Qu’est-ce qu’un agent IA ?
Pour bien saisir la portée du phénomène, il est essentiel de définir précisément ce qu’est un agent IA. Expliqué simplement, c'est un système logiciel qui utilise l’intelligence artificielle pour atteindre des objectifs et effectuer des tâches au nom d’utilisateurs ou d’autres systèmes. Plus en détail, il s’agit d’une entité logicielle capable de percevoir son environnement, qu’il soit numérique comme une page web, ou physique via des capteurs. Elle sait traiter ces informations, prendre des décisions de manière autonome et entreprendre des actions concrètes pour atteindre des objectifs spécifiques qui lui ont été assignés.
Publicité, votre contenu continue ci-dessous
Et puisque nous en sommes à définir les agents IA, sachez aussi que plusieurs caractéristiques fondamentales les distinguent d’un programme informatique classique ou d’un modèle de langage.
Autonomie
C’est la pierre angulaire, car un agent IA peut opérer et prendre des initiatives sans intervention humaine constante pour réaliser ses buts.
Perception
L'agent collecte des données sur son environnement via divers canaux : capteurs physiques, flux de données numériques, interfaces de programmation (API), entrées textuelles, visuelles ou auditives.
Raisonnement, puis prise de décision
L’agent analyse les informations recueillies dans la phase de perception, puis planifie la marche à suivre pour atteindre ses objectifs, qui tendent tous évidemment vers la complétion de la tâche soumise par l’utilisateur.
Action
Il exécute les tâches décidées. Cela peut aller de la simple réponse à une question, à la navigation en toute autonomie sur le web en passant par la manipulation de logiciels, ou même le contrôle de dispositifs physiques.
Apprentissage et adaptabilité
De nombreux agents IA sont conçus pour s’améliorer avec le temps en tirant des leçons de leurs expériences passées et des retours obtenus, affinant ainsi leurs réponses et comportements.
Agent IA vs LLM
Autre distinction importante pour ne pas tout confondre, celle entre un agent IA et un grand modèle de langage (LLM). Ce dernier, popularisé par des chatbots comme ChatGPT, se montre certes capable de tenir des conversations, résumer des documents ou rédiger des contenus de manière souvent bluffante. Cependant, un LLM, aussi avancé soit-il, reste fondamentalement passif. Il répond à des instructions (des prompts), mais n’agit pas de lui-même pour accomplir des tâches complexes multi-étapes dans le monde réel ou numérique.
Un agent est donc un système orienté vers l’action, un faiseur numérique, là où un LLM est avant tout un diseur
L’agent IA, lui, va plus loin. Il utilise bien sûr un LLM comme composant central, son “cerveau” pour le raisonnement, la compréhension du langage et la planification. Il y ajoute cependant des capacités fondamentales, à savoir une mémoire pour contextualiser les interactions sur la durée, la capacité d’utiliser des outils externes (naviguer sur Internet, interagir avec des API d’autres logiciels, accéder à des bases de données). Surtout, il possède la faculté d’exécuter des séquences d’actions pour atteindre un but défini. Un agent est donc un système orienté vers l’action, un “faiseur” numérique, là où un LLM est avant tout un “diseur”.
Publicité, votre contenu continue ci-dessous
Un agent IA n’est pas seulement un gros modèle de texte. Il contient un corps (le LLM), une mémoire pour stocker le contexte, un planificateur qui découpe l’objectif et un exécuteur capable d’appeler des API ou de lancer du code. La communauté open source a formalisé ce schéma sous forme de “boucle de réflexion” (think-act-observe) illustrée par BabyAGI, puis par LangGraph, qui expose la structure comme un graphe transparent. Yann LeCun soutient de son côté que seules des architectures modulaires, capables d’apprendre continuellement et de raisonner dans l’espace, pourront vraiment mériter l’étiquette “autonome”. En clair, l’agent est un système composite, le LLM n’est que l’étincelle linguistique.
© Shutterstock / tadamichi
Des promesses assez folles
Bill Gates voit dans ces agents “le futur de l’informatique personnelle”, un assistant qui connaîtrait mieux l’utilisateur que son moteur de recherche favori. Google DeepMind, avec son prototype Project Astra, montre un agent visuel capable de reconnaître un objet perdu sur un bureau et de fournir des explications à la volée. Microsoft, de son côté, travaille à une “usine à agents” destinée aux entreprises — Satya Nadella veut standardiser la création de milliers de micro-spécialistes. Dans le sillage, Sam Altman parie sur des “agents de niveau 3” qui prendront 95 % des tâches des agences marketing d’ici cinq ans. Le monde académique n’est pas en reste. Ainsi, le benchmark PaperBench montre déjà des agents capables de reproduire la méthodologie de 20 articles ICML 2024, code compris.
Des risques de désillusion bien réels
Pour l’instant, les agents butent encore sur la fiabilité. Les hallucinations — ces affirmations inventées — ruinent des chaînes complètes d’automatisation. Des chercheurs ont tenté de réduire le phénomène en orchestrant plusieurs agents spécialisés, sans le supprimer totalement. Une équipe d’Oxford a même publié une méthode permettant de prédire les moments où un modèle risque de fabuler.
Publicité, votre contenu continue ci-dessous
Les coûts ne sont pas anodins : chaque appel GPT-4o consomme des joules et des dollars, dans un marché du calcul que McKinsey chiffre déjà à 7000 milliards de dollars pour cette décennie. L’ACM rappelle que l’entraînement d’un LLM comme GPT-3 a dépensé plus d’un million de kilowattheures, soit la consommation d’un long-courrier transatlantique. Quant aux emplois, Ethan Mollick, professeur à la Wharton School, prédit une réorganisation plutôt qu’une disparition : “L’agent va d’abord amplifier les travailleurs qui savent le piloter”, assure-t-il dans un podcast IBM.
Un web encore mal adapté
Pour agir, un agent ruse : il contourne les Captcha, scrute des pages truffées de publicités et reconstruit la structure d’un site à chaque mise à jour. Kevin Scott, directeur technique de Microsoft, plaide pour des standards qui donneraient aux éditeurs un canal clair vers les LLM, via le Model Context Protocol dévoilé durant Build 2025.
Des chercheurs imaginent des API agent-friendly capables de décrire les intentions autorisées, les limites légales et la granularité des données. Car la réalité, rappelle la firme Nimble, c’est qu’une part significative de l’agentique actuelle repose encore sur un scraping fragile, pénalisé par les sites dynamiques et la défense anti-bots. Tant que le web restera pensé pour les humains et non pour les agents, l’automatisation totale relèvera davantage du tour de force que de la routine.
Une industrie entre enthousiasme et prudence
Sam Altman répète que “ces modèles sont au plus bas de leur courbe de progression ; nous n’avons encore rien vu”. De son côté, Yann LeCun avertit que l’autonomie véritable exigera de nouvelles approches énergétiquement sobres. Impossible selon lui de multiplier indéfiniment les paramètres. Jensen Huang, patron de Nvidia, salue “l’ère des agents” parce qu’elle positionne le GPU comme le moteur universel de l’économie, mais admet que la demande électrique devra être compensée par des puces plus sobres. Bill Gates, enfin, se veut pragmatique : “Le verre peut nous sembler à moitié plein ou à moitié vide. L’essentiel est de le remplir avec ce dont l’utilisateur a réellement besoin.”
Que faut-il en retenir ?
Les agents IA actuels ne sont ni des gadgets ni des souverains. Ils se situent dans une zone grise où la prouesse technique côtoie l’instabilité. Leur concept plonge ses racines dans 30 ans de travaux, mais leur incarnation moderne dépend d’un fragile assemblage de modèles, d’API et de données.
Les promesses (assistant universel, automate scientifique, coordinateur d’entreprise) séduisent parce qu’elles reposent sur des actions concrètes déjà démontrées. Les obstacles (hallucinations, coûts énergétiques, cadre juridique, web hermétique) rappellent toutefois que la révolution annoncée n’a rien d’inéluctable.
Si les protocoles, la gouvernance et l’architecture de l’Internet suivent, l’agent pourrait bien devenir aussi banal que le moteur de recherche. Dans le cas contraire, il restera cet illusionniste brillant qui, faute de coulisses adaptées, échoue à reproduire son numéro soir après soir.
Publicité, votre contenu continue ci-dessous

      Publications qui peuvent vous intéresser  
 

Vous utilisez WhatsApp ? Voici ce que Perplexity AI peut faire pour vous en quelques secondes

Hier à 17:00         

Quel modèle IA de ChatGPT vous convient vraiment ? Le comparatif essentiel pour éviter les erreurs d’usage

il y a 3 jours         

Tout savoir sur Fugatto, un générateur audio IA révolutionnaire

il y a 18 jours         

Meta AI : un milliard d’utilisateurs alors que les polémiques ne s’arrêtent pas

il y a 2 jours         

Elon Musk sort le chéquier et paie le prix fort pour intégrer Grok à Telegram

il y a 2 jours         

Vous ne lirez plus jamais une fiche appli de la même façon : Google intègre l’IA dans le Play Store

il y a 3 jours         

Le cofondateur de Netflix tente l'aventure de l'IA en rejoignant cette entreprise majeure

il y a 4 jours         

3

Le gouvernement diffuse de la désinformation avec une vidéo générée par l'IA

il y a 4 jours         

Ces vidéos ont été créées par l’IA de Google… et c’est flippant

il y a 4 jours          
           

https://www.lesnumeriques.com/intelligence-artificielle/agents-ia-c-est-quoi-ces-assistants-numeriques-qui-promettent-de-remplacer-les-humains-a237348.html