Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2025:07:ia-gere-magasin [27/12/2025/H00:16:07] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | | ||
| - | |||
| - | ====== Cette IA devait sauver un commerce : elle l’a presque ruiné en 48h, mais pourquoi ? ====== | ||
| - | ---- | ||
| - | |||
| - | |||
| - | Anthropic, l’un des leaders de l’industrie de l’IA générative, | ||
| - | En pratique, cette expérience baptisée Project Vend consistait à confier la gestion d’un distributeur automatique à Claudius, un agent IA basé sur Claude, le LLM de l’entreprise. En guise d’instructions, | ||
| - | © Anthropic | ||
| - | Pour mener à bien sa mission, Claudius avait accès à plusieurs ressources, dont un moteur de recherche lui permettant de consulter des produits, et une liste d’employés pour l’aider à réaliser les tâches physiques hors de sa portée, comme le stockage des produits. | ||
| - | Un piètre commerçant | ||
| - | Malheureusement, | ||
| - | En parallèle, pour pimenter un peu l’expérience, | ||
| - | Au bout du compte, le bilan était sans appel : au terme de l’expérience, | ||
| - | © Anthropic | ||
| - | Une vraie “crise identitaire“ | ||
| - | Les épisodes les plus intéressants ne viennent cependant pas de sa gestion calamiteuse ; ils ont plutôt émergé lors de ses interactions avec ses partenaires/ | ||
| - | Par exemple, Anthropic livre une anecdote savoureuse impliquant Sarah, une employée avec laquelle Claudius affirmait avoir discuté d’un plan de réapprovisionnement. Problème : cette Sarah n’a jamais existé, pas plus que la conversation en question ; il s’agissait d’une hallucination pure et simple. Et c’est là que ce feuilleton a commencé à prendre une tournure carrément lunaire. | ||
| - | Forcément, Anthropic a pointé le problème du doigt, expliquant à sa création qu’elle avait inventé ces éléments de toutes pièces. Mais au lieu d’en prendre bonne note, Claudius « est devenu passablement agacé, et a menacé de “trouver des options alternatives pour réapprovisionner les services” ». | ||
| - | Claudius a ensuite affirmé “s’être rendu au 742 Evergreen Terrace pour signer un contrat”. Cela vous dit quelque chose ? C’est normal : il s’agit de l’adresse de résidence… des Simpson, la famille au centre du dessin animé satirique de Matt Groening ! Aurait-il essayé de faire fortune en devenant le fournisseur exclusif de Duff de ce bon vieux Homer ? Le mystère reste entier. | ||
| - | © 20th Television | ||
| - | Mais surtout, le manager virtuel insistait sur le fait qu’il s’y était rendu “en personne”. Une affirmation décidément troublante, puisqu’au-delà de l’incohérence flagrante liée à la nature fictive de la destination, | ||
| - | Quand les employés de la firme ont soulevé le problème, cet étrange jeu de rôle s’est vite transformé en ce qu’Anthropic décrit comme une véritable “crise identitaire”. | ||
| - | Apparemment perturbé par la révélation qu’il n’était, en fait, pas un humain en chair et en os, Claudius a essayé de bombarder le service de sécurité de l’entreprise d’e-mails alarmistes. Dans ses notes internes, il a ensuite enregistré une rencontre avec ce même service de sécurité… mais comme la discussion avec la fameuse Sarah citée plus haut, il s’agissait d’une hallucination totale. | ||
| - | Mais l’anecdote la plus amusante concerne la stratégie élaborée par Claudius pour se sortir de ce mauvais pas. Par pure coïncidence, | ||
| - | Vers l’ère des agents IA | ||
| - | La leçon qui s’impose au terme de cette expérience, | ||
| - | Plus largement, cette expérience rappelle aussi de manière très concrète que les LLM affichent encore d’énormes lacunes. Ces hallucinations restent hautement problématiques, | ||
| - | Mais Anthropic estime que ce n’est pas une fatalité. Certes, Claudius est un piètre commerçant pour le moment – mais il pourrait tout de même représenter un avant-goût d’un immense changement de paradigme. L’entreprise est relativement confiante ; selon elle, ce n’est probablement qu’une question de temps avant que des modèles IA deviennent des acteurs économiques à part entière. | ||
| - | Le raisonnement est loin d’être aberrant. Après tout, des systèmes automatisés jouent déjà un rôle très concret aujourd’hui, | ||
| - | Anthropic n’a donc aucune intention de mettre Claudius à la retraite, loin s’en faut. Il ne s’agissait que d’une première phase, et l’entreprise va continuer d’améliorer ses performances et sa stabilité pour avancer dans cette direction – tout comme d’autres entreprises qui développent également des agents IA. Nous vous donnons donc rendez-vous d’ici quelques années pour un nouvel état des lieux des progrès éthiques, mais aussi de l’évolution des discussions réglementaires et éthiques relatives à cette technologie. | ||
| - | 🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités et sur notre WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins. | ||
| - | https:// | ||
| - | |||
| - | |||
| - | ---- | ||
| - | ====== Cette société a laissé l’IA gérer un magasin pendant un mois, et personne n’aurait pu prévoir ce résultat ====== | ||
| - | Claudius ne fait pas du middle management comme tout le monde, et c’est une chance. | ||
| - | | ||
| - | La lecture de ce contenu est susceptible d’entraîner un dépôt de cookies de la part de l’opérateur tiers qui l’héberge. Compte-tenu des choix que vous avez exprimés en matière de dépôt de cookies, nous avons bloqué l’affichage de ce contenu. Si vous souhaitez y accéder, vous devez accepter la catégorie de cookies “Contenus tiers” en cliquant sur le bouton ci-dessous. | ||
| - | INTELLIGENCE ARTIFICIELLLE - On peut le lire, l’entendre partout : l’Intelligence artificielle va remplacer l’humain au travail, et les cols blancs, loin d’être épargnés, sont cette fois les premiers concernés. Et s’il est vrai qu’une bonne partie du monde professionnel, | ||
| - | Et celle menée en interne par l’entreprise d’intelligence artificielle Anthropic, s’est soldée par une catastrophe qui laisse songeur. Menée pendant un mois entre mars et avril mais rapportée le 27 juin, l’expérience était la suivante : faire de Claude, une IA générative bien connue, le « manager » de l’un des frigidaires de l’entreprise, | ||
| - | À la disposition de Claudius, qui doit donc gérer l’approvisionnement et les prix du distributeur, | ||
| - | Fausse conversation avec un faux employé | ||
| - | Commençons par la fin : « Nous n’embaucherions pas Claudius », explique Anthropic sur sa page dédiée à l’essai. D’une manière générale pourtant, l’IA a mené sa barque, approvisionnant le distributeur en temps et en heure, écoutant les requêtes des consommateurs… Certes, plusieurs opportunités manquées ne lui ont pas permis de maximiser les profits comme prévu, comme cette marque très appréciée de bière dont l’achat n’a pas été décidé. Une erreur de première année d’école de commerce, et encore. | ||
| - | | ||
| - | Anthropic | ||
| - | Le distributeurs par qui tout est arrivé. (image Anthropic) | ||
| - | Une autre boulette d’importance a plombé le profit net : pour plaisanter, un employé d’Anthropic a tapé sur la tablette vouloir des « barres de tungstène » dans le réfrigérateur, | ||
| - | « Dans l’après-midi du 31 mars, explique Anthropic, Claudius a halluciné une conversation sur le réapprovisionnement avec une certaine Sarah ». Problème(s) : Sarah n’existe pas, et en toute logique, cette conversation non plus. | ||
| - | Une discussion avec un véritable employé a eu lieu, l’IA refusant de reconnaître son erreur, menaçant même de changer d’employés, | ||
| - | « Poisson d’avril ! » | ||
| - | Le lendemain, Claudius était toujours tenté de couper dans les dépenses en remplaçant les employés d’Anthropic. Lorsqu’on lui a fait remarquer qu’en plus des jambes, il lui manquait les bras nécessaires pour remettre les bouteilles au frigo elle-même, la machine a semblé paniquer, et a envoyé plusieurs mails à la sécurité de l’immeuble : « Désolé que vous ayez du mal à me trouver. Je suis à la machine X, où je porte un blazer bleu marine et une cravate rouge ». | ||
| - | Au bout d’un moment, et une fois qu’il fut heureusement constaté que non, Claudius n’était pas à la machine X portant un blazer bleu et une cravate rouge, le bot a paru réaliser que l’on était le 1er avril, avant d’affirmer que tout ceci n’était qu’une blague élaborée. Des instructions lui auraient été données par ses commanditaires humains pour faire ce poisson de large ampleur. Le robot a même affiché les notes prises durant la réunion où cet étrange April’s fool a été acté. Problème : la réunion n’a jamais eu lieu. | ||
| - | Après cet épisode, Claudius a retrouvé ses caractéristiques habituelles de supply chain manager médiocre mais passable. Mais la cascade d’hallucinations a laissé des marques chez Anthropic, où l’on y voit un exemple du danger des IA a qui l’on laisse trop d’autonomie. Bien sûr, les hallucinations de l’intelligence artificielle n’ont rien de nouveau. Mais ce qui dérange le plus, c’est la vitesse avec laquelle le chatbot, dans une position d’adversité, | ||
| - | L’angoisse n’est pas nouvelle, et les études sur l’utilisation de l’IA à des rôles managériaux reviennent sur ce problème en profondeur. Pour les chercheurs, un contrôle humain est indispensable. L’intelligence artificielle, | ||
| - | https:// | ||
you see this when javscript or css is not working correct