John-Edwin Graf, CEO de Memory : « Notre produit, c’est l’anti Chat GPT »

«Cet article a été généré automatiquement sur la base de la vidéo, avec l’aide de la start-up française Memory. L’ensemble a été relu et corrigé par notre rédaction. » Il se peut désormais que vous croisiez cette phrase au détour de votre navigation sur 20minutes.fr. Car notre média produit de plus en plus de contenus.

Et notamment de vidéos. Pour les relayer rapidement sur notre site, et laisser à nos journalistes le temps de se consacrer à leurs sujets, décision a été prise de faire appel à l’intelligence artificielle. Mais pas n’importe laquelle ni n’importe comment : spécialisée dans la gestion de contenus, la start-up Memory a développé, en collaboration avec la direction du numérique et la rédaction de 20 Minutes, des agents IA capables de résumer en quelques paragraphes nos interviews, reportages et autres sujets filmés. Tout en respectant les exigences de rigueur et de style qui sont les nôtres depuis plus de vingt ans. Rencontre avec son fondateur, John-Edwin Graf.
En quoi Memory n’est-elle pas une énième start-up IA, qui surfe sur la vague Chat GPT ?
Déjà parce que nous proposons une interface intuitive qui permet de faire plein de choses pour gérer, agréger, référencer, mais aussi valoriser le contenu produit par nos clients et partenaires, qu’il s’agisse de sociétés, d’institutions, ou d'écoles. Avec de nombreuses applications, ainsi que des garanties de sécurité très élevées. Autre axe fort chez nous, la multimodalité : nous pouvons interagir avec tous les formats, qu’il s’agisse de texte, article, images ou vidéos…
Pas facile de se faire une idée du résultat. Est-ce que vous pouvez nous donner un exemple ?
Pour le dire plus simplement, Memory construit une bibliothèque à partir des contenus que vous avez choisis, y met de l’ordre, puis vous aide à piocher dedans pour créer autre chose. Techniquement parlant, l’IA va nous aider à indexer automatiquement la production du client, peu importe sa longueur ou sa nature, puis la transcrire, la chapitrer, lui adjoindre des mots-clés. Une fois structurée et qualifiée, cette base de données peut ensuite être interrogée pour générer des résumés, des rapports, des quiz… Bref, ce que vous voulez. On peut appliquer le même principe à des contenus tiers : certains de nos clients utilisent Memory pour assurer leur veille concurrentielle ou faire de la curation de contenus.
Un outil donc plutôt à vocation interne ?
Pas forcément. Avec notre aide, Sciences Po valorise l’ensemble de sa production intellectuelle auprès de tous ses publics. Dans une grande institution comme celle-ci, ça fait beaucoup de contenus différents : il y a des conférences filmées, des podcasts, des articles rédigés par les enseignants chercheurs… Cette base pourra être exploitée aussi bien par des lycéens qui découvrent l’établissement que par les professeurs. On a développé plusieurs profils de recherche de façon à adapter les résultats à chaque internaute. Au fond, je crois qu’une partie de la richesse d’une grande école, mais ça vaut aussi pour une entreprise, repose dans le savoir qu’elle produit. Or, dans 9 cas sur 10, cette production est mal exploitée. Dès qu'elle a été publiée, ou que l’événement a eu lieu, on n’en fait plus rien. Alors qu’en vérité, toute l’histoire reste à écrire ! S’arrêter là, ce n’est ni très pertinent, ni très rentable.
Des contenus oubliés aussitôt créés… On comprend mieux pourquoi vous avez choisi de vous appeler Memory. Vous agissez donc comme une sorte d’archives intelligentes ?
Exactement. Le client peut interroger l’ensemble des informations dans son silo et obtenir une réponse basée sur les contenus présents. C’est tout le contraire de Chat GPT, dont le corpus est inconnu de tous. On ne sait pas précisément sur quelles données le modèle d’OpenAI a été entraîné. Alors que, dans notre cas, le client contrôle ce qui entre dans sa bibliothèque, et en fait ressortir ce qu’il souhaite : un résumé vidéo, un podcast généré par IA…
Confier ses données à des services boostés à l’intelligence artificielle, cela ne va pas sans poser certains problèmes de confidentialité ou de sécurité. Comment y répondez-vous ?
C’est la grande question. Au moment de monter Memory, nous avons été très vite audités sur le volet cybersécurité. C’est un point que nous avons particulièrement bossé. Nous sommes aussi en mesure de garantir à des insitutions publiques, comme celles avec lesquelles nous collaborons, que ce qui entre et sort de notre outil, ne va pas être utilisé pour alimenter un modèle d’IA. De même pour l’hébergement : si le client souhaite que la donnée ne finisse pas sur notre cloud, mais reste sur ses serveurs, on s’adapte.
Avec le partenariat avec 20 Minutes, pas d’archivage ni de silo. C’est une autre facette de votre expertise qui a été mise à contribution…
Oui, c’est assez différent, mais plutôt complémentaire à ce qu’on propose en temps normal chez Memory. Notre solution est construite en briques, qui sont autant de micro-services qu’on peut solliciter indépendamment. Avec vous, on travaille avant tout l’automatisation. Chaque vidéo va suivre plusieurs étapes après sa publication : à commencer par la retranscription, la diarisation (afin d’attribuer les propos aux bonnes personnes), le listing des mots-clés, et enfin l’écriture à proprement parler de l’article d’accompagnement. C’est là que les agents paramétrés avec votre rédaction interviennent. Notre entreprise est de plus en plus consultée pour ce genre de missions. L’agentique, c’est un peu le buzzword du moment. Le potentiel est énorme mais, comme vous le faites en relisant systématiquement ce que notre IA va vous proposer, je pense qu’il faut maintenir l’humain dans la boucle. La décision finale doit nous revenir.
https://www.20minutes.fr/high-tech/4164749-20250930-john-edwin-graf-ceo-memory-produit-anti-chat-gpt