Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2025:03:local-deepsearch [26/12/2025/H03:48:10] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | {{tag> | ||
| - | |||
| - | ---- | ||
| - | ====== Local Deep Research - L' | ||
| - | |||
| - | |||
| - | Il y a un outil que j’aime bien utiliser en ce moment, c’est la fonctionnalité Deep Research d’OpenAI. Cela me permet de creuser différents sujets tout en obtenant des sources fiables puisque cette fonctionnalité se repose sur des recherches hyper poussées et itératives, | ||
| - | Le truc c’est que ça coûte du pognon de diiiiingue et que tout le monde ne peut malheureusement pas en profiter. Un abonnement ChatGPT Plus à 20$ par mois minimum, et encore, c’est limité en nombre de recherches approfondies. | ||
| - | Heureusement, | ||
| - | Interface web de Local Deep Research avec un exemple de recherche | ||
| - | L’intérêt de ce genre d’outils, c’est qu’il fonctionne comme un Sherlock Holmes numérique : il pose une première question, analyse les résultats, puis génère automatiquement des questions de suivi pour approfondir et vérifier les informations. Ça permet d’éliminer les hallucinations et les fausses sources qu’on peut parfois avoir avec des LLM traditionnels et ainsi avoir de la vraie information bien sourcée, avec les citations et les liens si on veut ensuite vérifier. | ||
| - | L’outil a quelques avantages qui font la différence avec d’autres outils du même style : | ||
| - | Confidentialité totale : tout peut tourner localement sur votre machine | ||
| - | Multi-sources intelligentes : le système choisit les meilleures sources selon la requête | ||
| - | Vérification des citations : adieu les références bidon | ||
| - | Recherche dans vos documents personnels : grâce au système RAG intégré | ||
| - | Interface web intuitive : historique des recherches, exports PDF, etc. | ||
| - | Voici comment installer Local Deep Research. Tout d’abord, clonez le dépôt : | ||
| - | git clone https:// | ||
| - | Ensuite, créez et activez l’environnement virtual (j’utilise uv) : | ||
| - | # Créer un environnement virtuel uv venv # Activer l' | ||
| - | Puis installez les dépendances comme ceci : | ||
| - | # Installer les dépendances à partir du fichier requirements.txt uv pip install -r requirements.txt | ||
| - | Récupérez éventuellement le modèle Mistral à l’aide d’Ollama si ce n’est pas encore fait : | ||
| - | Puis créez le fichier de conf et éditez le pour y mettre vos clés API : | ||
| - | Côté performances, | ||
| - | Le truc vraiment cool, c’est que vous pouvez aussi ajouter vos propres collections de documents pour les inclure dans vos recherches. Imaginez pouvoir interroger vos PDF, notes et documents Word avec la même puissance d’analyse ! Pour cela, créez les répertoires nécessaires pour le stockage des documents comme ceci : | ||
| - | mkdir -p local_search_files/ | ||
| - | Puis créez le fichier local_collections.py à la racine du projet avec le contenu suivant pour y indexer vos documents : | ||
| - | # local_collections.py import os from typing import Dict, Any # Registre des collections de documents locaux LOCAL_COLLECTIONS = { # Collection de papiers de recherche " | ||
| - | Quelques paramètres importants à connaître dans le fichier config.py : | ||
| - | DEFAULT_MODEL : change “mistral” si tu veux utiliser un autre modèle Ollama | ||
| - | DEFAULT_TEMPERATURE : 0.7 par défaut, baisse à 0.1 pour des résultats plus factuels | ||
| - | MAX_SEARCH_RESULTS : augmente jusqu’à 100 pour des recherches plus exhaustives | ||
| - | search_tool : “auto” sélectionne intelligemment la source, ou spécifie “wiki”, “arxiv”, | ||
| - | Enfin, lancez l’outil qui sera alors accessible sur le port 5000 sur votre IP local via un navigateur. | ||
| - | Dashboard avec historique des recherches | ||
| - | Vous pourrez alors formuler une demande et l’outil se mettra en route pour vous pondre un rapport le plus détaillé possible sur ce que vous avez demandé. Le processus est d’ailleurs fascinant à observer… il commence par une recherche initiale, analyse les résultats, puis génère automatiquement des questions de suivi pour approfondir. Par exemple, si vous demandez “je veux les dernières avancées en fusion énergétique”, | ||
| - | Bon, par contre, je vous le dis tout de suite, le projet est encore un peu jeune et très anglophone donc les résultats sont loin d’être parfaits, mais ça peut quand même dépanner si vous cherchez des infos précises et bien sourcées sans débourser un centime. Et pour les développeurs parmi vous, c’est un projet open-source, | ||
| - | A découvrir ici ! | ||
| - | https:// | ||
you see this when javscript or css is not working correct