Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2025:04:gemini-pro [25/12/2025/H23:16:43] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | | ||
| - | |||
| - | |||
| - | ---- | ||
| - | ====== +++ Gemini Pro 2.5 est l'une des deux seules IA à avoir réussi tous m ... ====== | ||
| - | Dans le cadre de mes évaluations des fonctionnalités de codage des IA, je soumets chaque IA à quatre tests de programmation. Ces tests sont conçus pour déterminer dans quelle mesure une IA donnée peut vous aider à programmer. C'est assez utile, surtout si vous comptez sur l'IA pour vous aider à produire du code. La dernière chose que vous souhaitez, c'est qu'une IA introduise des bugs dans votre travail de développeur, | ||
| - | Il s'agit de tests très simples. J' | ||
| - | |||
| - | L'un d' | ||
| - | Un autre à réécrire une fonction de chaîne de caractères. | ||
| - | Un autre à demander de l'aide pour trouver un bogue que j'ai eu du mal à trouver seul. | ||
| - | Et le dernier à utiliser quelques outils de programmation pour récupérer des données de Chrome. | ||
| - | Gemini Pro 2.5 est disponible gratuitement, | ||
| - | Mais il faut aussi se comporter avec les IA comme avec quelqu' | ||
| - | À ce jour, seul le LLM GPT-4 (et plus) de ChatGPT a réussi tous les tests. Oui, Perplexity Pro a également réussi tous les tests, mais c'est parce que Perplexity Pro utilise le LLM GPT-4. Curieusement, | ||
| - | Aujourd' | ||
| - | Mes deux premiers prompts demandaient à Gemini Pro 2.5 d' | ||
| - | Test 1 : Écrire un simple plugin WordPress | ||
| - | C'est impressionnant. On est loin de l' | ||
| - | Le défi consiste à écrire un simple plugin WordPress qui fournit une interface utilisateur simple. Il randomise les lignes d' | ||
| - | Gemini Pro 2.5 m'a fourni une interface utilisateur très correcte. Et le code s'est exécuté et a fait ce qu'il était censé faire. | ||
| - | Capture d' | ||
| - | Ce qui a attiré mon attention, en plus de l' | ||
| - | Mais Gemini Pro 2.5 a clairement choisi une icône à partir de la sélection Dashicon de WordPress. De plus, cette icône est parfaitement adaptée à la randomisation des lignes d'un plugin. | ||
| - | Capture d' | ||
| - | Non seulement Gemini Pro 2.5 a réussi ce test, mais il a obtenu un " | ||
| - | Test 2 : Réécrire une fonction de chaîne de caractères | ||
| - | Dans le deuxième test, j'ai demandé à Gemini Pro 2.5 de réécrire un code de traitement de chaînes de caractères qui traite de dollars et de cents. Mon code de test initial n' | ||
| - | Et Google Advanced a échoué d'une manière à la fois subtile et dangereuse. Le code généré par Gemini Advanced ne permettait pas les entrées non décimales. En d' | ||
| - | Il s'agit d'un problème très facile, du genre de ceux que l'on donne aux étudiants en première année de programmation. Pire encore, le défaut de programmation de Gemini Advanced est très difficile à trouver pour un programmateur. | ||
| - | Le code généré par Gemini Pro 2.5 est un peu trop strict | ||
| - | Lorsque j'ai refait le test avec Gemini Pro 2.5, les résultats étaient différents. Le code vérifie correctement les types d' | ||
| - | Il commente également de manière exhaustive le code de l' | ||
| - | Le code généré par Gemini Pro 2.5 est un peu trop strict. Il ne permet pas de grouper les virgules (comme dans $1,245.22) et n' | ||
| - | C'est une deuxième victoire. | ||
| - | Test 3 : Trouver un bug | ||
| - | Vient ensuite le test de détection de bug. ChatGPT a compris le souci. Gemini Advanced n'a même pas pris la peine de se tromper. Tout ce qu'il a fourni, c'est la recommandation de chercher " | ||
| - | Mais qu'en est-il aujourd' | ||
| - | Capture d' | ||
| - | Je reviendrai donc demain. | ||
| - | D' | ||
| - | Non seulement il a réussi le test et trouvé le bogue. Mais il m'a indiqué l' | ||
| - | Capture d' | ||
| - | Avec trois tests corrects sur quatre, Gemini Pro 2.5 sort de la catégorie " | ||
| - | Mais il reste encore un test. Voyons comment Gemini Pro 2.5 s'en sort. | ||
| - | Test 4 : Écrire un script | ||
| - | Ce dernier test n'est pas très difficile en termes de compétences de programmation. Ce qu'il teste, c'est la capacité de l'IA à passer d'un environnement à l' | ||
| - | Le test exige : | ||
| - | |||
| - | De comprendre la représentation interne du modèle d' | ||
| - | D' | ||
| - | Puis d' | ||
| - | La routine est conçue pour ouvrir les onglets de Chrome et définir l' | ||
| - | La plupart des IA se débrouillent bien avec le lien entre AppleScript et Chrome. Mais plus de la moitié d' | ||
| - | Et, bien, encore une fois, wow. Gemini Pro 2.5 a effectivement compris Keyboard Maestro. Il a écrit le code nécessaire pour transmettre les variables comme il se doit. Il a ajouté de la valeur en vérifiant les erreurs et en avertissant l' | ||
| - | Puis, plus loin dans la section d' | ||
| - | Capture d' | ||
| - | C'est ainsi, Mesdames et Messieurs, que Gemini Pro 2.5 entre dans le cercle très fermé des vainqueurs. | ||
| - | Nous savions que cela allait arriver | ||
| - | C' | ||
| - | Bard, Gemini et même Gemini Advanced ont lamentablement échoué à mes tests de programmation d'IA. Mais ce n' | ||
| - | Ce temps est venu. Du moins pour mes tests de programmation. Gemini Pro 2.5 est plus lent que ChatGPT Plus. ChatGPT Plus répond presque instantanément. Gemini Pro 2.5 semble prendre entre 15 secondes et une minute. | ||
| - | Malgré tout, attendre quelques secondes pour obtenir un résultat précis et utile est bien plus précieux que de recevoir immédiatement des réponses erronées. | ||
| - | https:// | ||
you see this when javscript or css is not working correct