Bit_Man
Il semble que à ce jour l’ia ait été nourrie avec tout ce qui existe depuis que l’homme mémorise ses savoirs et créations, mais voilà pour entraîner d’autres IA avec de nouvelles matières cela devient compliqué au point tel que des données générées par IA sont utilisées pour nourrir l’apprentissage d’autres IA.
Il y a là un problème qui ressemble à de la décohérence, si vous avez utilisez un peu d’IA, il peut arriver que plus on lui pose de questions ( je précise avec un vecteur base de donnée des réponses précédentes) plus il est possible que les réponses soient victime d’hallucinations.
Cet apprentissage d’IA à IA semble prendre cette direction, c’est probablement pour ça que les derniers ( O1, 4o ?) modèles de GPT sont orientés différemment.
Plutôt que de répondre sur un sur-entraînement de relation de poids, ces nouveaux modèles réfléchiraient ( ils doutent …) de leurs poids et prennent plus de temps à répondre. C’est peut-être là le début de l’AGI évoquée par Altman.
Ou un argument commercial pour lever des fonds, on est toujours le con d’un autre, du reste une IA d’une autre IA. Question sur la VRAIE AGI.
Tout va y passer, fonctionnaires, administration, avocats, validateurs de protocoles de recherches, enseignement, médecine, chirurgie, architecture, etc … C’est bien on va avoir du temps libre , du temps payé par ces IA on l’espère en tout cas .
vVD
Une IA généraliste ne peut être probabiliste car elle doit répondre avec raison. Je prends l’exemple des connaissances du 10ieme siècle, a la question : la terre est elle plate ? l’IA probabiliste va répondre ‹ oui › comme tous les gens pensaient à l’epoque alors que l’IA généraliste répondrai ‹ non › en pouvant argumenter scientifiquement son raisonnement comme l’avait fait Ératosthène au 3ieme siècle avant JC… l’IA généraliste valide la connaissance qu’on lui ingurgite, elle ne peut croire au plus probable, de plus elle n’ extrapolera jamais !
Man-of-Guzzi
Les datasets d’entrée, l’ensemble des connaissances accumulé, sont une chose. S’en servir pour répondre à une « question » en est une autre. Néanmoins aujourd’hui, s’il a la réponse, un modèle la donnera. Et uniquement à ce moment là. Il recoupera des informations comme personne ne peut le faire rapidement mais la réponse est quelque part. Demain, avec les mêmes connaissances, il pourra déduire, raisonner, chercher, faire de la recherche et prendre des décisions. Et si… Si elle n’a pas la réponse, l’IA cherchera, extrapolera…
toto1234
La superintelligence n’est pas un autre terme pour AGI…
TheProfessor
Tu mélanges un peu tout. Une IA probabiliste c’est une IA qui se repose sur un modèle basé sur des niveaux de certitudes par exemple 70% plate 30% sphérique. Ton exemple qui illustre une IA raisonnée est binaire alors que bien souvent dans la réalité les réponses sont nuancées et multi-factorielles, des faisceaux de causes. Tu voulais parler d’IA basée sur la moyenne statistique soit la complétion d’un mot le plus probable d’apparaître pour un LLM. L’extrapolation ou l’interpolation peuvent faire partie intégrante de solutions d’IA.
TheProfessor
Tu mélanges tout
Blade_Hunter
« Je ne crains pas les machines qui pensent, mais je crains les humains qui cessent de penser. » Isaac Asimov
Blade_Hunter
Ensuite, ce sera le tour de ce qu’il appelle la superintelligence (un autre terme pour I’intelligence artificielle générale)
NON! la ASI sera l’étape 6 après de l’ AGI, mais ça reste encore de la spéculation et pour l’instant on est seulement (déjà?) au niveau 4… on peut même imaginer en plus extrême comme l’étape 7,8,9… non rêveur s’abstenir
https://www.clubic.com/actualite-549119-c-est-officiel-openai-tourne-maintenant-ses-efforts-vers-la-creation-d-une-intelligence-artificielle-generale.html
you see this when javscript or css is not working correct