Utilisateur non connecté
Un professeur d'informatique du MIT teste l'impact de l'IA sur la formation des programmeurs : « Il faut toujours les bases pour être des informaticiens et des ingénieurs logiciels efficaces » [ElseNews]

Outils pour utilisateurs

Outils du site


elsenews:spot-2024:09:impact-ia

25/12/2025/H21:21:43


Un professeur d'informatique du MIT teste l'impact de l'IA sur la formation des programmeurs : « Il faut toujours les bases pour être des informaticiens et des ingénieurs logiciels efficaces »

Intelligence artificielle

Un professeur d'informatique du MIT teste l'impact de l'IA sur la formation des programmeurs : « Il faut toujours les bases pour être des informaticiens et des ingénieurs logiciels efficaces »

L’intelligence artificielle (IA) transforme de nombreux secteurs, y compris l’éducation. Une récente expérience menée par Eric Klopfer, professeur au Massachusetts Institute of Technology (MIT), a exploré comment l’IA influence l’apprentissage des programmeurs.

L'automne dernier, Eric Klopfer a décidé de mener une expérience dans son cours d'informatique de premier cycle au Massachusetts Institute of Technology (MIT). Il a divisé la classe en trois groupes et leur a donné une tâche de programmation à résoudre en langage Fortran, qu'aucun d'entre eux ne connaissait.
Chaque groupe avait accès à différents outils pour résoudre le problème :
Un groupe a été autorisé à utiliser ChatGPT pour résoudre le problème;
le deuxième groupe a été invité à utiliser le grand modèle linguistique (LLM) Code Llama de Meta ;
et le troisième groupe n'a pu utiliser que Google, sans assistance d’IA.
L’objectif était de comparer non seulement la rapidité avec laquelle chaque groupe pouvait résoudre le problème, mais aussi la qualité de leur compréhension et leur capacité à retenir les informations. Les résultats
Les résultats ont montré que le groupe utilisant ChatGPT a résolu le problème le plus rapidement, suivi par le groupe utilisant Code Llama, et enfin le groupe utilisant Google, qui a mis encore plus de temps, car il a dû décomposer la tâche en plusieurs éléments.
Cependant, lorsque les étudiants ont été testés sur leur capacité à résoudre le problème de mémoire, les résultats ont été inversés : le groupe ChatGPT « ne s'est souvenu de rien et a échoué », se souvient Klopfer, professeur et directeur du programme de formation des enseignants Scheller du MIT et de The Education Arcade. En revanche, la moitié du groupe Code Llama a réussi le test. Le groupe qui a utilisé Google ? Tous les élèves ont réussi.
« Il s'agit d'une leçon éducative importante », a déclaré Klopfer. « Travailler dur et se battre est en fait une façon importante d'apprendre. Lorsqu'on vous donne une réponse, vous ne vous débattez pas et vous n'apprenez pas. Et lorsque le problème devient plus complexe, il est fastidieux de revenir au début d'un grand modèle de langage pour tenter de comprendre et l'intégrer. »
En revanche, la décomposition du problème en éléments permet d'utiliser un LLM pour travailler sur de petits aspects, au lieu d'essayer d'utiliser le modèle pour l'ensemble d'un projet, ajoute-t-il. « Ces compétences, qui consistent à décomposer le problème, sont essentielles à l'apprentissage ».
Cet exemple a permis à Klopfer de conclure avec confiance que l'informatique n'est pas condamnée à l'heure où l'IA se fraye un chemin dans tous les secteurs d'activité. D'autres experts en informatique conviennent que plus l'IA sera utilisée, plus la nature des emplois changera, et qu'il faudra donc continuer à enseigner aux humains des concepts de base tels que les statistiques et la connaissance du fonctionnement des systèmes.
« Il faut toujours les bases pour être des informaticiens et des ingénieurs logiciels efficaces », a déclaré Beena Ammanath, responsable de l'IA digne de confiance et de la technologie éthique chez Deloitte.
Malgré toutes les craintes concernant les suppressions d'emplois dues à l'IA, une étude récente du Computer Science and Artificial Intelligence Laboratory (CSAIL) du MIT a révélé que l'automatisation des emplois humains pourrait prendre plus de temps qu'on ne le pensait auparavant. Selon l'étude, seuls 23 % environ des salaires liés aux tâches de vision pourraient être remplacés de manière rentable par l'IA, ce qui indique que le déplacement des emplois dû à l'IA, en particulier dans le domaine de la vision par ordinateur, risque de se produire plus lentement qu'on ne l'avait envisagé au départ.
Les résultats « suggèrent que nous devrions nous attendre à ce que les effets de l'automatisation de l'IA soient moins importants que les effets d'automatisation/destruction d'emplois déjà observés dans l'économie », indique l'étude. « Il n'est pas certain que l'ajout de l'automatisation par l'IA à ces effets existants augmentera de manière substantielle la destruction globale d'emplois. Bien qu'il soit probable que des emplois soient perdus, « nous pensons également qu'une fraction substantielle de l'automatisation des tâches par l'IA se produira dans des domaines où l'automatisation traditionnelle est en cours », observe l'étude du CSAIL. Comment l'enseignement de l'informatique va évoluer pour aborder l'IA
L'accent mis sur l'intégration de l'IA dans la plupart des secteurs d'activité va également modifier la manière dont l'informatique sera enseignée, offrant des opportunités « tout à fait considérables », selon Risto Miikkulainen, professeur d'informatique à l'université du Texas à Austin et vice-président associé de l'intelligence évolutive chez Cognizant AI Labs.
Avec l'arrivée d'outils tels que le chatbot Copilot de Microsoft, par exemple, certains pourraient se demander pourquoi ils devraient se donner la peine d'apprendre à coder. Miikkulainen pense que les étudiants utilisent Copilot et d'autres chatbots principalement « comme un tuteur pour les devoirs de programmation » afin de suggérer des modifications.
« Tout d'un coup, l'enseignement de la programmation devient beaucoup plus vivant », explique Miikkulainen.
Reid Gordon Simmons, professeur de recherche à l'Institut de robotique de l'université Carnegie Mellon, ajoute que, de la même manière que les compilateurs traduisent le code source d'un langage de programmation en code machine, ce qui évite aux ingénieurs en informatique d'avoir à comprendre les assembleurs, « l'utilisation de l'IA et de la ML rendra de moins en moins nécessaire la compréhension des détails du codage ».
Cependant, il est toujours important d'apprendre aux gens à coder, tout simplement parce qu'une partie du travail d'informaticien consiste à comprendre les processus, a déclaré Simmons. « Mon analogie est d'enseigner l'arithmétique à des enfants de sept ans. Lorsque vous arrivez au collège, plus personne ne fait d'arithmétique à la main ; vous utilisez des calculatrices ».
Même si les calculatrices peuvent faire le travail à votre place, vous devez toujours comprendre les concepts, a-t-il ajouté. « De même, les informaticiens devront comprendre les principes fondamentaux de la programmation afin d'être efficaces dans leur travail, mais tout comme avec les calculatrices, ils n'auront pas à coder beaucoup ».
L'IA nécessite l'enseignement de disciplines ou d'aspects entièrement nouveaux de l'informatique, tels que l'IA responsable et la manière d'empêcher l'utilisation abusive de l'IA, a déclaré Miikkulainen. « Il y aura tellement de gens qui utiliseront [les systèmes d'IA] sans comprendre ce qu'il y a sous le capot ».
De nouvelles filières universitaires apparaîtront également dans des domaines tels que la science des données, l'apprentissage automatique, l'expérience utilisateur et l'ingénierie mobile, ainsi que dans des branches spécifiques de l'IA, telles que l'IA générative, les LLM et la vision par ordinateur, a déclaré Ammanath de Deloitte. Cela permettra non seulement de préparer les étudiants aux emplois du futur proche et de les rendre plus commercialisables, mais aussi de maintenir la compétitivité des États-Unis par rapport aux autres pays dans la course mondiale à l'armement en matière d'IA. Les éducateurs face aux hallucinations des LLM : enseigner à être sceptique dans un monde de textes générés par l'IA
Les éducateurs sont prudents, compte tenu de la tendance à l'hallucination du LLM. « Nous devons apprendre aux étudiants à être sceptiques à l'égard des résultats et à s'approprier la vérification et la validation de ces derniers », explique Jeanna Matthews, professeur d'informatique à l'université Clarkson de Potsdam, dans l'État de New York. .
Il ajoute que l'IA générative « peut court-circuiter le processus d'apprentissage des étudiants qui s'y fient trop ». Chang reconnaît que cette dépendance excessive peut être un piège et conseille à ses camarades étudiants d'explorer eux-mêmes les solutions possibles aux problèmes afin de ne pas perdre cette pensée critique ou ce processus d'apprentissage efficace. « Nous devrions faire de l'IA un copilote - et non le pilote automatique - de l'apprentissage », déclare-t-il.
ChatGPT a impressionné le monde par la profondeur de ses connaissances et la fluidité de ses réponses, mais un problème a entravé son utilité : Il n'arrête pas d'halluciner. Oui, les grands modèles de langage (LLM) hallucinent, un concept popularisé par les chercheurs en IA de Google en 2018. Dans ce contexte, l'hallucination fait référence à des erreurs dans le texte généré qui sont sémantiquement ou syntaxiquement plausibles, mais qui sont en fait incorrectes ou absurdes. En bref, vous ne pouvez pas faire confiance à ce que la machine vous dit.
C'est pourquoi, même si le Codex d'OpenAI ou le Copilot de Github peuvent écrire du code, un programmeur expérimenté doit toujours examiner le résultat - l'approuver, le corriger ou le rejeter avant de le laisser se glisser dans une base de code où il pourrait faire des ravages. Les enseignants du secondaire apprennent la même chose. Un rapport de lecture ou un essai historique rédigé par ChatGPT peut être facile à lire, mais peut facilement contenir des « faits » erronés que l'élève était trop paresseux pour déceler.
Les hallucinations constituent un problème sérieux. Bill Gates a imaginé que ChatGPT ou d'autres modèles linguistiques de grande taille pourraient un jour fournir des conseils médicaux aux personnes qui n'ont pas accès à un médecin. Mais on ne peut pas se fier aux conseils d'une machine sujette aux hallucinations.
Conclusion
L’expérience de Klopfer au MIT offre des leçons précieuses pour l’intégration de l’IA dans l’éducation. Bien que l’IA puisse accélérer la résolution de problèmes, elle ne doit pas remplacer les méthodes d’apprentissage qui encouragent la compréhension et la rétention à long terme. Les éducateurs doivent trouver un équilibre pour tirer le meilleur parti des technologies avancées tout en assurant un apprentissage efficace et durable.
Quelles sont vos pensées sur l’utilisation de l’IA dans l’éducation ? Pensez-vous que les outils d’IA devraient être intégrés davantage dans les programmes scolaires, ou y a-t-il des risques à considérer ? Partagez vos opinions dans les commentaires ci-dessous !
Sources : MIT Scheller Teacher Education Program, Au-delà de l'exposition à l'IA : quelles sont les tâches qu'il est rentable d'automatiser grâce à la vision par ordinateur ?, ACM
Et vous ?
Quels sont, selon vous, les avantages et les inconvénients de l’utilisation de l’IA comme outil d’apprentissage pour les programmeurs ?
Pensez-vous que l’IA pourrait remplacer les méthodes d’enseignement traditionnelles, ou devrait-elle être utilisée en complément ? Pourquoi ?
Avez-vous déjà utilisé des outils d’IA pour apprendre à programmer ? Si oui, comment cela a-t-il influencé votre apprentissage ?
Comment les éducateurs peuvent-ils équilibrer l’utilisation de l’IA avec des méthodes d’apprentissage plus traditionnelles pour garantir une compréhension approfondie des concepts ?
Quels sont les risques potentiels de dépendre trop fortement de l’IA pour l’éducation, et comment pouvons-nous les atténuer ?
Pensez-vous que l’IA pourrait aider à personnaliser l’apprentissage en fonction des besoins individuels des étudiants ? Si oui, comment ?
Comment voyez-vous l’avenir de l’éducation en informatique avec l’intégration croissante de l’IA ?

Retrouvez le dossier complet de la rédaction

04/09 - L'IA est pire que l'homme pour résumer l'information dans tous les domaines, selon un essai gouvernemental
02/09 - « L'AGI n'arrivera pas avant plusieurs décennies, voire plus », affirme le chercheur en IA Andrew Ng, qui ajoute que les prédictions sur une arrivée imminente s'appuient sur des définitions biaisées de l'AGI
12/08 - Des scientifiques espèrent accélérer le développement de l'AGI avec un réseau de supercalculateurs dont le premier nœud sera bientôt déployé, mais le projet suscite le scepticisme et plusieurs préoccupations
08/08 - Les départs des membres de la direction d'OpenAI suscitent le scepticisme quant aux échéances imminentes de l'IAG, un ingénieur OpenAI donnait un délai de trois ans pour atteindre ce niveau
07/08 - Nick Bostrom estime qu'il n'est peut-être pas utile de faire des investissements à long terme, comme des diplômes universitaires et des programmes de doctorat, car les délais de l'IA sont désormais très courts
06/08 - « L'IA ne rendra pas vos diplômes en informatique inutiles », d'après des enseignants de la filière opposés au PDG de Nvidia selon lequel « apprendre à programmer sera inutile à l'avenir à cause de l'IA »
23/07 - « Les membres du personnel des laboratoires secrets de pointe planifient sérieusement leur vie en fonction de l'existence de “dieux numériques” en 2027 », selon un doctorant en sciences de l'information
22/07 - Les enfants devraient-ils encore apprendre à coder à l'ère de l'IA ? Des experts affirment que l'enseignement de l'informatique est plus important que jamais, s'opposant ainsi au battage médiatique sur l'IA
15/07 - L'IA au service du collectif : Richard Eskow évoque une économie socialiste de l'IA où les individus seraient rémunérés de plusieurs manières pour l'utilisation de leur propriété intellectuelle collective
12/07 - OpenAI développe une échelle à 5 niveaux pour suivre la progression de ses systèmes d'IA vers une intelligence artificielle générale et affirme que sa technologie s'approche du niveau 2
05/07 - Le futurologue Ray Kurzweil continue d'affirmer qu'il fusionnera avec l'intelligence artificielle afin d'être éternel et fixe l'année 2045 comme marqueur de réalisation de cette nouvelle prédiction de sa part
17/06 - L'intelligence générale artificielle (AGI) dans 3 ans, d'après James Betker, ingénieur chez OpenAI, serait un agent incarné généralement intelligent
27/05 - L'entreprise pétrolière BP affirme avoir besoin de 70% de codeurs en moins car l'IA prend en charge la majeure partie du codage, BP s'appuie sur Copilot de Microsoft dans de nombreux secteurs de son activité
22/05 - Le responsable de la division IA de Meta est d'avis que les grands modèles de langage n'atteindront pas l'intelligence humaine, il travaille sur d'autres pistes susceptibles de déboucher sur cet objectif
16/05 - Selon Sam Altman, PDG d'OpenAI, nous pourrions n'être qu'à une ou deux percées de l'intelligence artificielle générale (AGI), mais ni GPT-4 ni le prochain grand modèle atteindraient le seuil de l'AGI
06/05 - Jensen Huang, PDG de Nvidia : « Dans environ 10 ans, les capacités de calcul des systèmes d'IA seront un million de fois supérieures à ce qu'elles sont aujourd'hui… »
02/05 - Sam Altman : « je me fiche de savoir si nous dépensons 50 milliards de dollars par an, nous construisons l'AGI et cela en vaudra la peine », ce montant dépasse largement le PIB de certains pays
02/05 - Si l'humanité parvient à franchir le goulot d'étranglement que constitue la sécurité de l'AGI, on pourrait entrer dans une nouvelle ère d'épanouissement maximal de l'humanité, selon Demis Hassabis
16/04 - Yann LeCun affirme que l'AGI est inévitable, mais qu'elle n'arrivera pas l'année prochaine et qu'elle ne sera pas uniquement l'œuvre des LLM, il propose une piste pour créer une IA de niveau humain
11/04 - Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d'Elon Musk sur l'IA, Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici la fin de l'année 2025
09/04 - Elon Musk prédit que l'IA va surpasser l'humain le plus intelligent en 2025 ou dès 2026 et que les capacités de l'IA vont dépasser celles de l'ensemble des humains dans les 5 prochaines années
02/04 - Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire
20/03 - Le PDG de Nvidia, Jensen Huang, a déclaré que l'industrie pourrait atteindre une forme d'AGI d'ici à cinq ans, mais précise que ce calendrier dépend de la définition que l'on donne à la technologie
28/02 - « Apprendre à programmer sera inutile à l'avenir », d'après le PDG de Nvidia selon lequel l'intelligence artificielle fera de tous des programmeurs au travers du langage naturel
15/02 - L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI), un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei
13/02 - Le PDG de NVIDIA affirme que les ordinateurs réussiront tous les tests auxquels un humain peut se soumettre d'ici 2029 et ravive le débat sur la possible mise au rebut des développeurs par l'IA
23/01 - L'IA a surpassé l'homme dans un certain nombre de tâches et la vitesse à laquelle l'homme est surpassé dans de nouvelles tâches augmente, un défi pour notre identité et notre avenir collectif ?
23/01 - L'IA pourrait surpasser l'homme dans toutes les tâches d'ici 2047, selon une enquête auprès de 2,778 chercheurs
18/01 - Le PDG d'OpenAI, Sam Altman, affirme que l'IA de niveau humain est imminente, mais qu'elle ne changera pas le monde autant que nous le pensons, et que les craintes autour de l'AGI sont exagérées
10/01 - Quand arrivera l'intelligence artificielle supérieure AGI, quand les humains seront totalement remplacés par l'IA, la fin du monde par l'IA, découvrez toutes les prédictions de 2,778 chercheurs
20/12 - Ray Kurzweil s'en tient à ses prédictions de longue date : l'AGI arrivera d'ici 2029 et la singularité se produira d'ici 2045, mais certains experts sont sceptiques à l'égard de ses prédictions
20/12 - OpenAI dévoile son “Cadre de préparation”, une initiative pour assurer la sécurisation du développement de ses modèles d'IA d'avant-garde, et systématiser la réflexion sur la sécurité
16/12 - OpenAI estime que la superintelligence artificielle AGI pourrait arriver dans les 10 prochaines années, mais demande de l'aide pour en contrôler les risques en annonçant un programme de subventions
14/12 - Enjeux et avantages de l'IA générale : Sam Altman, PDG d'OpenAI, appel au changement de gouvernance, pour éviter la concentration du contrôle
12/12 - Shane Legg, cofondateur de Google DeepMind, est convaincu depuis 2009 qu'il y a 50 % de chances de parvenir à l'intelligence artificielle générale d'ici à 2028 et maintient cette conviction à date
01/12 - Le président de Microsoft a déclaré qu'il n'y avait aucune chance que l'IA superintelligente AGI apparaisse bientôt, et que la technologie pourrait ne pas voir le jour avant plusieurs décennies
30/11 - Le PDG de Nvidia, Jensen Huang, affirme qu'une percée de l'IA appelée AGI aura lieu d'ici cinq ans, avec des machines “assez compétitives” par rapport à l'homme dans tous les domaines
29/11 - « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques
29/11 - Comment vous préparez-vous à la probabilité d'un effondrement économique causé par l'AGI ? Certains suggèrent l'achat d'actions technologiques et d'autres pensent que cela n'arrivera pas
09/11 - Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance, elle suggère des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes
30/10 - L'un des fondateurs de DeepMind pense qu'il y a une probabilité de 50 % que l'AGI existe d'ici 2028 certains estiment qu'il y a des chances que, l'AGI prenne le contrôle de l'humanité et la détruise
27/10 - Ilya Sutskever, directeur scientifique d'OpenAI, sur l'avenir de l'IA : « ce sera monumental, bouleversant. Il y aura un avant et un après », il prédit l'arrivée d'une “superintelligence numérique”
19/10 - L'AGI serait déjà présente, « les modèles d'IA tels que ChatGPT, Bard, LLaMA et Claude ont franchi un seuil que les générations précédentes d'IA n'ont jamais atteint», selon des chercheurs
09/10 - Prévoir l'arrivée de l'AGI : une étude souligne le risque existentiel imminent pour l'humanité, qui pourrait être confrontée à son plus grand et son plus proche péril existentiel
05/10 - L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank
03/10 - OpenAI travaille-t-elle en secret sur un programme d'IA proche d'une forme d'intelligence générale artificielle ? Une rumeur évoque un modèle d'IA qui surpasserait de loin les performances de GPT-4
30/09 - Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain
26/09 - John Carmack, développeur de Doom, pense que l'IA générale (AGI) est réalisable d'ici 2030 et lance un partenariat avec un institut de recherche en Alberta pour en accélérer le développement
18/09 - L'atteinte d'une forme d'IA de niveau humain est-elle plus rapide que prévu ? Il y aurait une chance sur deux pour qu'une « AGI » soit conçue, testée et annoncée publiquement d'ici 2040
03/05 - « L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind pour le développement responsable des systèmes d'IA
Voir tout les dossiers

Envoyé par Stéphane le calme
Un professeur d'informatique du MIT teste l'impact de l'IA sur la formation des programmeurs : l'attention constante portée à l'intégration de l'IA dans la plupart des secteurs d'activité modifie la manière dont l'informatique est enseignée
L’intelligence artificielle (IA) transforme de nombreux secteurs, y compris l’éducation. Une récente expérience menée par Eric Klopfer, professeur au Massachusetts Institute of Technology (MIT), a exploré comment l’IA influence l’apprentissage des programmeurs.
L'automne dernier, Eric Klopfer a décidé de mener une expérience dans son cours d'informatique de premier cycle au Massachusetts Institute of Technology (MIT). Il a divisé la classe en trois groupes et leur a donné une tâche de programmation à résoudre en langage Fortran, qu'aucun d'entre eux ne connaissait.
Chaque groupe avait accès à différents outils pour résoudre le problème :
Un groupe a été autorisé à utiliser ChatGPT pour résoudre le problème;
le deuxième groupe a été invité à utiliser le grand modèle linguistique (LLM) Code Llama de Meta ;
et le troisième groupe n'a pu utiliser que Google, sans assistance d’IA.
L’objectif était de comparer non seulement la rapidité avec laquelle chaque groupe pouvait résoudre le problème, mais aussi la qualité de leur compréhension et leur capacité à retenir les informations. Les résultats
Les résultats ont montré que le groupe utilisant ChatGPT a résolu le problème le plus rapidement, suivi par le groupe utilisant Code Llama, et enfin le groupe utilisant Google, qui a mis encore plus de temps, car il a dû décomposer la tâche en plusieurs éléments.
Cependant, lorsque les étudiants ont été testés sur leur capacité à résoudre le problème de mémoire, les résultats ont été inversés : le groupe ChatGPT « ne s'est souvenu de rien et a échoué », se souvient Klopfer, professeur et directeur du programme de formation des enseignants Scheller du MIT et de The Education Arcade. En revanche, la moitié du groupe Code Llama a réussi le test. Le groupe qui a utilisé Google ? Tous les élèves ont réussi.
« Il s'agit d'une leçon éducative importante », a déclaré Klopfer. « Travailler dur et se battre est en fait une façon importante d'apprendre. Lorsqu'on vous donne une réponse, vous ne vous débattez pas et vous n'apprenez pas. Et lorsque le problème devient plus complexe, il est fastidieux de revenir au début d'un grand modèle de langage pour tenter de comprendre et l'intégrer. »
C'est le vrai problème que causera l'IA au niveau du métier de développeur. Le métier de développeur n'aura plus aucune saveur. Et petit à petit ce “savoir” se perdra. Tout simplement parce qu'il n'intêressera plus personne. Se “former” pour devenir un bon développeur, puis ensuite ne se servir de se savoir que rarement, et en fait surveiller la sortie de l'IA n'a aucun intêret.

Envoyé par Stéphane le calme
En revanche, la décomposition du problème en éléments permet d'utiliser un LLM pour travailler sur de petits aspects, au lieu d'essayer d'utiliser le modèle pour l'ensemble d'un projet, ajoute-t-il. « Ces compétences, qui consistent à décomposer le problème, sont essentielles à l'apprentissage ». Généralement, c'est le “chef de produit” qui s'occupe soit bien de ce travail (car il a au départ une formation de développeur), soit mal (car il n'a pas eu au départ une formation de développeur). Mais actuellement, c'est le développeur qui implémente une partie d'un morceau du soucis, soit s'arrache les cheveux pour essayer de comprendre ce qu'essayé d'exprimer un “chef de projet” qui ne connait rien au métier de développeur.
Mais c'est déjà une “pratique” qui existe maintenant. Avant, il y avait un développeur qui s'occupait de tout le code. Puis les projet se sont complexifiés, pas forcément par nécessité, mais pour des raisons de “marketing” et “segmentation” de marché. Et le développeur ne s'occupe plus de l'ensemble du projet, ce qui est très néfaste pour son impliquation dans le projet. Avant, il créait quelque chose, et maintenant il doit construire des brique sans vue d'ensemble du projet, il ne sait plus s'approprier le projet, et c'est très frustrant. Et puis surtout, ça ne sert pas à grand chose.
Il n'y a pas si longtemps, une équipe de 3 personnes gérait un projet et sortait le produit en 1 ans. Maintenant, c'est 9 personnes qui s'occupe d'un projet, et le produit prend 3 ans a être au point.
C'est la triple peine, des équipes plus grosses, plus de communication, plus de réunions, et des gens démotivés car il savent plus se sentir responsable des bout de code qu'on leur donne à faire. Et celui qui est le mieux placé pour faire avancer le schilblick, c'est le développeur. Parce qu'on peut décrire ce qu'il y a à faire, (mais c'est souvent incompréhensible pour le développeur qui doit partir à la recherche d'information).

Envoyé par Stéphane le calme
Cet exemple a permis à Klopfer de conclure avec confiance que l'informatique n'est pas condamnée à l'heure où l'IA se fraye un chemin dans tous les secteurs d'activité. D'autres experts en informatique conviennent que plus l'IA sera utilisée, plus la nature des emplois changera, et qu'il faudra donc continuer à enseigner aux humains des concepts de base tels que les statistiques et la connaissance du fonctionnement des systèmes. Vu de cette manière, ça retire tout l'intêret du métier.

Envoyé par Stéphane le calme
« Il faut toujours les bases pour être des informaticiens et des ingénieurs logiciels efficaces », a déclaré Beena Ammanath, responsable de l'IA digne de confiance et de la technologie éthique chez Deloitte. Je le redit, ça n'intéressera plus personne, car ce ne sera plus valorisant pour la personne. Et permettez-moi de rire un bon coups quand j'entend de tel dénomination de fonction: responsable de l'IA digne de confiance et de la technologie éthique. Beaucoup de mots mais se qu'ils signifie reste plus que flou. Déjà parce qu'actuellement, il n'y a aucune IA digne de confiance, et j'aimerai qu'on me dise ce qu'est une technologie “éthique” ? La technologie est ce qu'elle est, c'est ce qu'on en fait qui est éthique ou pas.

Envoyé par Stéphane le calme
Malgré toutes les craintes concernant les suppressions d'emplois dues à l'IA, une étude récente du Computer Science and Artificial Intelligence Laboratory (CSAIL) du MIT a révélé que l'automatisation des emplois humains pourrait prendre plus de temps qu'on ne le pensait auparavant. Selon l'étude, seuls 23 % environ des salaires liés aux tâches de vision pourraient être remplacés de manière rentable par l'IA, ce qui indique que le déplacement des emplois dû à l'IA, en particulier dans le domaine de la vision par ordinateur, risque de se produire plus lentement qu'on ne l'avait envisagé au départ. Bein oui, quand l'IA sera au point, et ne fera plus de bugs, oh pardon, on doit dire “hallucination” dans le jargon de l'IA.

Envoyé par Stéphane le calme
Les résultats « suggèrent que nous devrions nous attendre à ce que les effets de l'automatisation de l'IA soient moins importants que les effets d'automatisation/destruction d'emplois déjà observés dans l'économie », indique l'étude. « Il n'est pas certain que l'ajout de l'automatisation par l'IA à ces effets existants augmentera de manière substantielle la destruction globale d'emplois. Bien qu'il soit probable que des emplois soient perdus, « nous pensons également qu'une fraction substantielle de l'automatisation des tâches par l'IA se produira dans des domaines où l'automatisation traditionnelle est en cours », observe l'étude du CSAIL. Comment l'enseignement de l'informatique va évoluer pour aborder l'IA
L'accent mis sur l'intégration de l'IA dans la plupart des secteurs d'activité va également modifier la manière dont l'informatique sera enseignée, offrant des opportunités « tout à fait considérables », selon Risto Miikkulainen, professeur d'informatique à l'université du Texas à Austin et vice-président associé de l'intelligence évolutive chez Cognizant AI Labs.
Avec l'arrivée d'outils tels que le chatbot Copilot de Microsoft, par exemple, certains pourraient se demander pourquoi ils devraient se donner la peine d'apprendre à coder. Miikkulainen pense que les étudiants utilisent Copilot et d'autres chatbots principalement « comme un tuteur pour les devoirs de programmation » afin de suggérer des modifications.
« Tout d'un coup, l'enseignement de la programmation devient beaucoup plus vivant », explique Miikkulainen.
Reid Gordon Simmons, professeur de recherche à l'Institut de robotique de l'université Carnegie Mellon, ajoute que, de la même manière que les compilateurs traduisent le code source d'un langage de programmation en code machine, ce qui évite aux ingénieurs en informatique d'avoir à comprendre les assembleurs, « l'utilisation de l'IA et de la ML rendra de moins en moins nécessaire la compréhension des détails du codage ».
Cependant, il est toujours important d'apprendre aux gens à coder, tout simplement parce qu'une partie du travail d'informaticien consiste à comprendre les processus, a déclaré Simmons. « Mon analogie est d'enseigner l'arithmétique à des enfants de sept ans. Lorsque vous arrivez au collège, plus personne ne fait d'arithmétique à la main ; vous utilisez des calculatrices ». Faudrait savoir, l'IA va tout pondre via un prompt du marketing ou bien il faudra toujours savoir développer ?

Envoyé par Stéphane le calme
Même si les calculatrices peuvent faire le travail à votre place, vous devez toujours comprendre les concepts, a-t-il ajouté. « De même, les informaticiens devront comprendre les principes fondamentaux de la programmation afin d'être efficaces dans leur travail, mais tout comme avec les calculatrices, ils n'auront pas à coder beaucoup ». Et si on demandait à un physicien nucléaire de faire 10 ans d'étude pour connaitre le métier, puis qu'il ne peut que vérifier si l'IA ne se trompe pas ? On ira droit dans le mur, car petit à petit, on fera de plus en plus confiance à l'IA, et quand surviendra un problème à une centrale nucléaire que l'IA ne sait réssoudre, le gars dont on a mit les compétance en veilleuse pendant 20 ans, il ne va forcément bien réagir, ni rapidement, parce le savoir se sera perdu au fil du temps.
C'est finalement comme une tesla AutoPilot FSD qui conduit toute seule (enfin, l'année prochaine, comme c'est promis toutes les années), mais dont l e conducteur doit rester à l'éveil, pour “reprendre la main” en cas de soucis. Reprendre la main en cas de soucis prend plus de temps que si on est concentré sur la conduite au moment de prendre une décision.

Envoyé par Stéphane le calme
L'IA nécessite l'enseignement de disciplines ou d'aspects entièrement nouveaux de l'informatique, tels que l'IA responsable et la manière d'empêcher l'utilisation abusive de l'IA, a déclaré Miikkulainen. « Il y aura tellement de gens qui utiliseront [les systèmes d'IA] sans comprendre ce qu'il y a sous le capot ». Ah oui bien sur, l'IA fera tout, mais si ça foire, ce sera pas à cause de l'IA, mais de son utilisateur. Et comment définir ce qu'est une utilisation abusive de l'IA ? Parce que ça m'étonnerait que la réponse soit la même en chine qu'usa on europe ou

Envoyé par Stéphane le calme
De nouvelles filières universitaires apparaîtront également dans des domaines tels que la science des données, l'apprentissage automatique, l'expérience utilisateur et l'ingénierie mobile, ainsi que dans des branches spécifiques de l'IA, telles que l'IA générative, les LLM et la vision par ordinateur, a déclaré Ammanath de Deloitte. Cela permettra non seulement de préparer les étudiants aux emplois du futur proche et de les rendre plus commercialisables, mais aussi de maintenir la compétitivité des États-Unis par rapport aux autres pays dans la course mondiale à l'armement en matière d'IA. Bein si c'est ça le futur, je suis bien content que je ne serait plus là pour le voir. Puisse qu'on parle d'éthique un peut plus haut, si on utilisait l'IA pour libérer l“homme de certaines tâches, et qu'on les laissent s'épanouir sur des choses qu'ils aiment vraiment ? Non, bien évidemment la course à la sacro-sainte “productivité” qui ne profite qu'a une élite bien installée, ce n'est pas l'idée, suis-je bête.

Envoyé par Stéphane le calme

  Les éducateurs face aux hallucinations des LLM : enseigner à être sceptique dans un monde de textes générés par l'IA

Les éducateurs sont prudents, compte tenu de la tendance à l'hallucination du LLM. « Nous devons apprendre aux étudiants à être sceptiques à l'égard des résultats et à s'approprier la vérification et la validation de ces derniers », explique Jeanna Matthews, professeur d'informatique à l'université Clarkson de Potsdam, dans l'État de New York. .
Il ajoute que l'IA générative « peut court-circuiter le processus d'apprentissage des étudiants qui s'y fient trop ». Chang reconnaît que cette dépendance excessive peut être un piège et conseille à ses camarades étudiants d'explorer eux-mêmes les solutions possibles aux problèmes afin de ne pas perdre cette pensée critique ou ce processus d'apprentissage efficace. « Nous devrions faire de l'IA un copilote - et non le pilote automatique - de l'apprentissage », déclare-t-il.
ChatGPT a impressionné le monde par la profondeur de ses connaissances et la fluidité de ses réponses, mais un problème a entravé son utilité : Il n'arrête pas d'halluciner. Oui, les grands modèles de langage (LLM) hallucinent, un concept popularisé par les chercheurs en IA de Google en 2018. Dans ce contexte, l'hallucination fait référence à des erreurs dans le texte généré qui sont sémantiquement ou syntaxiquement plausibles, mais qui sont en fait incorrectes ou absurdes. En bref, vous ne pouvez pas faire confiance à ce que la machine vous dit.
C'est pourquoi, même si le Codex d'OpenAI ou le Copilot de Github peuvent écrire du code, un programmeur expérimenté doit toujours examiner le résultat - l'approuver, le corriger ou le rejeter avant de le laisser se glisser dans une base de code où il pourrait faire des ravages. Les enseignants du secondaire apprennent la même chose. Un rapport de lecture ou un essai historique rédigé par ChatGPT peut être facile à lire, mais peut facilement contenir des « faits » erronés que l'élève était trop paresseux pour déceler.
Les hallucinations constituent un problème sérieux. Bill Gates a imaginé que ChatGPT ou d'autres modèles linguistiques de grande taille pourraient un jour fournir des conseils médicaux aux personnes qui n'ont pas accès à un médecin. Mais on ne peut pas se fier aux conseils d'une machine sujette aux hallucinations. Mais que tout cela est beau. On va former des chirurgiens qui ne fera que 3 opérations dans leur vie ? Vous croyez vraiment que ça va intéresser quelqu'un ? Non, on jetera sur la personne dans une benne, et vive le soleil vert (les connaisseurs comprendront)
Conclusion

Envoyé par Stéphane le calme
L’expérience de Klopfer au MIT offre des leçons précieuses pour l’intégration de l’IA dans l’éducation. Bien que l’IA puisse accélérer la résolution de problèmes, elle ne doit pas remplacer les méthodes d’apprentissage qui encouragent la compréhension et la rétention à long terme. Les éducateurs doivent trouver un équilibre pour tirer le meilleur parti des technologies avancées tout en assurant un apprentissage efficace et durable.
Quelles sont vos pensées sur l’utilisation de l’IA dans l’éducation ? Pensez-vous que les outils d’IA devraient être intégrés davantage dans les programmes scolaires, ou y a-t-il des risques à considérer ? Partagez vos opinions dans les commentaires ci-dessous !
Sources : MIT Scheller Teacher Education Program, Au-delà de l'exposition à l'IA : quelles sont les tâches qu'il est rentable d'automatiser grâce à la vision par ordinateur ?, ACM
Et vous ?
Quels sont, selon vous, les avantages et les inconvénients de l’utilisation de l’IA comme outil d’apprentissage pour les programmeurs ?
Pensez-vous que l’IA pourrait remplacer les méthodes d’enseignement traditionnelles, ou devrait-elle être utilisée en complément ? Pourquoi ?
Avez-vous déjà utilisé des outils d’IA pour apprendre à programmer ? Si oui, comment cela a-t-il influencé votre apprentissage ?
Comment les éducateurs peuvent-ils équilibrer l’utilisation de l’IA avec des méthodes d’apprentissage plus traditionnelles pour garantir une compréhension approfondie des concepts ?
Quels sont les risques potentiels de dépendre trop fortement de l’IA pour l’éducation, et comment pouvons-nous les atténuer ?
Pensez-vous que l’IA pourrait aider à personnaliser l’apprentissage en fonction des besoins individuels des étudiants ? Si oui, comment ?
Comment voyez-vous l’avenir de l’éducation en informatique avec l’intégration croissante de l’IA ? [/QUOTE]
Il y a 2 possibilité. Soit l'IA remplace l'fomme et bienvenu dans le monde “d'Idiocratie”, Soit l'IA telle que réveé par certains ne sera pas là avant des dizaine d'année si pas des milliers. Sans compter que tout se ressemblera, l'IA n'inventant rien.
le 10/09/2024 à 2:50

Qu'est devenu l'homme de Neandertal quand l'homme de Cro-Magnon est apparu ?
Il s'est “fondu” dedans.
Tiens cela me rappelle “le grand remplacement”, théorie complotiste d'extrême droite. Et si c'était vrai ?
Alors ce n'est plus un problème : ce qui disparaît, disparaît.
Au fait, un complot, comme une conspiration, n'est pas une théorie : i'a ou i'a pas
Comment une IA pourrait avoir un but (merci de développer, ça m'intéresse énormément) ?
le 10/09/2024 à 9:49

Ce que tu décris de la révolution industriel est une amélioration des conditions de travail de l'être humain. La grande différence est que l'être humain deviendra obsolète car remplacé par un robot ou une IA, qui fera mieux, travaillera tout le temps, coutera moins cher et surtout ne se mettra pas en grève pour des revendications à troubler la bonne marche d'une entreprise.
C'est exactement le risque que je décrit.
Cette perte de savoir se fait depuis l'orgine de l'homme. Une ancienne technique est remplacée par une nouvelle, moins contraignante en donnant plus d'avantage, voire même moins couteuse. On nomme cela le progrès et quel est l'intérêt d'y revenir puisqu'on sait faire mieux ? Parce que je trouve stupide de se passer de ce qui été inventé/trouvé par nos ancêtres. Il y a des constructions antiques qui sont retrouvées et que des Architectes avec toutes les machines et les ordi qu'on a, disent qu'on ne serait plus capable de faire maintenant.
Un autre exemple plus simple, le boulier compteur. C'est l'outil idéal pour enseigner les mathématiques au enfants quant ils commence leur apprentissage. Mais on ne s'en sert plus.
Le gros problème, que tu ne soulèves pas, est la dépendance de l'homme à ses machines. Que va-t-il faire si elles viennent à tomber en panne, et si l'homme ne sait plus les réparer ? Plus on va se reposer sur ses machines et plus il y a un danger pour l'avenir de l'homme. Oui exactement, plus on utilise des choses plus intelligentes, moins on le devient. On va me dire que je suis un vieux Dinosaure, mais a force d'avoir des langages de plus en plus facile à “utiliser”, on en oublie les bases. Je connais peut de développeur qui savent encore faire de l'assembleur. On me dira que ça ne sert à rien. Mais au contraire, cela est indispensable pour comprendre pleins de choses.
Va-t-on vers une société dystopique à la Orwell (1984 de George Orwell) ou à la Huxley (Le Meilleur des mondes de Aldous Huxley) ? Ce qui est certain, notre mode de vie va considérablement changer, et il y aura nécessairement des laissés-pour-compte. Je vois que tu as les mêmes références que moi. Ce sont 2 vues qui sont opposées au départ, mais qui finissent mal toutes les deux… Et pour ma part, 1984, on y est déjà depuis des années.
Une chose certaine est que le QI de l'homme va tôt ou tard attendre un maximum et ne pourra plus évoluer. Se faire aider par nos machines, pourquoi pas, mais nous ne devons pas jouer aux apprenties sorciers er perdre le contrôle. Ou encore penser que nos machines pourront toujours résoudre nos problèmes que nous produisont car nous nous comportons comme des êtres irresposales. Non seulement il va plafonner (même le QI ne veut pas dire grand choses), on peut être à la très intelligent mais très con, ou être peu instruit, mais être malin. Il ne va pas seulement plafonner, il va régrèsser. Un film à voir, “Idiocratie”. On est en pleins dedans.
Le gros problème de l'avenir de nos sociétés, est de trouver une stabilité que ce soit dans la préservation de nos ressources (on a qu'une seule planète), dans l'accumulation du savoir mais surtout dans celle du bien être humain (et des animaux aussi). Arrêtons de croire que cette frénésie du progrès va tout résoudre. Nous sommes des êtres irresponsables ou seul la violence est la règle. Il faudrait mettre enfin un peu d'intelligence dans ce que nous faisons, et là, c'est pas gagné. C'est même perdu d'avance. Et oui, le “progrès” ne vas pas nous sauver, et il est donc important de revenir en arrière, et de ne pas oublié des choses élémentaires.
Il n'y a rien de politique, juste une provocation de ma part pour vous faire réagir sur des similitudes entre ce qui se passe actuellement dans nos sociétés et l'avenir radieux que nous propose des utopistes irresposables. Merci, mais je sais réfléchir par moi-même et je vois bien que l'on ne vas pas dans la bonne direction…
Et donc, cela vous empêches de réfléchir par vous même ? Vous préférez être un mouton et suivre le troupeau. Tant mieux pour vous, ou plutôt tant pis si d'autres vont réflechir à votre place et faire des choix que vous allez regrêter par la suite. Je pense avoir exprimer exactement le contraitre.
Cela se nomme une “révolution”, ou si vous préférez un tour pour rien et on recommence là où tout a débuté. Mais comme l'homme n'a pas trop de mémoire, on va recommencer à faire les mêmes erreurs jusqu'à ce que nous ne pouvons pas faire autrement que de prendre enfin un autre chemin.
Le contrôle sur qui ? Sur lui-même ? Cela se nomme de la politique et l'on voit bien le désastre que cela occasionne en ce moment.
Les forts imposent aux faibles les choix qui ne font que les avantager.
Le danger est ce déséquilibre permanent de nos sociétés jusqu'au jour où on aurra franchit le point de non retour. Le point de non retour a déjà été dépassé depuis des années.
Pas à l'âge de pierre mais dans une société de servitude, en prenant par la force ce que l'autre possède ou a su préserver jusqu'à présent. Il n'y a pas plusieurs choix qui se proposent à nous. La seul et unique voie est de trouver la stabilité, le fameux savoir vivre ensemble, si cela est encore possible. Ah, le fameux “vivre ensemble”… C'est une bien belle idée, mais malheureusement, ce n'est qu'une utopie. 2 civilisations autant éloignées l'une de l'autre, ça ne peut que mal finir. On peut mélanger de l'huile et de l'eau tant qu'on veux, mais dès qu'on s'arrête de mélanger, les 2 se reséparent. Jamais, dans l'histoire de l'humanité, 2 civilisations opposées n'ont su vivre ensemble. Il y a toujours un gagnant et un perdant. C'est désespérant, mais c'est ainsi. C'est dans la nature humaine.
Parce qu'elles n'ont pas su évoluer vers plus la stabilité et n'ont fait que se reposer sur leur acquis. Autrement dit, après avoir atteint un summum de ce qu'elles ont pu produire, elles ont régréssé. Et je ne vois pas pourquoi notre “génération” finirait autrement…
Et non, c'est le contraire. Le niveau de la mer était beaucoup plus bas que maintenant. On a retrouvé des cités à plus de 150m sous le niveau actuel, comme en Inde. Le niveau des océans peuvent monter à un endroit et descendre à un autre. Et on a bien découvert, du côté de Rome, le lit d'un ancien court d'eau, qui permettait de pratiquement rentrer à rome en bateau.
@ OuftiBoy : cela ne sert à rien d'avoir une vision pessimiste. Nous avons des problèmes et nous devons trouver des solutions. Ce n'est pas en ne faisant rien que l'on va les résoudre, ni en faisant n'importe quoi que cela ira mieux. Que ce soit l'IA ou la politique, ce sont des problèmes de société qui concernent tout le monde. Nous ne devons pas capituler, ni laisser d'autres faire les choix à notre place. C'est un peu trop facile de créer des problèmes pour laisser à la postérité le choix (si c'est encore possible) de les résoudre. Plus on attendra et plus il sera difficile de les résoudre. Je ne suis pas pessimiste, je suis réaliste et lucide. Mais si vous avez des solutions pratiques (et pas utopique) a avancer, merci de les partager avec nous. Je suis impatient de savoir.
@ OuftiBoy : le -1, ce n'est pas moi. Oh, ce n'est le genre de chose que je regarde. Mais puisque vous en parler, au lieu de mettre des -1 sans expliquer pourquoi, ça n'a pas d'intérêt.
BàV et Peace & Love.
le 11/09/2024 à 20:31

C'est le vrai problème que causera l'IA au niveau du métier de développeur. Le métier de développeur n'aura plus aucune saveur. Et petit à petit ce “savoir” se perdra. Tout simplement parce qu'il n'intêressera plus personne. Se “former” pour devenir un bon développeur, puis ensuite ne se servir de se savoir que rarement, et en fait surveiller la sortie de l'IA n'a aucun intêret.
Je pense que l’IA aura toujours des difficultés. Ok pour travailler sur un projet neuf, il apportera une expertise sur les API sur lesquels il est entraîné (si doc et exemple disponible bien sûr).
Par contre apprendre les méandre de la documentation d’un projet interne pour s’y interfacer, j’y crois moins. Or dans les grands projets, il y aura beaucoup de cela.
Enfin, cela élèvera le niveau d’intervention plus architecte que développeur. Cela peut convenir à certains et pas à d’autres.
On peut faire dire à l’IA n’importe quoi : [1, 2]: This is a list containing two elements, 1 and 2, separated by a comma. This is the standard way to define a list in OCaml. … or c’est le ; la seule manière de séparer les éléments d’une liste en OCaml. Ok, le langage est moins connu que C et l’IA a moins de matière à apprendre, mais dans le cas d’une API interne, cela sera pire.
le 11/09/2024 à 6:37

Salut à tous. Quel est le but de l'IA ? Faire mieux, plus rapidement et moins cher. N'est-ce pas le but économique de toute entreprise ! Tout ce qui vient entraver ce but sera obsolète ! C'est effectivement le but, on pourrait faire le parrallèle avec la 'robotisation' des chaîne de production dans les années 70-80, mais il y a une énorme différence par rapport au changement qui en a découlé. (j'y revient après).
Et quand est-il de l'aspect sociologique ? Je veux dire où va se situer l'homme dans tout ça ? Ne serait-il pas la grande inconnue que l'IA ne sait pas résoudre ? L'homme ? Je ne pense pas que ceux d'en haut se préoccupe de ceux d'en bas. ça n' jamais été le cas dans l'histoire, et ça ne vas pas changer de si tôt.
Qu'est devenu l'homme de Neandertal quand l'homme de Cro-Magnon est apparu ? Que deviendra l'homo sapiens (l'homme moderne) quand l'IA apparaitra ? Je ne suis pas historien, et surement pas spécialiste en ce domaine, mais il n'y a que 2 réponses:
- Soit il a été balayé par l'homo sapiens,
- Soit il s'est “fondu” dedans,
Mais c'est sûrement un mélange des deux…
Mais là ou je voulais en venir, c'est que la révolution industriel, la robotisation, à permis à une floppée de personnes (et à une majorité), de ne plus devoir faire toute une sorte de travaux pénibles.
- Ne plus avoir a descendre dans une mine pour aller y perdre ces poumons,
- Ne plus devoir se casser le dos a porter des chargent très lourdes,
- Ne plus devoir travailler comme un força pour labourer un champ,
- Ne plus devoir faire et refaire le même “mouvement” ou la même chose durant toute ça vie.
- …
Dans le cas de la révolution industriel, elle a “profité” à l'homme, même si tous n'en n'ont pas profité de la même manière.
Dans la “révolution de l'IA”, il y aura un changement, mais vert le bas plutôt que vers le haut, pour ce qui concerne l'homme. Si l'IA remplace tout (ce qui n'arrivera pas avant longtemps), on lui demandera de moins en moins (a l'homme) de “penser” et petit à petit tout un “savoir” risque de disparaître. Plus besoin d'ingénieurs (L'IA pondra les plans d'un pont, d'un immeuble), plus besoin de développeurs (l'IA fera le taf via un prompt), plus besoin de chirurgiens, etc. Bref, on peut multiplier les exemples qui iront dans ce sens. Et on se retrouvera dans l'idiocratice (voir le film du même non). Et le monde régressera, l'humain ne s'interessera plus a cultiver leur savoir, car cela n'aura plus d'intérêt, et au final, c'est toute la société qui fera un retour en arrière. Il 'y aura plus personne pour “innover”, “bousculer les idée reçues”, juste des plantes dans un transat autours d'une piscine au départ, puis ça finira en dictature (car l'homme n'aura plus de valeur, donc plus nécessaire, etc)
Tiens cela me rappelle “le grand remplacement”, théorie complotiste d'extrême droite. Et si c'était vrai ? Je ne veux pas rentrer dans un débat “politique” de bas niveau, surtout comme vous abordez le sujet, qui est assez dérangeant, en éludant un sujet avant même d'en discuter, en faisant un lien direct entre “grand remplacement” et “théorie complotiste” et forcément “d'extrème droite.” C'est extrêmement récucteur et c'est des propos qui on infusé lentement dans la majorité d'une partie de la population, car on est matraqué d'idées (je dirais même d'idéologie) via des “média” et autre “artistes”, tous du même bord, conduisant à une pensée unique et balayant d'un revert de la main dédaigneux, tout discours contradictoire.
BàV.
et Peace & Love.
le 11/09/2024 à 9:12

Et le monde régressera, l'humain ne s'interessera plus a cultiver leur savoir, car cela n'aura plus d'intérêt, et au final, c'est toute la société qui fera un retour en arrière. Il 'y aura plus personne pour “innover”, “bousculer les idée reçues”, juste des plantes dans un transat autours d'une piscine au départ, puis ça finira en dictature (car l'homme n'aura plus de valeur, donc plus nécessaire, etc)
Et pour moi c'est là que le cycle se relance,
Que se passe-t-il quand les choses dysfonctionnent trop pour qu'elles deviennent viables?
1. L'humain doit reprendre le contrôle pour avoir des voitures qui roulent, des ordinateurs qui tournent, une tondeuse qui tond etc.
2. L'humain abandonne ces besoins et revient à l'âge de pierre.
Perso : je crois plus dans le 1, nous aimons trop notre confort pour qu'il n'y ai pas un petit génie qui refait un truc qui remplit son besoin. Truc qui va intéressé ses voisins qui devront apprendre à le faire aussi etc.
Et pour moi l'âge de pierre est surtout notre vision actuelle, ce passage sera peut être la révolution vers un système plus censé que le capitalisme actuel.
le 11/09/2024 à 11:38

Cette perte de savoir se fait depuis l'orgine de l'homme. Une ancienne technique est remplacée par une nouvelle, moins contraignante en donnant plus d'avantage, voire même moins couteuse. On nomme cela le progrès et quel est l'intérêt d'y revenir puisqu'on sait faire mieux ?
Le gros problème, que tu ne soulèves pas, est la dépendance de l'homme à ses machines. Que va-t-il faire si elles viennent à tomber en panne, et si l'homme ne sait plus les réparer ? Plus on va se reposer sur ses machines et plus il y a un danger pour l'avenir de l'homme.
Cas concret que j'ai eu personnellement pour compiler une version récente de gcc sur une architecture exotique, GCC (et surrement tous les compilateur moderne), nécessite désormais GCC version n-1 pour etre compilé. Impossible de construire gcc avec que du code machine.
d'ailleurs ces codes machines c'est tres moderne, c'est très compliqué de revenir aux cartes perforés d'ou sont apparues les 1eres technologies.
On est déja dans ce monde des dépendances quand on a besoin d'un compilateur pour construire un compilateur
Si ca tombe en panne, c'est pas grave, avec la redondance, on utilise un autre ordinateur. Il est impossible que tous les ordinateurs du monde explose au même moment.
Donc on réplique la technologie tant hardware que software (les disques en raid, répartie sur plusieurs régions dans le monde)
après, n'importe quel humain avec une simple encyclopédie/des manuels peut refabriquer quasi toutes les technos datant d'avant 1950.
la machine de turing c'est assez enfantin a faire, les radios aussis…etc. donc meme si on revenait à l'age de pierre, tant qu'on garde une trace écrite de ces connaissance, on serait capable assez vite de revenir au niveau technologique d'aujourd'hui, en a peine 20-30ans max.
sur l’échelle de l'humanité c'est rien. Je rappelle que homo sapiens à plus de 100000ans, et a passé 99.99% de sont temps a vivre sans électricité, sans machine à vapeur (19ieme siecle), a juste élever des poules dans des cabanes en bois/pierres.
le 11/09/2024 à 16:43

C'est le cas des pyramides comme celle dite, soi-disant de Kheops que l'on n'arrive pas à expliquer comment elle a été construite.
Il y a bien d'autres exemples, qui commencent seulement a être étudiés, car la technologie le permet. On retrouve par exemple le même type de construction, par assemblage de pierres d'une taille et d'un poid monumentales, mais qui sont placés au 1/10è de millimètres près. Et ces motif de constructions sont identiques à différents endroit de la planète. Comme si ces civilisations communiquaient entres-elles, alors qu'on nous dit qu'à cette époque, l'homme n'était qu'un chasseur ceuilleur qui savait a peine parler. Je ne parle même pas que beaucoups de ces constructions ne sont pas faites ni orientée n'importe comment, il y'a clairement eu des civilisations, bien avant la nôtre, qui avaient des connaissances très poussées dans plusieurs domaines.
Je suis donc un vieux Dinosaure puisque je sais développer en assembleur. J'ai appris la programmation sur des processeurs comme le 6502, 6800, Z80, 68000 à l'IUT. J'étais une des rares personnes à savoir developper en assembeur IBM370 quand je travaillais puisque maintenant je suis à la retraite. Je fais aussi de l'assembleur sur mes Raspberry Pi. On peut dire ça c'est pas péjoratif. Moi j'ai fais mes armes sur un C64 en 1984, j'avais 14 ans, et j'étais émerveiller par tout le potanciel que j'avais à portée de main.
Je connais les bases puisque cela faisaient parties du cursus de l'apprentissage de l'informatique. J'ai travaillé sur des PDP-11, des solar 16/40 et des Iris 80. Oui, j'ai connu les perforatrices pour cartes perforées. Je me souvient du cours d'assembleur 6H/semaines. Tout le monde avait peur de ce cours, car la moyenne de réussite en première session était de 10%. Moi, j'adorais, c'était LA porte d'entrée à un monde magique.
Mes références sont surtout cinématographiques. Il n'y a pas de sociétés utopiques idéales. Il y a des communautés utopiques qui ont été crées, mais c'est généralement des micro-sociétés, et il y en a très peu qui “survivent longtemps”. Dans certains villages de nos campagnes, il y a encore des îlots où il y a une vraie entraide entre les gens, mais ils sont de moins en moins nombreux. Il y a des raisons à cela, mais il est interdit de dire d'où vient le problème. Et a force de ne pas nommer les choses telles qu'elles sont, on s'enfonce de plus en plus, et les solutions sont impossibles à mettre en place.
Ce que l'on nomme QI ne concerne qu'un des aspects de l'intelligence, celle logico-mathématique. En fait, il y en a huit. Je ne suis pas spécialiste en ce domaine, mais des personnes très instruitent mais très connes, ça cours les rues. Et il y a des gens peu instruit, mais qui on plus de bons sens. Le savoir n'est utile que si on en fait quelque chose.
Le progrès n'est pas en cause, mais ce que l'on en fait. Il y a un sérieux manque d'intelligence dans notre façon de gérer nos sociétés. Le problème est selon moi essentiellement politique. Tout dépend ce qu'on appel progrès, et si, je pense que certains progrès sont très néfastent en fait. Nous vivons dans un monde hyper connecté, mais plus personne ne parle à personne. Le Smartphone, par exemple, est un “progrès” qui est en fait la source de bien de soucis. Quant à la politique, je n'y crois plus depuis longtemps. Il suffit de suivre un peu la “chose publique” pendant quelques semaines pour se rendre compte du cirque qu'est la politique. On nous fait croire qu'on est en démocration, parce qu'on peut “choisir” ses représentants par le vote, mais c'est un leurre. En fait, la politique, c'est comme la vente d'un produit. On arrive à nous mettre dans le crâne qu'on doit choisir entre le produit X ou le produit Y, pour qu'on ne se pose même plus la question de savoir si on a besoin du-dit produit.
Nous n'avons pas encore franchi ce point de non retour. Aucun rapport avec le changement climatique. Mais ce qui se dégrade de plus en plus, est bien notre manque d'intolérance et du savoir vivre ensemble. La télévision et les journalistes sont responsables de cette dégradation. Et le politique ne fait que jeter de l'huile dans le feu. A force de monter les uns contre les autres, nous allons avoir une guerre civile. Le problème est bien plus profond que ça. L'intolérance n'est pas une cause, mais une conséquence. A l'inverse du fameux “vivre ensemble” qui est lui une des causes de nos soucis. Je ne sais pas comment tu t'informes, mais il y a clairement des idéologies je dirait “très à gauche” dans presque l'ensemble de ce qui est presse, média, artiste. Il y a des chaines qui sont plus nuancées, mais comme elle ne propagent “la pensée unique”, elles sont qualifiées d'extrême-droite, et sanctionnée “parce qu'elle n'ont pas assez de mixité d'idées”, alors que tous ce qui sort du “service public” il n'y a qu'un point de vue qui est exposé. C'est tellement flagrand. Plus c'est gros, plus ça passe.
On nomme cela une émulsion
. Pour que cela fonctionne, il est nécessaire d'ajouter un troisième ingrédient qui va créer la stabilité du mélange. Sans cela, pas de stabilité. C'est bien beau, mais quelle est se troisième ingrédient ? Ce qui est possible en chimie n'est pas transposable à une société.
L'exemple de la Palestine et d'Israel ne fonctionnera jamais car il y a deux peuples qui veulent se partager le même territoire avec des us et coutumes très différents. Et en plus, il n'y a aucun repect l'un envers l'autre. C'est exactement ce que je dis. 2 civilisations qui sont tellement éloignées l'une de l'autre ne peuvent, qu'au mieux, vivre cote à cote un certains temps, puis le le cote à cote tourne au face à face. On est là, et il n'y a pas besoin d'aller aussi loin qu'en palestine, il suffit de sez rendre dans n'importe quelle villeplugin-autotooltip__blue plugin-autotooltip_bigWikikPedia

WikikPedia
un peut grande pour s'en rendre compte.
Qui se ressemble s'assemble mais pas l'inverse. C'est une autre manière de dire la même chose que ce que je dis.
Il ne s'agit pas de “génération” mais de civilisation. Elles naissent, vivent et meurent comme tout ce qui est vivant sur terre. C'est la règle. Mais on peut faire qu'elles vivent le plus longtemps possible. Oui, c'est une question de civilisation (ou plutôt de non-civilisation), mais qui éclate avec la dernière génération.
Ce sont les marrées dues à l'attraction de la lune sur la terre. Merci de l'info, mais je sais ce qu'est une marrée . Il ne s'agit pas de cela. Du côté de l'italie, le niveau de la mer était plus haut il y a 2000 ans que maintenant.
Sauf qu'il ne s'agit pas de cela, mais bien de la fonte des glaces depuis la dernière glaciation. A priori, le niveau de la mer a monté d'environ 150 mètres depuis 12 000 ans et l'on commence à peine à s'inquiété de cela qu'aujourd'hui. Je ne parle pas d'il y a 12000 ans, mais d'il y a 2000 ans. Quand au niveau de la mer qui monterait d'1m d'ici 2100 “si on ne fait rien”, c'est du PIPEAU. Que l'activité humaine ajoute 1m aux 150m du aux cycles de glaciation/réchauffement de la planète, c'est peanuts. Au lieux d'essayer de contrer l'inévitable, et de dépenser une énergie et un temps et d'argent de dingue pour essayer (en vain) d'éviter ce qui de toute façon arrivera, il suffit de s'y adapter. Tout le reste ce n'est que des gesticulations et de l'agitation d'association pour récolter des subsides.
Cela ne va pas se faire en cinq minutes. En fait, ça ne va pas se faire du tout, car il n'y a rien de possible à faire.
Nous sommes trop nombreux sur terre. La baisse de la natalité devra être mise en place pour réduire la polution que l'on provoque. C'est comme la retraite, il faut trouver le point d'équilibre pour que cela fonctionne. Et qui va choisir qui peut avoir ou pas des enfants, en se basant sur quel critère ? Cela n'arrivera pas. Ou la population se régulera d'elle-même (plus un pays est instruit/civilisé, moi ont y fait d'enfants). L'Afrique va doubler sa population d'ici 30 a 40 ans. Rien ne pourra être fait pour lutter contre. Et je ne suis pas certains que la surpopulation soit le fond du problème. C'est plutôt la manière dont on gère très mal et très injustement les ressources. Ce qui se passe en ce moment, c'est qu'on va habituer (par des procédés de manipulations) 90% de la planète a manger des insectes, et les autres produit de luxe, ce sera pour les autres 10%. Si tu est cinéphile, faut regarder “Soleil Vert”.
Cela n'a aucun intérêt de dire que l'on n'est pas d'accord si l'on n'explique pas le pourquoi de cette désapprobation. Il faut argumenter ! On va se rendre compte que la différence est dans l'approche et non dans le résultat final. Je suis bien d'accord, mais je constate que ce n'est pas le cas.
BàT et Peace & Love.
le 12/09/2024 à 1:17

Une chose certaine est que le QI de l'homme va tôt ou tard attendre un maximum et ne pourra plus évoluer. Se faire aider par nos machines, pourquoi pas, mais nous ne devons pas jouer aux apprenties sorciers er perdre le contrôle. Ou encore penser que nos machines pourront toujours résoudre nos problèmes que nous produisont car nous nous comportons comme des êtres irresposales.
Le QI mesure une norme de l'intelligence, sa variation globale montre juste la capacité d'une société à répondre à des besoins marqués dans le temps.
Nous vivons déjà cette dette technologie depuis quelques décennies, combien d'ingénieurs présentent des résultats qui n'ont pas de sens parce qu'une machine (mal configurée) les a craché.
Pourquoi ce système fonctionne encore malgré tout?
Parce que les vieux briscards ont acquis l'expérience et savent que le résultat devrait avoisiner telle valeur ou ne peut pas être telle valeur.
Parce que mon mauvais résultat génère des aberrations chez le voisin qui se retrouve avec un pièce bien trop grosse.
Parce qu'on teste ce qu'on fait (en tout cas avant de vendre) et qu'à un moment si ça ne marche pas c'est qu'on s'est trompé quelque part.
Et ceci devrait plutôt se maintenir dans le temps sauf si on commence à tout valider par modélisation théorique, ce que j'ai entendu de certains de nos “cerveaux”. (J'ai entendu un “jeune sage” il y a quelques semaines qu'un modèle ment par définition - tant qu'on aura des gens comme ça qui peuvent être écouté je resterais optimiste).
Le gros problème de l'avenir de nos sociétés, est de trouver une s

× iphelper toolbox

you see this when javscript or css is not working correct

Untested
IP Address:
First usable:
Subnet:
Last usable:
CIDR:
Amount of usable:
Network address:
Reverse address:
Broadcast address:

elsenews/spot-2024/09/impact-ia.txt · Dernière modification: 16/09/2024/H14:36:24 (modification externe)