Daily Notes

Just a moment...

Just a moment... ✍Highlight–2025:01:14:16:36:32

ABSTRACT
The Arctic has emerged as a crucible of geopolitical ambition, where global superpowers vie for dominance over resources, security, and strategic influence. Amidst this evolving theater, Danish MP Karsten Hønge’s proposition to involve Russia in safeguarding Greenland against U.S. territorial aspirations disrupts conventional alliances and raises profound questions about Arctic sovereignty, Denmark’s strategic autonomy, and the implications for NATO and Arctic governance. This unconventional proposal, framed within the backdrop of Donald Trump’s 2019 Greenland acquisition gambit, underscores the vulnerabilities of Denmark’s hold over Greenland and the broader complexities of Arctic politics.

The strategic significance of Greenland—as the world’s largest island, with untapped reserves of rare earth elements, critical minerals, and emergent Arctic trade routes—positions it as a linchpin in the Arctic’s geopolitical landscape. Trump’s overt interest in Greenland not only highlighted its value but also exposed Denmark’s limited capacity to defend the territory against assertive superpower ambitions. Hønge’s call to involve Russia reflects an acknowledgment of these limitations, presenting an alternative counterbalance to U.S. dominance in the Arctic.

Russia’s Arctic strategy—rooted in decades of military investments, resource exploitation, and infrastructure development—underscores its regional primacy. As the Arctic’s largest stakeholder, Russia’s capabilities, including a fleet of nuclear-powered icebreakers and expansive Arctic installations, make it a formidable force. Aligning with Russia, however, represents a double-edged sword for Denmark, challenging its historical alignment with NATO and transatlantic allies while potentially addressing the growing militarization of the Arctic by the U.S. and NATO forces.

Hønge’s proposal catalyzes three key implications:

Denmark’s Arctic Sovereignty and Policy Realignment: Hønge’s suggestion signals a need for Denmark to reassess its reliance on NATO and the U.S. for Arctic security. Greenland’s strategic autonomy, juxtaposed against Denmark’s limited military resources, invites broader discourse on alternative frameworks for safeguarding its Arctic interests.
Geopolitical Tensions within NATO: A Danish overture to Russia risks fracturing NATO unity and escalating tensions in the Arctic. Such a move could redefine Denmark’s position within the alliance while inviting repercussions from NATO and Arctic Council members concerned about polarizing the region.
Arctic Governance and Future Alliances: Should Denmark pursue Russian collaboration, the Arctic Council’s cooperative ethos could erode, giving way to heightened U.S.-Russia competition. This realignment might amplify Greenland’s geopolitical significance, situating it at the epicenter of Arctic power struggles.
Greenland’s trajectory is inseparable from its economic and environmental imperatives. The island’s vast reserves of rare earth elements, pivotal for renewable energy and high-tech manufacturing, attract global attention, while melting ice unveils new shipping lanes and fisheries. Denmark’s stewardship is tested by these opportunities and challenges, further complicated by Greenland’s aspirations for greater autonomy. Efforts to integrate Indigenous knowledge, sustainable development, and collaborative Arctic policies will define Greenland’s role as a model for balancing economic growth with ecological preservation.

Russia’s potential involvement raises critical questions about its role as a geopolitical counterweight in the Arctic. Diplomatic advocacy, intelligence sharing, and non-military economic partnerships with Denmark present avenues for collaboration, albeit fraught with risks. NATO’s response to such overtures could accelerate Arctic militarization, undermining cooperative frameworks and destabilizing the region.

Hønge’s controversial proposal ignites a necessary debate on Arctic sovereignty and governance. Denmark’s path forward—whether through NATO-aligned strategies or unconventional alliances—will shape the Arctic’s geopolitical landscape and redefine Greenland’s future. This narrative serves as a testament to the enduring complexities of small states navigating great power rivalries in an increasingly interconnected and contested Arctic realm.

Lecture labiale — Wikipédia

Lecture labiale — Wikipédia ✍Highlight–2025:01:02:19:46:07

La lecture labiale consiste à identifier, par l’observation des mouvements de la bouche d’une personne, les sons qu’elle prononce. En effet, pour prononcer un son précis, la bouche doit avoir une forme particulière (ouverture de la bouche, position de la langue, provenance du son, etc.). Les voyelles sont directement identifiables sur les lèvres. L’identification des consonnes est plus complexe (position de la langue, émission du souffle).

Les personnes sourdes ou malentendantes emploient cette méthode, notamment dans une ambiance bruyante. D'ailleurs dans les ambiances très bruyantes, presque inaudibles, l'entendant est très gêné par le bruit et finalement le malentendant s'en sort presque aussi bien.

Pratique

[modifier | modifier le code]

Un malentendant a un besoin impératif de fixer le visage de son interlocuteur pour l'aider à comprendre les mots, ça ne concerne pas seulement la bouche, mais le visage tout entier (maxillofaciale) et même le corps. En l'absence de lecture labiale un malentendant doit faire appel à la suppléance mentale, ce qui est infiniment plus fatigant.

Lecture labiale ou lecture maxillofaciale

[modifier | modifier le code]

On devrait donc plutôt dire lecture maxillo-faciale ou labio-faciale plutôt que labiale (mais ce mot est peu connu). Même si l'on se contente de regarder le visage d'une personne même portant un masque respiratoire (donc cachant la bouche) le reste du visage apporte une aide précieuse à la compréhension, ce qui est également valable lorsqu'un malentendant ne voit que le profil de la personne.

Langage du corps

[modifier | modifier le code]

Pour aller encore plus loin dans la suite logique, car tout est lié, le langage du corps, ce que les psychologues appellent la communication non verbale, en dit souvent plus que les mots, car il est possible de mentir avec des mots mais il est plus difficile de contrôler son corps. En effet c'est aussi le corps, en particulier le visage et les mains, qui appuie les mots car tout ce qui bouge dans le corps est immédiatement interprété et permet de confirmer le peu de sons entendus.

Les malentendants sont ainsi instinctivement attentifs à la respiration qui rythme la parole. Généralement il n'y a pas de mot prononcé durant l'inspiration mais principalement voir presque exclusivement lors de l'expiration c'est-à-dire qu'il n'y a pas de mot à entendre d'une personne lorsqu'elle gonfle ses poumons.

Et donc un malentendant a toujours besoin de regarder celui qui parle, que ce soit une petite partie de son visage voire son dos, car une personne qui parle en faisant des gestes apporte une aide très précieuse à la compréhension des mots et des phrases.

En l’absence de lecture labiale

[modifier | modifier le code]

L'absence de lecture maxillofaciale, comme au téléphone par exemple, demande au malentendant une attention énorme à chaque son entendu (phonème) afin que le cerveau les mette en mémoire et qu'instantanément en sortent des mots et des phrases qui ont un sens logique : c'est la suppléance mentale. Cela devient bien plus délicat lors de l'abord des sujets complexes car le cerveau ne peut être simultanément à l'écoute des mots tout en étant totalement absorbé par la compréhension du sujet.

Limites

[modifier | modifier le code]

La lecture labiale, à elle seule, ne permet pas de tout comprendre car il est admis que seul trente pour cent du message oral émis est perçu par ce biais. Cela dépend de la prononciation du locuteur mais aussi de sa physionomie labiale (bouche lippue, forte barbe, paralysie faciale, etc.) et de sa position (parler en montrant toujours son visage et non pas à contre-jour, etc.). Le reste est compris grâce à la suppléance mentale. Des règles pour bien communiquer existent.

Quand il s'agit de lecture labiale seule, sans le moindre son de voix, sans indice et sans connaître le sujet échangé et donc en l'absence de suppléance mentale, la compréhension est quasi nulle. Il est juste possible de ressentir l'état psychologique exprimé par la personne que ce soit de la joie ou de la tristesse par exemple.

Par contre avec dix pour cent de voix, dix pour cent de lecture labiale et la connaissance du sujet échangé alors la suppléance mentale se met en marche et avec une attention totale, c'est-à-dire à ne pas penser à deux idées en même temps car le sourd a acquis la capacité d'une attention totale, il suffit de quelques secondes pour être totalement concentré sur le sujet. Bien sûr pour un sujet pas trop complexe et en faisant répéter un peu et en reformulant ce qui est compris, la compréhension de l'échange est exponentielle jusqu'à devenir presque correcte soit au moins quatre-vingts pour cent des mots compris. En revanche la perte du son ou de la lecture labiale entraîne irrévocablement à restreindre la compréhension à dix voire peut-être trente pour cent.

Pour un groupe de personnes souvent ensemble comme des collègues de travail, etc., et qui ont envie de bien communiquer, la personne entendante, sans s'en rendre compte, articule et parle lentement, fait de plus en plus de gestes, un peu comme la langue des signes, et cela est une aide énorme pour le sourd. Et dans le cas d'un couple, il n'est pas rare de se comprendre à « demi-mot » sans entendre réellement les mots dans un contexte bruyant.

Naturellement, ce n'est pas la solution miracle pour comprendre une personne qui parle derrière une vitre ou en l'observant à la jumelle comme certains films d’espionnage se plaisent à le montrer. Sauf pour Astérix dans le célèbre film qui dit, via la lecture labiale, « Obélux par Toutatis redeviens Obélix ». De même, quand le pape se rendit dans la cellule de Mehmet Ali Ağca pour lui accorder son pardon, un gardien fut remplacé par une personne connaissant la lecture labiale afin de surprendre la conversation mais, au moment où le coupable commença à parler, le Pape se pencha et leur échange restera éternellement un secret.

Toutefois, avec énormément d'attention et d'entraînement, dans un film avec le son coupé et en le visualisant maintes et maintes fois, il n'est pas totalement impossible de reconstruire une phrase mot après mot.

Apprentissage

[modifier | modifier le code]

La lecture labiale n’est pas un « jeu de devinettes » : « lire sur les lèvres » est une méthode qui s’apprend avec un orthophoniste et qui fait appel à la suppléance mentale.

Elle s’apprend surtout spontanément chaque jour sans s’en rendre compte. Un malentendant maîtrise naturellement la lecture labiale, surtout s'il est devenu sourd progressivement ou seulement malentendant depuis longtemps. Il la maîtrise inconsciemment. À titre d'exemple, il suffit de lui demander de fermer les yeux et de lui demander s'il est plus compliqué de comprendre la discussion dans cet état d'esprit.

Pour apprendre vite lors d’une surdité brutale, l’aide d’un orthophoniste spécialisé est utile. En France elle est remboursée sur prescription médicale justifiée.

Difficultés

[modifier | modifier le code]

La difficulté provient des sosies labiaux (chapeau-jambon, par exemple) : il est important de préciser au « lecteur » de quel sujet on parle.

Pour les enfants, elle est souvent associée avec le LPC (Langue française parlée complétée). Le LPC est un codage manuel des sons de la langue française (huit formes manuelles et leurs cinq emplacements près du visage). Le LPC offre à l’enfant une perception complète et sans ambiguïté du français oral.

Lorsque les personnes connaissent les signes de la langue des signes, les locuteurs complètent leur articulation avec les signes des mots prononcés : c’est le français signé.

D’autres personnes sourdes rejettent la communication orale et font plus appel à la langue des signes, pour diverses raisons : parce que la communication orale leur demande trop d’efforts, mais aussi par choix personnel.

Liopa lance une IA de lecture labiale

Liopa lance une IA de lecture labiale ✍Highlight–2025:01:02:19:42:14

L’IA sera bientôt capable de lire sur vos lèvres

Moyennement, une personne normale arrive à déchiffrer un mot sur cinq grâce à la lecture labiale. Mais à l’heure où nous avions rédigé ces lignes, l’IA a surpassé l’être humain dans l’action de lire sur les lèvres.

Selon les études, la majorité des individus sont capables de lire sur les lèvres. Mais leur capacité à trouver le bon mot ne dépasse pas les 20 %. Pour les lecteurs labiaux chevronnés, le taux de réussite varie entre 4 et 5 mots corrects sur une phrase de 12 mots. En 2011, l’Université de l’Oklahoma a également réalisé quelques tests et les résultats obtenus étaient encore assez bas. Le taux de précision était seulement de 10 %.

Pour les modèles d’IA, lire sur les lèvres ressemble de plus près à un jeu. Si l’être humain a un score de 3/10, les systèmes d’apprentissage automatique modernes arrivent à obtenir un taux de précision de 95 %. L’enjeu est donc important pour l’avenir des cinémas muets et de la communication avec les personnes non parlantes. On aura un jour des systèmes de deep learning pouvant interpréter la dictée silencieuse.

Une IA capable de lire sur les lèvres : ce qu’en pense le Dr Fabian Campbell-West

Selon le Dr Fabian Campbell-West, directeur technique chez Liopa, la parole est divisée en deux parties. Il y a l’unité auditive (ce qu’entend une personne) et l’unité visuelle (ce qu’une personne lit sur les lèvres). C’est plutôt sur la première unité que se concentrent davantage les équipes de développeurs d’applications de traitement de la parole, en se basant sur les mouvements des lèvres.

 

D’un autre côté, le Dr Campbell-West a ajouté qu’il y a plus de phonèmes (unités audibles) que de visèmes (unités visuelles) dans une parole. Cependant, il y a une grande différence entre les méthodes humaines pour lire sur les lèvres et celle adoptées par l’IA.

Pour les machines d’intelligence artificielle, l’objectif est de convertir les informations visuelles en textes écrites. Par contre, pour les humains, le but est de comprendre la partie audible.

IA et lecture labiale : un enjeu majeur pour le deep learning

L’enjeu de cette expérience est avant tout d’automatiser la lecture labiale en ayant recours à des modèles de machine learning. Mais un obstacle majeur vient freiner l’atteinte de l’objectif. On parle ici de l’absence de données de qualité qui constituent la principale solution pour faciliter la lecture labiale chez les IA. Pour y arriver, on a aujourd’hui recours à des techniques visant à utiliser des éléments visuels pour que l’intelligence artificielle puisse comprendre et interpréter l’information.

Les scientifiques vont alors baser leurs recherches sur la VSR (reconnaissance visuelle de la parole) ou l’ASR (reconnaissance vocale automatisée). Mais la VSR est encore en phase de développement et le projet n’est pas encore assez mature, ajoute le Dr Campbell-West. L’l’application développée par Liopa, SRAVI, sera bientôt opérationnelle, ce qui  permettra aux personnes hospitalisées de communiquer avec des simples gestes des lèvres.

Wikipédia : les secrets de la plus grande encyclopédie du monde – L'Express

Wikipédia : les secrets de la plus grande encyclopédie du monde – L'Express ✍Highlight–2024:12:30:12:10:49

Le 15 janvier 2001, un certain Jimmy Wales, un homme d'affaires américain, et un jeune diplômé en philosophie, Larry Sanger, publiaient un article sur Internet intitulé “Hello World”. Passé relativement inaperçu, il s'agit en réalité du premier article sur Wikipédia, invitant les internautes à participer à un projet encyclopédique d'une ampleur inédite. À cette époque, le dictionnaire était encore roi et Internet n'était pas encore présent dans tous les logements. Accessible gratuitement et écrite par des bénévoles, on y trouve à ses débuts des articles sur l'histoire de la Bible, le naturalisme éthique, ou les Backstreet Boys. Vingt ans plus tard, Wikipédia touche tous les domaines de notre quotidien et semble incontournable quand il s'agit de vérifier une information.

Aujourd'hui, Wikipédia compte plus de 55 millions d'articles rédigés en 309 langues. Si, entre 2001 et 2004, on ne compte que 150 rédacteurs réguliers, 250 000 bénévoles apportent actuellement leur contribution chaque mois sur le site. La version française de Wikipédia attire près de 4 millions de visiteurs uniques chaque jour, et on dénombre un millier de gros contributeurs dans notre pays. En 2020, près de 9 milliards de pages ont été vues par les Internautes francophones, soit une augmentation de 5% par rapport à l'année précédente. Preuve de son succès, il s'agit du sixième site le plus visité en France en 2020, derrière les géants Google, YouTube, Facebook, Amazon et WhatsApp. Mais comment cette utopie s'est-elle imposée année après année, malgré l'avènement des Gafam ? Et comment a-t-elle évolué ? Quels sont ses secrets de fabrication ?

Le mythe des origines

À l'origine, Jimmy Wales et Larry Sanger se sont inspirés d'un moteur de recherche appelé WikiWikiWeb et lancé en 1995. “Wiki” signifie “rapide” en Hawaïen. Sur ce moteur de recherche, chaque internaute pouvait modifier n'importe quelle page et la publier dans la foulée. Les deux hommes créent dans un premier temps une encyclopédie libre intitulée Nupedia en mars 2000. Mais avec une politique stricte pour l'intégration des nouveaux articles, destinée à en faire une encyclopédie de très haute qualité, le projet est lent. Trop lent pour les deux hommes qui lancent finalement Wikipédia le 15 janvier 2001 dans le but d'accroître la vitesse de développement des articles encyclopédiques. Jimmy Wales, son fondateur, partage son credo comme un mantra sur tous les plateaux de télévision : “Imaginez un endroit sur la planète où chaque individu pourrait accéder à la totalité des connaissances humaines”. Le projet est ambitieux : créer une encyclopédie libre, neutre et démocratique. Aucune encyclopédie digne de ce nom n'y est parvenue durant des siècles. Mais Internet, et son modèle participatif des débuts, change tout. Chaque personne peut désormais participer à un projet unique en publiant un article sur un thème précis. Et, contre toute attente, ça fonctionne. À la fin de sa première année d'existence, Wikipédia compte 20 000 articles publiés. Et ce chiffre ne fera que croître. “Wikipédia, c'est quand même l'oeuvre littéraire et intellectuelle majeure du XXIe siècle. Ça a changé notre rapport à la connaissance”, indique à L'Express l'historien Rémi Mathis, ex-président de l'association Wikimedia France, et auteur de Wikipédia, dans les coulisses de la plus grande encyclopédie du monde (First Editions).

Infogram

Le nouveau site, qui en est encore à ses balbutiements, profite malgré lui des attentats du 11 septembre 2001 à New York. Les yeux du monde sont alors rivés vers les “Twin Towers”, et les images de leur effondrement sont en boucle dans tous les journaux télévisés. Les internautes ont senti le besoin d'écrire sur ce drame, mais aussi sur le World Trade Center, ses architectes, les compagnies aériennes ou encore les groupes terroristes suspectés d'être à l'origine de l'attaque. Les gens ont tenté de compiler des données, d'informer les gens du monde entier. C'est le premier événement documenté en direct sur Wikipédia. Depuis, chaque Wikipédien devient un historien derrière son clavier. Cela est le cas à chaque crise. Lors du printemps arabe, par exemple, des internautes ont ainsi documenté en direct ces soulèvements dans différents pays, contournant ainsi la censure des gouvernements en place.

Quand un robot écrit des millions d'articles en… cebuano

Sans surprise, le Wikipédia anglophone est le plus riche avec 6,2 millions d'articles. Juste après la version en anglaise, le Wikipédia en cebuano, une langue des Philippines, est la deuxième version contenant le plus d'articles avec 5,3 millions d'entrées. Une anomalie qui s'explique par le travail acharné du plus grand contributeur de l'histoire du site. Il s'appelle LSJBOT, et a rédigé près de 10 millions d'articles ces dernières années, notamment en cebuano et en suédois. En réalité, il s'agit d'un “bot”, un robot dont la mission est de réaliser des ébauches d'articles. Il a été créé par un Suédois appelé Sverker Johansson. Ce dernier souhaitait rendre hommage à la langue natale de son épouse (le cebuano) en leur offrant un nombre conséquent d'articles pour leur permettre un accès aux informations. LSJBOT a par ailleurs écrit tous les articles sur le règne animal et végétal dans trois versions de Wikipédia. Il s'agit en réalité d'articles peu détaillés, avec quelques phrases seulement.

LIRE AUSSI : Dans les coulisses de Wikipédia, des Mousquetaires du savoir

La question de la contribution d'un robot a fait l'objet d'intenses discussions au sein de la communauté des bénévoles de Wikipédia. Aujourd'hui, LSJBOT n'est plus actif et très peu d'articles sont désormais rédigés dans la langue cebuano. Le contenu de chaque site est autonome : pas de traductions mais des contributions originales, parfois complétées par des robots à partir de données publiques. “On a créé de manière artificielle des articles qui n'ont pas grand intérêt, affirme Rémi Mathis. Aujourd'hui, la part des bots dans la rédaction sur Wikipedia est assez infime. C'est le cas pour mettre à jour les données de population des communes françaises, par exemple, en se basant sur a base de données de l'Insee”.

Polémiques sur la fiabilité

Aux antipodes de l'encyclopédie traditionnelle rédigée par des experts reconnus, ce recueil de savoirs compilés par des amateurs, souvent anonymes, s'est attiré d'innombrables critiques, et l'hostilité de certains milieux académiques. Certains n'ont pas hésité, au milieu des années 2000, à le définir comme le “Big Mac de l'information”. Dans les universités, citer Wikipédia comme source était souvent mal vu, et pouvait conduire à une mauvaise notation. Un épisode célèbre a contribué à cette mauvaise réputation. En septembre 2005, l'article Wikipédia sur le journaliste américain John Seigenthaler, proche des Kennedy qui travaillait pour le média USA Today, indiquait qu'il avait été suspecté par la police dans l'assassinat du président John Fitzgerald Kennedy. Il s'agissait en réalité d'une fausse information. Un homme avait parié avec un ami qu'il avait été suspecté et avait rajouté cette mention sur Wikipédia pour le prouver. Le journaliste, très affecté, avait fait le tour des plateaux de télévision pour dénoncer le site encyclopédique. “Lorsqu'on connaît la façon dont Wikipédia est surveillé, les articles sont écrits, et la communauté échange, on peut considérer qu'il y a un niveau de fiabilité important. Les critiques dans les années 2005 étaient le fruit de beaucoup d'incompréhension et de condescendance de la part des universitaires. Il est très difficile aujourd'hui de tromper Wikipédia, même si ça peut arriver notamment sur les biographies de personnes vivantes peu connues, où peu de gens de la communauté se rendent. Mais force est de constater que Wikipédia est une encyclopédie en mouvement, qui n'est pas achevée, et que la qualité des articles progresse d'année en année”, affirme Rémi Mathis.

LIRE AUSSI : Wikipedia: encyclopédistes 2.0

En 2002, pour faire face aux polémiques, Wikipédia décide de créer le statut d'administrateur pour les bénévoles actifs du site. Ces derniers ont un pouvoir accru : ils peuvent supprimer un article ou bloquer un utilisateur. Sur les 92 millions d'utilisateurs enregistrés dans le monde, on compte aujourd'hui 3900 administrateurs. Soit 0,04% qui ont le dernier mot en cas de litige. Pour être publié, un article doit être sourcé et répondre à une charte précise. Le sujet choisi doit également être d'intérêt public et avoir fait l'objet d'au moins deux articles dans la presse nationale ou internationale, ou d'une entrée dans une encyclopédie classique. Plusieurs études ont été réalisées pour déterminer le degré de fiabilité des articles scientifiques et vont quasiment toutes dans le sens d'une qualité égale ou supérieure à celles des équivalents payants. Dans le monde, le site est modifié en moyenne 350 fois par minute. “Wikipédia, et c'est sa révolution, avoue qu'il peut se tromper. Il n'y a aucun problème à avouer des erreurs, ce qui serait impensable pour un éditeur ou un chercheur. Ça pousse les citoyens à vérifier ce qu'ils lisent”, relève encore Rémi Mathis.

Infogram

Depuis, des polémiques liés au pseudonymat ont éclaté à travers le monde. Car le succès de Wikipédia peut percuter des intérêts économiques ou politiques. Ainsi, des articles ont été remaniés par le Congrès américain, la Douma russe ou le Parlement britannique. Le groupe automobile allemand Daimler avait également été épinglé pour avoir supprimé la mention indiquant que la marque avait utilisé des déportés juifs comme main-d'oeuvre durant la Seconde Guerre mondiale. “Le pseudonymat est nécessaire car cela permet une liberté d'écriture. On peut ne pas avoir envie de savoir sur quoi on écrit, cela peut aussi engager notre réputation. Sans parler des régimes autoritaires où il serait dangereux d'écrire à visage découvert”, poursuit l'historien.

Manque de diversité

Reste un problème de diversité dans les sources et thématiques abordées, avec des angles morts sur des sujets liés aux pays en développement. En cause, le profil des contributeurs, majoritairement originaires des États-Unis et des pays occidentaux. Les rédacteurs sont à plus de 80% des hommes blancs, et ils écrivent en majorité sur des hommes blancs. “Le fait de vouloir bâtir une encyclopédie n'attire pas n'importe qui et les gens qui sont là sont souvent des CSP+, urbains, diplômés”, appuie Rémi Mathis. “On est passé de 15 à 18,6% de biographies de femmes dans le Wikipédia francophone”, se réjouit Natacha Fault, fondatrice du projet “Les sans pages”, visant à combattre les déséquilibres de genre. Mais “le 'gender gap' ne sera jamais comblé car la réalité, c'est que les réalisations des femmes ont été très peu documentées” au cours de l'histoire. “Après, on ne peut pas reprocher aux Wikipédiens de ne pas écrire sur des poètes femmes au XVIIe siècle. Le fait est que l'égalité hommes/femmes est récente et que les poètes au XVIIe siècle sont des hommes”, détaille encore Rémi Mathis.

LIRE AUSSI : Google s'attaque à Wikipedia

Une autre critique faite à Wikipédia est de véhiculer une vision occidentale de la connaissance. Les cultures orales, nombreuses en Afrique, ne sont en effet pas prises en compte car le site demande des sources écrites pour éviter la diffusion de “légendes”. Or, selon ses détracteurs, si l'encyclopédie se veut mondiale, elle doit prendre en compte toutes les sources de savoir. “Il faut dire que la rédaction d'une encyclopédie est un projet occidental. Il est difficile de se passer des sources écrites selon moi, car cela ouvrirait la porte à de nombreuses interprétations”, poursuit Rémi Mathis, qui se demande s'il serait souhaitable d'avoir des articles qui prennent toutes les cultures en compte. Un article sur Dieu, par exemple, qui relayerait toutes les croyances de la planète serait-il réalisable ou souhaitable ? “Regardez les articles mathématiques. Certains prennent toutes les possibilités en compte, et ils sont illisibles pour les non-spécialistes. Il faut aussi se demander quel est l'objectif de Wikipédia : une encyclopédie totale ou accessible à tous ?”, lance l'historien. Pour l'avenir, Jimmy Wales espère que Wikipédia va essaimer dans les pays en développement : “Il est réellement important que le prochain milliard de personnes qui arrivent sur internet aient envie de contribuer”.

Une encyclopédie engagée ?

En avril 2017, le pouvoir de Recep Tayyip Erdogan accusait Wikimedia, la maison mère, de “dénigrement” parce qu'elle refusait de retirer deux articles évoquant des liens avec des groupes djihadistes en Syrie, dont la branche locale d'Al-Qaida. Conséquence : Vikipedi (en turc) a été bloqué dans le pays pendant 991 jours. Début 2020, la Cours suprême turque a jugé que ce blocage était contraire à la Constitution, et le site est redevenu accessible. À l'heure du triomphe des Gafam, l'encyclopédie en ligne fait figure de rare rescapée de l'utopie participative du web libertaire. Jimmy Wales assure : “Nous ne sommes pas détournés de notre mission par le souci d'engranger plus de revenus, donc nous ne sommes pas confrontés à ces problèmes que nous voyons aujourd'hui, cette question des algorithmes conçus de manière à encourager l'engagement afin d'augmenter les recettes publicitaires”.

Certains voudraient aussi s'inspirer du modèle original de modération communautaire de l'encyclopédie face à la circulation massive de fausses informations sur les réseaux sociaux. Vingt ans après sa création, voilà donc Wikipédia face à deux grands défis : continuer à susciter des vocations d'encyclopédistes, et de modérer ses propres contenus et débats internes, sur la base du bénévolat. Jimmy Wales rêve désormais d'une institution qui dure “aussi longtemps qu'Oxford”. Selon une étude, l'expansion des sujets n'est pas près de s'arrêter : il serait en effet possible d'écrire plus d'un milliard d'articles sur l'encyclopédie afin de regrouper l'ensemble de nos connaissances. Le site n'en compte “que” 55 millions. À vos claviers !

Wikipédia, quinze ans de recherches

Wikipédia, quinze ans de recherches ✍Highlight–2024:12:30:12:03:06

Wikipédia, quinze ans de recherches

Née le 15 janvier 2001, l’encyclopédie en ligne participe à un projet ambitieux : rassembler toute la connaissance mondiale et la rendre intelligible par des machines.

Par David Larousserie

Publié le 06 janvier 2016 à 18h39, modifié le 15 janvier 2016 à 10h57

Temps de Lecture 10 min.

Partager sur Facebook Envoyer par e-mail Partager sur Linkedin

MARIO WAGNER

Quel succès ! Quin­ze ans après son lancement, le 15 janvier 2001, par les Américains Jimmy Wales et Larry Sanger, l’encyclopédie en ligne Wikipédia reste le premier site non commercial du Web mondial, toujours dans le top 10 des sites les plus fréquentés avec près de 500 millions de visiteurs uniques par mois pour plus de 250 éditions linguistiques. 36,9 millions d’articles sont rédigés, corrigés, améliorés par quelque 2 millions de contributeurs. 800 nouvelles entrées en anglais sont ajoutées chaque jour, 300 en français. La version française tenant la troisième position, avec plus de 1,7 million d’articles, derrière l’anglophone (plus de 5 millions) et la germanique (1,8 million).

Mais Wikipédia, c’est moins connu, est bien plus qu’une encyclopédie qu’on consulte pour se documenter ou faire ses devoirs scolaires. Elle est devenue aussi un objet de recherche en tant que tel, à l’instar d’une tribu d’Amazonie, d’un programme informatique ou d’un patient. La base de données Scopus, l’une des trois plus importantes du monde, recense ainsi plus de 5 400 articles ayant pour sujet ou pour objet Wikipédia publiés dans des revues, des actes de colloques ou des livres. Quatorze brevets mentionnent même le célèbre site, selon la même Scopus.

Lire aussi Rencontre avec les petites mains anonymes qui font Wikipédia

Autre preuve de l’intérêt académique pour le sujet, en juin 2013, à Paris, se tenait un colloque, coorganisé par le CNRS et le CNAM et intitulé « Wikipédia, objet scientifique non identifié », avec sociologues, spécialistes de sciences de la communication, informaticiens…

La Fondation Wikimédia, qui héberge Wikipédia, s’est dotée d’un groupe de recherche

Depuis 2011, la Fondation Wikimédia, qui héberge Wikipédia, s’est même dotée d’un groupe de recherche. « A l’origine, nous étions là pour fournir des outils d’analyse à la communauté. Maintenant, nous sommes un vrai département de recherche, testant de nouvelles technologies et collaborant avec les universités », résume Dario Taraborelli à la tête des dix personnes de ce département, en Californie. Fin novembre 2015, il annonçait ainsi un projet d’intelligence artificielle ecapable d’estimer la probabilité qu’une modification soit dommageable ou non à un article et donc susceptible d’être retirée. Auparavant, les systèmes automatiques de détection avaient tendance à trop souvent écarter les contributions pourtant bienveillantes, freinant l’entrée de nouveaux contributeurs. Le groupe essaie aussi de réduire les asymétries de contenus entre différentes langues en proposant automatiquement des articles à rédiger aux contributeurs des langues minoritaires.

Mais que font tous les autres chercheurs en tripatouillant Wikipédia ? De récentes publications témoignent du large spectre couvert. Depuis novembre, une équipe japonaise s’est servie des articles de l’encyclopédie pour analyser les suicides de personnalités dans son pays. Des Britanniques ont construit automatiquement un glossaire technique. Des Turcs ont utilisé le site pour repérer à grande échelle des entités dans des corpus de leur langue. Des Français ont proposé un classement des universités reposant sur les citations des établissements au sein de plusieurs versions linguistiques de Wikipédia. Citons encore un article paru en mai, qui prévoit les pics d’apparition de la grippe grâce aux statistiques de visites des pages de l’encyclopédie.

1,7 million de pages d’articles

Les raisons d’un tel engouement sont simples à comprendre. L’objet est vaste, une quinzaine de gigaoctets de textes (pour la version anglaise). D’utilisation gratuite, contrairement aux données de Facebook, Google ou Twitter, pourtant gigantesques et fournies gracieusement par leurs utilisateurs. Même les données de fréquentation sont disponibles pour chaque article ! Les archives sur quinze ans permettent d’avoir du recul historique, tout en ayant un objet toujours rafraîchi. Des versions en plus de 200 langues ouvrent des perspectives pour des comparaisons ou des analyses culturelles. L’ouverture et la transparence offrent aussi ce que les chercheurs adorent : la vérifiabilité et la reproductibilité. Pour parfaire leur bonheur, l’encyclopédie, tel un iceberg, recèle plus de trésors que sa seule vitrine d’articles. Si la version française contient 1,7 million de pages d’articles, elle contient 4,5 fois plus de pages pour les historiques, les discussions et autres coulisses qui font le dynamisme et la réputation du site.

Une sorte de bac à sable dans lequel s’ébrouent les spécialistes du traitement automatique du langage

Du coup, presque tous les domaines sont couverts. La sociologie, bien sûr, fascinée par cette démocratie d’un nouveau genre, car auto-organisée et reposant sur quelques règles et le consensus. Les chercheurs, profitant de la transparence du site, y ont également étudié le rôle des « vandales » et autres « trolls » qui mettent leurs pattes malveillantes dans les articles. Les inégalités hommes-femmes particulièrement criantes, avec moins de 10 % de contributrices à l’encyclopédie, ont également donné lieu à beaucoup de littérature et de controverses.

Le Monde Guides d’achat

Aspirateurs robots

Les meilleurs aspirateurs robots

Lire

Wikipédia est devenu une sorte de bac à sable dans lequel s’ébrouent les spécialistes du traitement automatique du langage qui disposent là d’un corpus immense pour tester leurs logiciels de reconnaissance de texte, de traduction, d’extraction de sens… C’est aussi le jouet de physiciens, statisticiens, informaticiens… prompts à dégainer leurs outils d’analyse pour en extraire de nouvelles informations ou aider à les visualiser.

Lire aussi Article réservé à nos abonnés Les coulisses de l’encyclopédie en ligne

« Après quinze ans, l’intérêt des chercheurs est toujours là. La première phase était très active car l’objet était nouveau. Cela a contribué à l’émergence de nouveaux domaines comme la sociologie quantitative ou l’informatique sociale, rappelle Dario Taraborelli. Puis, à partir de 2007, l’apparition de nouveaux médias sociaux a détourné un peu les recherches, avant un renouveau depuis 2010. Notamment parce que nous sommes le seul site important à publier nos données quotidiennes de trafic. »

« Notre ambition est de rendre encore plus intelligents les ordinateurs »

Ce renouveau est aussi tiré par une révolution à venir. Wikipédia est devenu l’un des maillons indispensables à un projet particulièrement ambitieux : rassembler toute la connaissance mondiale et la rendre intelligible par des machines. « Notre ambition est de rendre encore plus intelligents les ordinateurs afin qu’ils soient toujours plus utiles à l’humanité », s’enthousiasme Fabian Suchanek, enseignant-chercheur à Télécom ParisTech et artisan de cette évolution qui vise à transformer Wikipédia et d’autres riches corpus en une source accessible aux ordinateurs.

Derrière des prouesses qui n’ont l’air de rien se cachent de nouveaux objets  : les bases de connaissance

De tels changements sont en fait déjà à l’œuvre, discrètement. Dans les moteurs de recherche par exemple, lorsque l’utilisateur tape un nom de célébrité, apparaissent toujours une liste de liens mais aussi un encadré résumant la biographie de la personne cherchée. Et cela automatiquement : le programme a compris où, dans la page Wikipédia, se trouve l’information souhaitée. Mieux. On peut désormais poser des questions explicites, en langage naturel, à ces moteurs  : quand Elvis Presley est-il mort ? Où ? Quel est l’âge de François Hollande ?… et recevoir des réponses directes, sans avoir à lire la page contenant l’information.

Derrière ces prouesses qui n’ont l’air de rien se cachent de nouveaux objets : les bases de connaissance. Les plus célèbres sont Yago, DBpedia, Freebase ou Wikidata. Toutes se sont construites en triturant Wikipédia. Et, preuve des enjeux économiques, les plus grands du Web actuel investissent dans ces constructions. En 2010, Google a ainsi racheté Freebase, qui lui sert pour son Knowledge Graph, l’encadré qui fournit des réponses directes aux requêtes. L’entreprise soutient également financièrement Wikidata, une initiative de la fondation ­Wikimédia. Amazon a racheté EVI en 2012, anciennement connue sous le nom de True Knowledge, une base de connaissances.

Lire aussi Article réservé à nos abonnés Wikipédia, « un objet scientifique non identifié »

En outre, derrière les assistants personnels vocaux des mobiles, Siri, Cortana ou Google Now, se cachent aussi ces fameuses bases de connaissances. Pour gagner au jeu Jeopardy en 2011, l’ordinateur Watson d’IBM a bien sûr assimilé bon nombre de données, en particulier de Wikipédia, mais dans une forme prédigérée fournie par la base de connaissances Yago.

Le sujet de ces bases ou graphes de connaissances est très actif. Le chercheur le plus prolixe sur Wikipédia, toutes activités confondues selon Scopus, est par exemple l’Allemand Gerhard Weikum de l’Institut Max-Planck de Sarrebruck, à l’origine de la première base de connaissances, Yago, en 2007. Le second est un Hollandais, Maarten de Rijke, professeur d’informatique à l’université d’Amsterdam, dont les récents travaux utilisent ces graphes. Il est capable de savoir de quoi parle un tweet en repérant les noms et les faits à l’intérieur et en les confrontant à Yago ou DBpedia. Il enrichit aussi les émissions de télévision automatiquement en fournissant des liens sur les tablettes ou téléphones, choisis en fonction du thème de l’émission, déterminé grâce aux bases de connaissances.

« On peut faire des choses qui étaient impossibles auparavant »

« Avec ces bases de connaissances, on peut faire des choses qui étaient impossibles auparavant », estime Fabian Suchanek, cofondateur de Yago. Par exemple ? « Extraire de l’information du quotidien Le Monde : combien de femmes en politique au cours du temps ? Quel est l’âge moyen des politiciens ou des chanteurs cités ? Quelles compagnies étrangères sont mentionnées ? », énumère ce chercheur en citant un travail publié en 2013 avec la collaboration du journal. Le New York Times construit sa propre base de connaissances tirées des informations de ses articles. Autre exemple, il devient possible de poser des questions aussi complexes que  : qui sont les politiciens également scientifiques nés près de Paris depuis 1900 ? Ou, plus simplement, quelle est la part des femmes scientifiques dans Wikipédia ?

Mais quelle différence entre ces objets et une base de données ou même une page Wikipédia ? Si un humain comprend que dans la phrase « Elvis Presley est un chanteur né le 8 janvier 1935 à Tupelo, Mississippi », il y a plusieurs informations sur son métier, sa date et son lieu de naissance, une machine ne le comprend pas, et ne peut donc répondre à la question simple, pour un humain, « Quand Elvis est-il né ? ». « C’est un peu paradoxal, mais pour un informaticien, notre langage n’est pas structuré et donc un ordinateur ne peut le comprendre ! », souligne ironiquement Fabian Suchanek. Il faut donc transformer les pages en les structurant différemment, en commençant par repérer les entités, les faits et les relations entre eux. Presley est une entité. Sa date de naissance ou son métier sont des faits. « Né le » et « a pour métier » sont les relations. Tout cela peut être codifié en langage informatique.

Une autre particularité de ces objets est qu’ils ne répertorient pas ces faits et entités dans des tableaux, comme la plupart des bases de données, mais en les organisant en arborescences ou en graphes. Les branches correspondent aux liens entre les entités et les faits. Les informaticiens et mathématiciens ont bien sûr développé les techniques pour interroger ces graphes et y faire des calculs comme dans un vulgaire tableur. Aujourd’hui, Yago « sait » plus de 120 millions de choses sur 10 millions d’entités (personnalités, organisations, villes…).

Petit à petit se tisse un réseau reliant des faits et des entités

Réseau reliant des faits et des entités

L’avantage-clé est que le rapprochement devient plus simple entre plusieurs bases de connaissances, celles construites sur Wikipédia mais aussi d’autres concernant les musiciens, les coordonnées GPS, les gènes, les auteurs… Le site Linkeddata.org recense ces nouvelles bases et les liens entre elles. Petit à petit se tisse un réseau reliant des faits et des entités, alors que, jusqu’à présent, la Toile connecte des pages ou des documents entre eux. Cela contribue au rêve de ce que Tim Berners-Lee, le physicien à l’origine du Web, a baptisé « Web sémantique » en 2001. « Les défis ne manquent pas. La troisième version de Yago est sortie en mars 2015. Nous avons déjà traité la question du temps. Nous traitons aussi plusieurs langues. Il faut maintenant s’attaquer aux “faits mous”, c’est-à-dire moins évidents que les dates et lieux de naissance, les métiers, le genre…, estime Fabian Suchanek. En outre, tout ne peut pas se mettre dans un graphe ! »

Bien entendu, faire reposer la connaissance future de l’humanité sur Wikipédia n’a de sens que si ce premier maillon est solide. La crédibilité de l’encyclopédie a donc été parmi les premiers sujets d’études. Dès 2005, Nature publiait un comparatif entre l’encyclopédie en ligne et sa « concurrente » Britannica, qui ne montrait pas d’énormes défauts pour la première. D’autres études ont été conduites depuis pour estimer l’exactitude, en médecine par exemple, ­Wikipédia étant l’un des premiers sites consultés sur ces questions. Les résultats sont bien souvent satisfaisants.

« C’est finalement un peu une question vaine scientifiquement, car les comparaisons sont souvent impossibles. On confronte les articles tantôt à des encyclopédies, tantôt à des articles de revues scientifiques… », ­estime Gilles Sahut, professeur à l’Ecole supérieure du professorat et de l’éducation, de l’université Toulouse - Jean-Jaurès. « La question a un peu changé de nature. Il faut passer d’une appréciation globale à une appréciation au cas par cas, et donc éduquer afin d’être capable de dire si un article semble biaisé ou complet », précise ce chercheur, qui a soutenu une thèse en novembre 2015 sur la crédibilité de Wikipédia. Il adosse ce constat à une étude menée sur plus de 800 jeunes entre 11 et 25 ans, pour tester la confiance accordée à l’encyclopédie. Celle-ci s’érode avec l’âge et le niveau de scolarité, mais elle remonte dès lors que les élèves participent. « Ils découvrent d’ail­leurs, comme leur enseignant, qu’il n’est pas si facile d’écrire dans Wikipédia ! », sourit le chercheur en faisant allusion aux difficultés à entrer dans la communauté. « Certes les wikipédiens sont des maîtres ignorants sur les savoirs, comme le dit le sociologue Dominique Cardon, mais ils sont très savants sur les règles et les procédures ! »

× iphelper toolbox

you see this when javscript or css is not working correct

Untested
IP Address:
First usable:
Subnet:
Last usable:
CIDR:
Amount of usable:
Network address:
Reverse address:
Broadcast address:

ens/daily_notes.txt · Dernière modification: 09/06/2024/H10:36:22 de jeannot