Utilisateur non connecté
elsenews:spot-2025:06:tech-et-democratie [ElseNews]

Outils pour utilisateurs

Outils du site


elsenews:spot-2025:06:tech-et-democratie

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
elsenews:spot-2025:06:tech-et-democratie [26/12/2025/H15:26:28]
216.73.216.167 supprimée
— (Version actuelle)
Ligne 1: Ligne 1:
- {{tag>a1}} 
-  
  
- 
----- 
-====== Le Monde – Comment la tech bouleverse le débat public dans les démocraties ====== 
- https://www.lemonde.fr/idees/article/2025/06/28/comment-la-tech-bouleverse-le-debat-public-dans-les-democraties_6616238_3232.html 
- 
-<hidden Article Complet (utilisateurs connectés)> 
-<ifauth @user> 
- 
-Boris Séméniako 
-BORIS SÉMÉNIAKO 
-Comment la tech bouleverse le débat public dans les démocraties 
-Par Marion Dupont 
-Par Marion Dupont 
-Par Marion Dupont 
-Article réservé aux abonnés 
-Enquête Si les possibilités d’expression et de communication offertes par les outils numériques ont révolutionné l’accès à l’espace public, le risque de manipulation inhérent à leur fonctionnement, opaque et régi par quelques géants de la tech, nuance cette avancée, voire la renverse, affaiblissant paradoxalement le débat public, au détriment de nos libertés. 
-Près de 1 milliard de questions… par jour. Depuis son lancement par l’entreprise OpenAI, en 2022, l’agent conversationnel ChatGPT – tout comme Copilot (Microsoft), Gemini (Google) ou DeepSeek (de l’entreprise éponyme) – voit sans cesse augmenter le nombre de ses interlocuteurs et, avec eux, celui des sollicitations formulées. Ce bavardage constant entre des humains et quelques machines se tient le plus souvent à bas bruit, dans l’intimité d’un navigateur Web ou d’une application numérique. Cependant, il ne manque pas de susciter une avalanche de questionnements qui s’étalent, eux, dans les journaux, les revues universitaires et les rayons des librairies – et qui s’adressent, cette fois, d’humains à humains. 
- 
-L’une de ces interrogations, déclinée en d’innombrables formulations, pourrait être résumée ainsi : « l’intelligence artificielle (IA), outil ou menace pour la démocratie ? ». Les discussions vont bon train. Certains, comme Jean-Gabriel Ganascia, professeur à Sorbonne Université et fin connaisseur des enjeux liés à l’IA, mettent l’accent sur les risques que font peser, à terme, les grands modèles de langage préentraînés, ou « LLM » – technique sur laquelle reposent les agents tels que ChatGPT, Copilot, Gemini ou Deepseek –, sur la qualité des informations circulant au sein de nos sociétés. D’autres, comme le collectif d’experts de la Fondation Jean Jaurès réuni pour traiter les contributions citoyennes collectées lors du « grand débat national » – la réponse apportée, en 2019, par Emmanuel Macron au mouvement des « gilets jaunes » –, vantent les possibilités offertes par ces technologies pour mieux prendre en compte les voix des représentés. 
- 
-Bien sûr, si le sujet occupe tant l’espace médiatique, c’est d’abord parce qu’il y a été introduit comme argument de vente par les premiers intéressés, à savoir les acteurs du secteur des technologies numériques. Ceux-ci « se sont empressés de promouvoir leurs produits en insistant sur leurs qualités supposément prodémocratiques », relève Sébastien Broca, maître de conférences en sciences de l’information et de la communication à l’université Paris-VIII. Comme souvent, Apple donne le ton : pour vanter les mérites de son premier « ordinateur personnel », le Macintosh, l’entreprise table, en janvier 1984, sur un spot publicitaire convoquant l’œuvre de George Orwell. Diffusé en prime time lors de la mi-temps du Super Bowl, le clip présente une société dystopique où des masses interchangeables sont hypnotisées par un « Big Brother » promouvant les bienfaits de la pensée unique via un écran géant, unique également. Avant qu’une jeune femme athlétique, symbole de modernité, ne vienne briser ce monopole d’influence à coups de marteau. 
- 
-Le slogan qui l’accompagne ? « Le principe de la démocratie tel qu’il s’applique à la technologie est : une personne, un ordinateur. » L’informatique est encore, à l’époque, synonyme de gros systèmes, coûteux et complexes, qui étaient donc l’apanage des bureaucraties étatiques ou privées – au point de devenir les emblèmes d’une société verticale et potentiellement liberticide. « Les fabricants des premiers micro-ordinateurs assurent, quant à eux, que leur invention va permettre de démocratiser l’accès à l’information, et que, pour cette raison, elle constitue une force démocratique », explique Sébastien Broca. 
- 
-« Remède » et « poison » 
-Loin de perdre en vigueur, l’idée que les technologies numériques se constituent mécaniquement en forces de démocratisation gagne en popularité avec la massification du Web, à la fin des années 1990. « L’utopie Internet », portée à la fois par les défenseurs des libertés numériques et les acteurs industriels, va même plus loin, décrit Sébastien Broca : « Il y a alors l’espoir qu’Internet va permettre la création d’un nouvel espace public plus démocratique parce que débarrassé des anciennes institutions qui en contrôlaient jusqu’alors l’accès – notamment les médias traditionnels. » Ce discours progressiste et optimiste reste dominant jusqu’au milieu des années 2010, moment de bascule à partir duquel le numérique commence à être envisagé comme une menace. Et ce, à la faveur du succès de la campagne du Brexit, en 2016, largement menée en ligne, de la victoire surprise de Donald Trump à l’élection présidentielle américaine, quelques mois plus tard, et de la focalisation médiatique sur des thèmes comme le cyberharcèlement ou les fake news. 
- 
-Cette grille d’analyse est d’autant plus facilement réactivée qu’elle s’inscrit dans une tradition philosophique qui, depuis Platon, au Ve siècle avant J.-C., envisage les technologies comme des pharmakon – un terme grec signifiant à la fois « remède » et « poison ». Tandis que l’usage de l’écriture alphabétique se répand de plus en plus dans une société grecque reposant jusqu’alors essentiellement sur la culture orale, Platon s’inquiète déjà, dans son dialogue du Phèdre, des effets pernicieux de cette première automatisation de la connaissance. La réflexion « pharmacologique », à rebours des discours promouvant les bienfaits de l’augmentation technologique, est prolongée au XXe siècle par les philosophes Jacques Derrida (1930-2004) et Bernard Stiegler (1952-2020), qui insistent sur l’ambivalence de la technique, dont chaque progrès implique toujours aussi une perte. 
- 
-Devenue un lieu commun, la mise en balance des effets de telle ou telle technologie sur un système politique donné n’est pas pour autant illégitime – à condition de connaître la nature réelle des interactions entre technologie et démocratie. « Selon une idée très courante et néanmoins problématique, il y aurait une forme de déterminisme des technologies sur le système politique, par une sorte d’effet miroir : on a, par exemple, pu penser qu’Internet, à travers la forme réseau, allait produire une société réticulaire dégagée des macropouvoirs », souligne Sébastien Broca. La réalité, pourtant, est plus complexe. 
- 
-Boris Séméniako 
-BORIS SÉMÉNIAKO 
-Car, à y regarder de près, « les institutions propres à la démocratie représentative – tous ces mécanismes permettant le dialogue entre représentants et représentés – n’ont pas été profondément affectées par les technologies numériques », remarque Jade Meyrieu, docteure en droit public. La numérisation des sociétés ne semble avoir suscité aucune transformation majeure dans les règles et les processus institutionnels démocratiques : leur mécanisme fondateur – le vote – reste ainsi une affaire de papiers, d’enveloppes, de boîtes et de registres signés à la main. Si les tentatives d’instaurer le vote par Internet pour les étrangers de France ou de mettre en place des machines à voter n’ont pas manqué, « les citoyens restent très attachés à la matérialité du rituel républicain », constate la chercheuse. Plus qu’une lubie nostalgique, ce désamour tient à la nature des technologies numériques : complexes et opaques pour le plus grand nombre, difficiles à sécuriser, elles ont l’immense désavantage d’alimenter le soupçon et la défiance des citoyens, à une époque où ces passions politiques se portent déjà bien. 
- 
-Création de nouveaux droits 
-Néanmoins, conscients des possibilités offertes par les technologies numériques pour peser sur le jeu démocratique en dehors du seul moment électoral, les citoyens ne rechignent pas à s’en saisir de manière extra-institutionnelle. Ainsi « les technologies numériques ont[-elles] profondément modifié les mécanismes qui ont trait au contrôle démocratique, à la contestation, à la mobilisation citoyenne », explique Jade Meyrieu. Les exemples ne manquent pas, que ce soit les sites Internet recensant les promesses électorales des candidats aux élections, ou la possibilité de contrôler en direct l’assiduité des députés à l’Assemblée nationale, en passant par les « printemps arabes », en 2011 (souvent appelées « révolutions Facebook »), la « révolte des parapluies » de Hongkong, en 2014, ou les « gilets jaunes », en 2018. 
- 
-Mais, là encore, le constat est nuancé : les modalités de contestation traditionnelles, comme le syndicalisme et la grève, n’ont pas particulièrement bénéficié de l’arrivée des technologies numériques – voire ont pu être éclipsées par ces nouveaux canaux de la « démocratie continue », selon l’expression du juriste et professeur de droit constitutionnel Dominique Rousseau. Ces nouvelles formes de mobilisation et de contestation, si elles ont été facilitées par les technologies numériques, n’ont en revanche pas encore trouvé de « débouché démocratique », faute d’institutionnalisation. 
- 
-Même hétérogénéité du côté des droits et des libertés. « Les libertés d’expression, de communication et d’entreprendre, ou la propriété intellectuelle, ont gagné en puissance et ont parfois été redéfinies à l’aune des possibilités offertes par les nouvelles technologies. A l’inverse, le droit à la vie privée s’est trouvé considérablement affaibli », énumère Jade Meyrieu. De nouveaux droits ont même été créés pour garantir une meilleure sécurité juridique des citoyens dans un monde numérisé – protection des données personnelles, ou oubli numérique. Mais les possibilités offertes à la surveillance étatique par les nouvelles technologies ne cessent, quant à elles, d’alarmer des défenseurs des libertés. 
- 
-Si l’impact démocratique de ces technologies ne se situe ni du côté des institutions ni du côté des contestations, c’est qu’il est ailleurs – plus précisément, dans les conversations. « Les démocraties libérales sont des républiques, c’est-à-dire des régimes de “la chose publique”, rappelle Anne Alombert, philosophe et maîtresse de conférences à l’université Paris-VIII. Et pour que, dans nos sociétés, il y ait une chose publique, c’est-à-dire des affaires publiques, il faut qu’il y ait des technologies de publication permettant la circulation des informations et des symboles en leur sein. » Parce que ces technologies symboliques ou mnémotechniques structurent l’espace public, organisent le débat public et conditionnent la formation de l’opinion publique, « elles sont constitutives de la République et des régimes démocratiques », note la philosophe. 
- 
-Economie de l’attention 
-Pensées et édifiées à une époque où les technologies de publication étaient essentiellement littérales – c’est-à-dire que l’espace public était configuré par la circulation de textes via des supports manuscrits ou imprimés comme les lettres, les journaux ou les livres –, les démocraties libérales ont d’abord été mises à l’épreuve, au début du XXe siècle, par l’irruption des technologies analogiques – enregistrements phonographiques et photographiques, bientôt suivis par la radio et le cinéma. « Les institutions éducatives se sont peu adaptées à cette nouvelle donne technologique : la formation des futurs citoyens est restée centrée sur l’apprentissage de la lecture et de l’écriture, sans leur enseigner comment décrypter et critiquer les nouveaux formats des informations, note Anne Alombert. En particulier, la diffusion massive de la télévision à partir des années 1960, dont les techniques de production sont opaques au grand public, a diminué la capacité des citoyens à exercer leur esprit critique vis-à-vis des idées et des symboles qui circulent dans l’espace public, et les a donc rendus plus dépendants des pouvoirs politiques et médiatiques. » 
- 
-Dans ce contexte de domination de médias unidirectionnels (au sens où les récepteurs de l’information ne peuvent pas eux-mêmes en produire et en diffuser à leur tour), on comprend l’effervescence provoquée, dans les années 1990, par l’arrivée du Web 2.0, aussi appelé « Web participatif », celui des sites, des blogs et des forums. Car ce que nous appelons « nouvelles technologies », « technologies numériques », « technologies de l’information et de la communication » ou, plus simplement, la « tech » compte précisément au rang des technologies de publication, au même titre que l’écriture alphabétique, l’imprimerie ou la télévision. « Tout à coup, grâce à ces nouveaux médias numériques multidirectionnels, les publics vont être en capacité de produire eux-mêmes des contenus. On a eu raison de parler de démocratisation, d’horizontalisation : les citoyens lambda ont fait irruption dans l’espace médiatique », explique Anne Alombert. 
- 
-Comment, dès lors, expliquer le revirement des années 2010 (déjà mentionné) et la montée d’une forme de suspicion à l’égard de la force démocratique des technologies numériques ? « Les années 2010 correspondent à une nouvelle mutation à l’intérieur de ces médias numériques, avec le développement des réseaux sociaux commerciaux (comme Facebook, Twitter, TikTok) et des plateformes de contenus commerciales (comme YouTube, Netflix ou Spotify) », note la philosophe. Des structures dont le principe repose sur la recommandation algorithmique, qui va elle-même à l’encontre de la dynamique entamée précédemment. 
- 
-Chargés de sélectionner dans la masse des contenus publiés sur les plateformes pour en visibiliser quelques-uns – et en invisibiliser d’autres –, ces algorithmes et les critères selon lesquels ils opèrent sont, en effet, établis et gérés de manière opaque par les entreprises privées qui les possèdent. « Loin d’être des vecteurs d’horizontalité, les réseaux sociaux actuels présentent, en réalité, un fonctionnement extrêmement vertical, fait valoir Anne Alombert. Certes, tout le monde peut y publier, mais l’entreprise choisit ce qui sera vu et ce qui ne sera pas vu dans l’espace public qu’est la plateforme – ce qui pose un sérieux problème de pluralisme. L’expression y est de plus à la merci des intérêts privés, qu’ils soient économiques ou politiques. » Fondées sur une économie de l’attention, les plateformes ont de plus tendance à promouvoir les contenus les plus sensationnels et les plus polarisants, avec tous les effets politiques que l’on connaît – quand ces plateformes ne sont pas directement mises au service d’un agenda politique, comme le réseau X du milliardaire Elon Musk. 
- 
-Si les années 1990 avaient fait espérer à certains l’avènement d’un espace public libéré de ses figures régulatrices, les années 2010 ont donc signé leur retour en fanfare – et en pire. « Les anciens “gatekeepers” de la parole publique, c’est-à-dire les médias traditionnels, ont parfois vu leur influence décliner. Mais l’espace ainsi ouvert a rapidement été occupé, avec les grandes plateformes du numérique, par un pouvoir privé oligopolistique sur l’expression en ligne constitué d’une poignée d’entreprises américaines », analyse Sébastien Broca. 
- 
-Subversion du cadre de la discussion 
-La structuration actuelle des technologies numériques affecte le fonctionnement du débat public et la formation de l’opinion à un niveau plus profond encore, remarque Fred Turner, historien américain des médias et professeur de sciences de la communication à l’université Stanford. « Les vagues de révolutions des technologies de la communication, qui se sont succédé depuis le XIXe siècle, sont allées main dans la main avec des révolutions dans le milieu des transports. Le télégraphe courait le long des chemins de fer pour connecter l’est et l’ouest américains ; le cinéma et l’automobile se sont développés à la même période, tout comme la télévision s’est banalisée en même temps que le transport aérien. Ces nouveaux moyens de transport et de communication ont conjointement, et dramatiquement, réduit le temps et l’effort nécessaire aux individus pour se voir et se parler : soudain, le monde entier est devenu un seul et immense espace de délibération. » 
- 
-Une subversion du cadre de la discussion qui n’est pas sans conséquence. Sur le plan spatial, d’abord : si, jusqu’aux années 1980, l’espace public était constitué par des médias nationaux et des élites politiques nationales, ce cadre permettait sa régulation par l’Etat. En France, la massification de la télévision avait ainsi donné lieu, dans les années 1970 et 1980, à des législations encadrant le secteur de l’audiovisuel, par exemple avec des organismes comme le Conseil supérieur de l’audiovisuel ; ou encore à la création d’un service public audiovisuel ne fonctionnant pas selon la seule loi de l’Audimat et de l’audience, pour assurer une forme de pluralisme dans ces médias individuels. « Or, ce cadre spatio-juridique est aujourd’hui subverti, voire aboli, par la configuration techno-économique actuelle du numérique – c’est-à-dire la Big Tech, qui cherche et parvient souvent à échapper à toute réglementation », note Dominique Boullier, professeur émérite des universités en sociologie à Sciences Po. 
- 
-L’abolition des repères temporels pose d’autres problèmes. « L’espace public est censé être un espace de production de connaissances spécifiques, appuyé notamment sur un arrière-plan scientifique, et qui doit permettre à la discussion, à l’argumentation de se déployer. Cela prend du temps », explique Dominique Boullier. Or, le modèle technologique développé par les plateformes privilégie, pour des raisons publicitaires, la réactivité et la viralité. « Il permet certes l’expression et la participation de tout le monde, mais il ne débouche sur rien d’un point de vue politique : il n’a pas pour objectif la lente construction d’un intérêt général et d’un monde commun, mais la rapide génération de profits », alerte le sociologue. 
- 
-Et l’IA ? De l’avis des chercheurs, les agents conversationnels du type ChatGPT risquent de renforcer les difficultés déjà existantes. « Les IA génératives ajoutent à cette dispersion spatio-temporelle une dispersion du réel, de la réalité, voire de la vérité, ajoute Jade Meyrieu. On ne sait plus exactement, dans les informations qui circulent – qu’elles soient textuelles ou audiovisuelles –, ce qui relève du réel ou de l’irréel, de l’humain et de la machine. La perte de repères est donc plus importante qu’avec toutes les autres technologies qui ont précédé. » « L’IA opère une radicalisation des problèmes de pluralisme que l’on a depuis quelques années avec les grands réseaux sociaux commerciaux, relève, quant à lui, Sébastien Broca. Avec les LLM, le contrôle exercé par des entreprises comme OpenAI, DeepSeek ou Google sur le dicible et l’indicible, le visible et l’invisible, devient encore plus fort. » 
- 
-Effets potentiellement dévastateurs 
-Mais les agents conversationnels et les grands modèles de langage (LLM) sur lesquels ils reposent pourraient bien avoir des effets démocratiques propres – et potentiellement dévastateurs. « Les LLM produisent des réponses textuelles sur la base de calculs statistiques, ils ne vont pas “chercher” de l’information et présenter tous les résultats correspondants : les utiliser de la même manière qu’on utilise un moteur de recherche pose donc de graves problèmes de mésinformation, car les réponses composées par la machine peuvent être complètement fausses ou partiales », souligne Anne Alombert. Une tendance qu’ils peuvent également alimenter en servant d’outils pour la production et la diffusion de fausses informations à l’échelle industrielle. 
- 
-Surtout, la banalisation du recours aux agents conversationnels en lieu et place de la recherche Web pourrait engager un basculement cognitif important. En effet, chercher une information grâce à un moteur de recherche comme Google, DuckDuckGo ou Ecosia implique, pour naviguer, de mettre en forme ses pensées pour sélectionner les termes de la question les plus importants et en faire des mots-clés, d’évaluer les sites Web proposés en fonction de critères (de fiabilité, par exemple), de prendre des décisions et mobiliser sa mémoire pour naviguer de page en page, de juger de la qualité des informations proposées… Des facultés psychiques, mentales, intellectuelles que ne sollicitent pas les agents conversationnels, selon Anne Alombert : « ChatGPT apporte du prêt-à-penser et instaure un rapport non critique à l’information, un rapport de pur consommateur : l’utilisateur ne décide rien par lui-même. » Car si les prouesses des IA génératives sont souvent saluées, et les inquiétudes quant à l’émergence d’une « singularité » autonome souvent brandies, elles éclipsent les risques que fait peser l’usage le plus banal sur les capacités critiques des citoyens, et qui commencent à être documentés. « Il faut se demander à quoi servent ces logiciels, alerte Sébastien Broca. Qu’automatise-t-on ? Des compétences, comme la capacité à rechercher l’information pertinente, à l’organiser et à la traduire ensuite dans une réflexion argumentée. En s’habituant à utiliser ces outils, les citoyens risquent de perdre petit à petit ces compétences politiques. Là réside le danger pour une culture démocratique vivante. » 
- 
-S’il peut sembler paradoxal que la facilitation et la démultiplication de la conversation (entre humains via les réseaux sociaux et entre humains et machines via les agents conversationnels) puissent aujourd’hui affaiblir le débat public, les chercheurs rappellent que les effets des technologies dépendent moins de leurs propriétés techniques que des pouvoirs socio-économiques qui les déploient et les emploient. Finalement, « ce n’est pas la technologie qui m’inquiète, mais l’état des institutions démocratiques, avoue Fred Turner. Nous devons renforcer ces institutions pour pouvoir être, grâce à elles, en mesure de placer des limites humaines aux machines que nous développons ». Car, au fond, c’est bien l’état de santé des démocraties dans lesquelles les technologies se déploient qui détermine si ces dernières sont remède ou poison. 
- 
-Marion Dupont 
-</ifauth> 
-</hidden> 
× iphelper toolbox

you see this when javscript or css is not working correct

Untested
IP Address:
First usable:
Subnet:
Last usable:
CIDR:
Amount of usable:
Network address:
Reverse address:
Broadcast address: