Utilisateur non connecté
"Impossible à différencier" : face à l'IA, le président d'Instagram avoue son impuissance et prend une décision radicale [ElseNews]

Outils pour utilisateurs

Outils du site


elsenews:spot-2026:01:instagram-et-fakes

"Impossible à différencier" : face à l'IA, le président d'Instagram avoue son impuissance et prend une décision radicale

max6
ben tiens « c’est pas moi c’est l’autre » et comme cela que de fric économisé sur la surveillance. Si les mensonges passent c’est à cause des fabricants et des métadonnées comme si elles ne pouvaient pas aussi être insérées dans un fichiers. Comme c’est pratique et tellement META
Doug
C’est devenu infernal à un point que je vais tout simplement quitter les réseaux sociaux vu que de toutes manières il n’y a plus que du fake-IA. C’est pas un mal finalement.
PEPSIMAX
Je me suis fais encore avoir sur YT avec une video assez anodine avec des êtres humains à priori mais elle était totalement générée par IA. D’autres sont créées par de jeunes createurs qui sont filmé dans une situation…Par exemple dans un supermarché en train de gueuler à la caisse et c’était un chat habillé en caissier…Bon je me suis « amusé » a tenter de démasquer les videos IA sur les shorts qui m’étaient proposé et le pourcentage était selon moi de pas loin de la moitié. Sans compter les chaines musicales montées de toutes pièces…etc…Perso et cela ne regarde que moi, je vais vraiment déserter les réseaux sociaux…Je retourne lire des bouquins de vieux auteurs humains, relire des BD humaines, revoir d’anciennes séries humaines, aller sur des blogs où je sais que l’humain a écrit le texte. l’IA c’est comme les impôts, Trop d’IA va-t-elle tuer l’IA ?
bxl14115
C’est la seule solution décente. C’est comme les mails avec l’avènement du spam puis le phishing/…, il faut tout considérer comme frauduleux et faire le tri soi-même pour n’en retirer que ce qui nous parait être bon (pas toujorus évident depuis l’IA) Idem pour les vidéos/shorts, considérer que tout est faux et faire ensuite sa propre opinion en recoupant l’information. Perso j’ai lâché les réseaux sociaux depuis belle lurette, marre de me faire partager les fonds d’assiettes et autres conneries…
promeneur001
Sur youtube, ça y va, ça y va. Les vidéos d’animaux secourus, les vidéos de chat, de chien. Des chaînes à vocation pédagogique pour diffuser la science. Dernièrement je suis tombé sur une chaîne qui reprend le discours d’Étienne Klein, remaché,synthétisé pour en faire de la pédagogie. On voit le visage de Klein (plutôt, on devine, c’est mal fait), sa voix (mal faite) faire un cours sur un sujet donné. C’est pas mal. C’est court pour ceux qui ne veulent pas passer 1 h - 1 h 30. Dans la présentation de la chaîne, il y a bien un avertissement sur l’objectif et que c’est de l’IA. Mais il devrait mettre cet avertissement en tête de chaque vidéo. J’ai remarqué un titre p*te à click « pourquoi il est impossible qu’on soit allé sur la lune » pour une vidéo expliquant comment on a réussi à y aller !
Blap
Tu peux aussi modifier ton algorithme pour ne plus avoir de videos comme ca. Je n’en ai littéralement aucune sur mon fil car ce que je regarde ne s’y prete pas du tout. Aussi plus tu en regardes plus tu en auras.
LeLapinou64
Ou est passé le fameux « filigrane » qui était sensé permettre de différencier de manière certaine un objet issue d’une génération via IA, d’un objet qui ne l’est pas ?
Korgen
La vraie solution serait de supprimer automatiquement toute publication ia et bannir quiconque la publie. Radical mais efficace contre la prolifération de ces m.rdes.
MattS32
Les générateurs n’intègrent pas tous un filigrane (y a aucune obligation légale, et quand bien même ça serait le cas, t’en aurais toujours pour ne pas la respecter) et il y a des outils pour les faire sauter.
Et en un certain sens, c’est mieux comme ça je trouve : ça oblige à considérer que toute image peut être une fausse, et donc a réfléchir et vérifier systématiquement, alors que si la plupart des contenus IA étaient filigranés, les quelques uns qui ne le seront pas, et en général pour des mauvaises raisons (volonté de tromper) passeraient plus facilement pour vrais…
La seule solution viable est effectivement de mettre plutôt en place des dispositifs permettant de certifier la véracité, avec des signatures numérique intégrées dès la captation et propagées lors de tout le processus de traitement, permettant ainsi de certifier l’origine.
Par exemple, pour les photos, on pourrait imaginer que l’appareil photo produise en plus de l’image de définition réduite et en noir et blanc, signée numériquement pour ne pas pouvoir être modifiée, suffisamment grande pour permettre de vérifier que la « sémantique » de la photo n’a pas été trafiquée et suffisamment petite pour qu’elle ne puisse pas être utilisée à la place de la version publiée de la photo (un photographe n’apprécie souvent pas que ses raw soient publiés et utilisés).
Le même mécanisme pourrait être appliqué à la vidéo, avec les mêmes réductions de définition et de couleur, et, par exemple, une image sur 5.
kroman
Il faut éviter les Short sur YT. C’est plus de 25% d’IA
https://www.clubic.com/actualite-593314-impossible-a-differencier-face-a-l-ia-le-president-d-instagram-avoue-son-impuissance-et-prend-une-decision-radicale.html


"L'authenticité devient infiniment reproductible": le patron d'Instagram s'inquiète des contenus générés par IA sur les réseaux sociaux

À l'occasion du Nouvel An, Adam Mosseri a fait part de ses inquiétudes sur les contenus générés par IA, qui sont très présents sur les réseaux sociaux, prévenant que l'authenticité se fera de plus en plus rare.
En 2025, les contenus générés par IA ont envahi les réseaux sociaux, rendant encore plus difficile de distinguer le vrai du faux. Et, contrairement à Mark Zuckerberg, qui croit dur comme fer à cette technologie, cela inquiète le patron d'Instagram, Adam Mosseri. À l'occasion du Nouvel An, il a partagé ses préoccupations pour le réseau social qu'il gère et bien plus.
“Le principal risque pour Instagram est que, face à un monde en constante évolution, la plateforme ne parvienne pas à suivre le rythme. À l'horizon 2026, un changement majeur se dessine: l'authenticité devient infiniment reproductible”, commence-t-il son message, publié sur Instagram.
“Tout ce qui faisait la force des créateurs - la possibilité d'être authentiques, de créer du lien, d'avoir une voix inimitable - est désormais accessible à tous grâce aux outils adéquats. Les deepfakes s'améliorent. L'IA génère des photos et vidéos indiscernables des médias authentiques”, poursuit Adam Mosseri.
Un changement “déstabilisant”
Des outils d'IA comme Grok sur le réseau social X, Vibes de Meta ou Sora 2 d'OpenAI permettent en effet aux internautes de générer des images et des vidéos simplement à partir d'une requête. Disponible depuis fin septembre, le second a d'ailleurs rapidement fait polémique avec des contenus violant la propriété intellectuelle et d'autres incluant des personnalités historiques comme Martin Luther King, ainsi que d'autres célébrités, sans leur autorisation.
À cause de ces outils, les internautes ne penseront plus automatiquement qu'une image ou une vidéo partagée sur les réseaux sociaux est réelle, mais se montreront sceptiques, estime le patron d'Instagram.
“Il faudra désormais prêter attention à qui partage du contenu et pourquoi. Cela risque d'être déstabilisant: nous sommes génétiquement prédisposés à croire ce que nous voyons”, met-il en garde.
Cela, car même si l'IA peut créer des contenus médiocres, ce n'est pas le cas de tous. “Même ces contenus de qualité ont un aspect particulier: trop lissés, la peau trop lisse. Cela va changer: on verra des contenus IA plus réalistes”, prévient Adam Mosseri. Raison pour laquelle, selon lui, l'authenticité va devenir de plus en plus rare. Il ne faudra ainsi plus se demander “sais-tu créer?”, mais plutôt “sais-tu créer quelque chose que toi seul pourrais créer?”, d'après lui.
Trouver une solution
À l'heure où l'IA peut corriger les imperfections dans les photos et les vidéos, celles qui ne sont pas parfaites, en étant floues ou peu flatteuses par exemple, sont un signe d'authenticité. Mais selon Adam Mosseri, cela ne va pas durer car un jour, cette technologie sera capable de générer des contenus à l'esthétique imparfaite et qui pourront donc être considérer comme réels par certains.
En attendant, le patron d'Instagram reproche aux fabricants d'appareils photo de miser “sur la mauvaise esthétique”, en permettant à n'importe qui de “ressembler à un photographe professionnel de 2015”. “Mais dans un monde où l'IA peut générer des images impeccables, l'aspect professionnel devient un signe révélateur”, souligne-t-il.
Face à la menace que les images et vidéos créées par IA représentent, Adam Mosseri évoque une solution qui n'est pas nouvelle: l'étiquetage. Les fabricants d'appareils photo seront par exemple amenés à signer cryptographiquement leurs images pour prouver qu'il s'agit de véritables clichés. Dans le même temps, les réseaux sociaux seront capables d'identifier les contenus produits par l'IA, “mais leurs peformances se dégraderont avec le temps, à mesure que l'IA progressera”, admet le patron d'Instagram.
Il reconnaît par ailleurs que l'étiquetage n'est qu'une partie de la solution. Il juge ainsi nécessaire, plus tard, de fournir davantage d'informations sur les comptes partageant du contenu sur les plateformes, afin de permettre aux utilisateurs de prendre des décisions éclairées. “Nous devons développer les meilleurs outils créatifs (…) Mettre en avant les signes de crédibilité concernant les auteurs des publications. Continuer d'améliorer le classement basé sur l'originalité. Instagram va devoir évoluer rapidement et sur de nombreux plans”, conclut-il.
https://www.bfmtv.com/tech/instagram/l-authenticite-devient-infiniment-reproductible-le-patron-d-instagram-s-inquiete-des-contenus-generes-par-ia-sur-les-reseaux-sociaux_AV-202601010269.html

× iphelper toolbox

you see this when javscript or css is not working correct

Untested
IP Address:
First usable:
Subnet:
Last usable:
CIDR:
Amount of usable:
Network address:
Reverse address:
Broadcast address:

elsenews/spot-2026/01/instagram-et-fakes.txt · Dernière modification: 03/01/2026/H14:51:05 (modification externe)