Publié le 18/04/25 à 14h42
2
Jouer à GeoGuessr avec l'IA générative ? C’est la dernière lubie qui agite X (ex-Twitter). Des internautes soumettent des photos anodines à ChatGPT, qui devine villes, bars ou restaurants à partir de détails minuscules. Mais l’outil flirte dangereusement avec l’intrusion.
Publicité, votre contenu continue ci-dessous Publicité
Reverse location : la nouvelle fonction virale (et dangereuse) de ChatGPT
© Shuttershock
Et si une photo anodine permettait à une intelligence artificielle de localiser précisément où vous étiez ? C’est le jeu dangereux auquel se prêtent de nombreux internautes depuis l’arrivée des modèles o3 et o4-mini d’OpenAI. Une tendance virale qui inquiète autant qu’elle fascine, peu de temps après le raz-de-marée d'images Ghibli.
Publicité, votre contenu continue ci-dessous
Depuis qu’OpenAI a dévoilé ses nouveaux modèles o3 et o4-mini, dotés d’une compréhension avancée des images, les internautes explorent leurs capacités avec un enthousiasme parfois inquiétant. L'IA générative ne se contente pas de reconnaître ce qu’il y a sur une photo : elles en déduisent ce qui n’est pas immédiatement visible. Angle de prise, style architectural, détails typographiques… tout est exploité pour remonter jusqu’à un lieu précis.
Les images floues, inclinées ou partielles ne leur posent pas de problème majeur. Mieux (ou pire) encore, ces modèles n’ont pas besoin d’EXIF (les métadonnées des images) pour faire mouche. Une devanture de bar, un coin de rue ou même un menu suffisent à aiguiller l’algorithme.
Certains s’amusent à transformer ChatGPT en champion de GeoGuessr, le jeu qui consiste à deviner une localisation à partir d’images Street View. Et ça marche : dans plusieurs cas, le modèle a deviné le bon quartier… voire le bon établissement.
o3 is insane I asked a friend of mine to give me a random photo They gave me a random photo they took in a library o3 knows it in 20 seconds and it's right pic.twitter.com/0K8dXiFKOY— Yumi (@izyuuumi) April 17, 2025
Mais derrière le gadget amusant se profile une réalité bien plus sérieuse. La possibilité de faire du “reverse location lookup” ouvre la porte à des usages abusifs. Rien n’empêche un inconnu de soumettre la photo d’une story Instagram ou d’un portrait pour tenter d’identifier le lieu — et, par ricochet, la personne. Une forme de doxxing automatisé, rendue accessible au grand public.
OpenAI affirme avoir mis en place des garde-fous pour éviter l’identification de personnes privées ou sensibles… Mais la prudence est de mise. Car même sans intention malveillante, ces nouvelles capacités remettent sur le devant de la scène la question brûlante : jusqu’où peut-on (ou doit-on) aller dans la reconnaissance contextuelle des images par l’IA ?
Publicité, votre contenu continue ci-dessous
Suivez toute l'actualité des Numériques sur Google Actualités et sur la chaîne WhatsApp des Numériques
Publications qui peuvent vous intéresser
1
OpenAI muscle ChatGPT avec trois nouveaux modèles d'intelligence artificielle
Hier à 11:42
1
Copilot Vision : Microsoft introduit une IA qui “voit” ce que vous affichez dans Edge
Hier à 10:55
La guerre est déclarée entre Apple et Meta : Apple Intelligence bannie de Facebook, WhatsApp et Instagram
Hier à 07:00
OpenAI préparerait un réseau social inspiré de X
il y a 2 jours
Google, les dauphins et l’IA : le pari fou de la communication interespèce
il y a 2 jours
2
Avec Opera Browser Operator, nous avons vu en direct le futur du web
il y a 2 jours
1
Adieu Clippy, bonjour Copilot : l'IA révolutionne l'utilisation de Word, Excel, PowerPoint et Outlook
il y a 2 jours
5
Comment créer une présentation PowerPoint complète avec l'intelligence artificielle
il y a 5 jours
Galaxy AI : laissez votre smartphone Samsung rédiger vos messages et résumer vos notes
il y a 9 jours
Avec ses nouveaux modèles, ChatGPT localise des endroits à partir d’images. Une capacité qui pose question.
ChatGPT, avec ses nouveaux modèles o3 et o4-mini, est encore au coeur d’une polémique.
Cette IA, développée par OpenAI, ne se contente plus de répondre à des questions ou de rédiger des textes. Elle peut désormais analyser une simple photo et deviner avec une précision bluffante l’endroit exact où elle a été prise. Une prouesse technologique qui fascine autant qu’elle inquiète. Sur les réseaux sociaux, les utilisateurs s’amusent à tester cette fonctionnalité, mais derrière cet aspect ludique se cachent des questions sérieuses sur la protection de notre vie privée.
Une IA qui voit (presque) tout
Les nouveaux modèles de ChatGPT ont fait un bond en avant dans ce qu’on appelle le raisonnement visuel. En gros, l’IA peut analyser une image comme un détective chevronné.
Notre exemple que vous pouvez consulter ici, vous pouvez consulter les détails de la « réflexion »
Elle repère des détails qui nous échappent souvent : l’architecture d’un bâtiment, le style d’un panneau de signalisation, la végétation environnante ou même le design d’un banc public. Grâce à ces indices, elle peut identifier des lieux précis, parfois jusqu’au quartier ou à la rue près.
Notre exemple que vous pouvez consulter ici, vous pouvez consulter les détails de la « réflexion »
Cette capacité repose sur des algorithmes avancés qui combinent reconnaissance d’image et bases de données géographiques. L’IA zoome, recadre, fait pivoter l’image pour mieux analyser les détails. C’est un peu comme si elle jouait à GeoGuessr, ce jeu en ligne où il faut deviner des lieux à partir d’images aléatoires, mais en version ultra-performante.
Notre exemple que vous pouvez consulter ici, vous pouvez consulter les détails de la « réflexion »
Sur X, le youtubeur Brendan Jowett a partagé des exemples impressionnants. Dans une de ses publications, il montre comment ChatGPT localise un bar précis à partir d’une photo banale. « Cette IA peut deviner votre position avec une seule image », écrit-il, en soulignant sa capacité à repérer des détails minuscules pour identifier des villes, des monuments ou même des commerces. De quoi épater la galerie, mais aussi faire réfléchir.
Une technologie à double tranchant
Si cette fonctionnalité est fascinante, elle soulève des questions épineuses, notamment sur la confidentialité. Imaginez qu’une photo anodine, postée sur les réseaux sociaux, soit utilisée pour retrouver l’endroit exact où vous vous trouvez. Cela peut ouvrir la porte à des pratiques comme le doxing, c’est-à-dire la diffusion publique d’informations privées, comme votre lieu de résidence, souvent avec des intentions malveillantes. Ce genre de scénario fait froid dans le dos.
OpenAI est conscient du problème. L’entreprise a publié une déclaration expliquant qu’elle travaille à limiter les risques. Par exemple, elle entraîne ses modèles à refuser les demandes qui pourraient révéler des informations sensibles. Mais comme souvent avec la technologie, les utilisateurs malins trouvent des moyens de contourner ces garde-fous. Et même si ChatGPT n’est pas infaillible – il arrive qu’il se trompe sur un lieu –, sa précision reste suffisamment inquiétante pour qu’on s’interroge.
Ce n’est pas la première fois qu’une IA pose ce genre de dilemme. Selon TechCrunch, la capacité de localisation de ChatGPT n’est pas totalement nouvelle. Des versions précédentes, comme GPT-4o, pouvaient déjà fournir des réponses correctes dans de nombreux cas, mais les nouveaux modèles o3 et o4-mini ont amplifié cette compétence et attiré l’attention du grand public. Résultat : les réseaux sociaux s’enflamment.
OpenAI affirme qu’elle prendra des mesures si des abus sont détectés, comme des tentatives d’utiliser ChatGPT pour traquer des personnes. Mais la balle est aussi dans le camp des utilisateurs. En partageant des photos en ligne, on doit être conscient que des outils comme ChatGPT peuvent en extraire bien plus d’informations qu’on ne l’imagine.
Notre émission Twitch SURVOLTÉS, c’est un mercredi sur deux de 18h à 20h : retrouvez-nous pour parler voiture électrique ou vélo électrique, autour de débats, d’interviews, d’analyses et de jeux !
https://www.frandroid.com/actualites-generales/2588531_cette-ia-peut-deviner-votre-position-avec-une-seule-image-chatgpt-et-ses-pouvoirs-inquietants
you see this when javscript or css is not working correct