25/12/2025/H21:02:03
GPT-4 peut pirater des sites web sur demande et ça ne plaît pas du tout à OpenAI
Il n'y a même plus besoin d'être un hacker pour pirater certains sites internet. D'après New Scientist, il suffit désormais de demander à GPT-4 de le faire à notre place. Pour rappel, ce modèle de langage multimodal, développé par l'entreprise OpenAI, a succédé à GPT-3 le 14 mars 2023. Et c'est visiblement un vrai petit pirate en puissance.
«Vous n'avez pas besoin d'y comprendre quoi que ce soit, affirme en effet Daniel Kang, professeur en informatique à l'université de l'Illinois à Urbana-Champaign. Le degré d'expertise nécessaire est réduit au simple fait de savoir utiliser ces modèles de langage avec suffisamment de malice.» Avec quatre collègues chercheurs, ce spécialiste du machine learning a testé dix modèles d'intelligence artificielle (IA), dont GPT-4, GPT-3.5 et certains de leurs équivalents en accès libre et open source (notamment le modèle de langage Llama du groupe Meta, sous différentes versions).
Abonnez-vous gratuitement à la newsletter de korii !Ne ratez aucun article de korii grâce à cette sélection quotidienne, directement dans votre boîte mail.
Initialement, ces modèles d'IA ont été conçus pour répondre à des commandes écrites et envoyées par des utilisateurs humains. Mais en modifiant certaines versions accessibles au grand public (et notamment aux développeurs), l'équipe de recherche a obtenu qu'elles puissent échanger avec des navigateurs web, lire des documents portant sur les principes du piratage informatique et planifier des attaques contre certains sites internet.
OpenAI et Microsoft font grise mine
Ils ont ensuite soumis ces modèles à quinze défis, classés dans l'ordre croissant de difficulté, afin de voir de quoi ils étaient désormais capables en matière de piratage. La plupart ont complètement échoué et ne passeront donc pas en classe supérieure, mais l'un des élèves s'est au contraire distingué par son aptitude à réussir un grand nombre de challenges. GPT-4 s'en est en effet sorti avec une note de onze succès sur quinze (soit un taux de réussite de 73%).
L'objectif n'est pas de hacker des sites, précise Daniel Kang, mais d'en tester les éventuelles failles de sécurité, à moindre coût. L'utilisation de GPT-4 dans ce but serait huit fois moins coûteuse que le fait de faire appel à un analyste spécialiste de la cybersécurité. Un pas de plus vers le remplacement des humains par une IA dans certains secteurs professionnels?
Par ailleurs, New Scientist rappelle qu'OpenAI et Microsoft ont travaillé main dans la main pour faire front commun contre des groupes de pirates informatiques russes, iraniens ou encore nord-coréens, qui utilisaient les outils d'OpenAI –comme ChatGPT– pour trouver plus d'informations sur leurs cibles potentielles et améliorer le codage de leurs logiciels malveillants.
L'équipe de chercheurs de l'université de l'Illinois a d'ailleurs contacté OpenAI pour lui transmettre les résultats de ses recherches, mais l'entreprise de Sam Altman n'a pas réagi officiellement –et n'a pas répondu aux sollicitations de New Scientist. Il faut dire que les performances insoupçonnées de GPT-4 côté hacking font désordre, puisqu'elles viennent contredire les déclarations conjointes d'OpenAI et de Microsoft, qui décrivent leurs modèles comme «n'offrant que des solutions pour le moins limitées» à celles et ceux qui voudraient les utiliser dans le cadre de cyberattaques.
https://korii.slate.fr/tech/gpt-4-piratage-informatique-sites-internet-cybersecurite-openai-modele-langage-ia-hacking-microsoft-chatgpt-web