Les LLM (Large Language Models) sont désormais au cœur de nombreux services numériques. Présents dans les assistants, les outils de rédaction et l’automatisation de tâches, ces modèles transforment notre quotidien professionnel et personnel. Mais cette popularité croissante révèle un nouveau risque : le LLMjacking.
Le terme LLMjacking désigne le détournement illégal de modèles d’intelligence artificielle. Concrètement, des cybercriminels exploitent des modèles d’IA accessibles sur internet, souvent mal sécurisés, afin d’utiliser leur puissance de calcul ou leurs fonctionnalités à des fins frauduleuses. Contrairement aux attaques classiques, leur objectif n’est pas toujours de détruire ou de bloquer un système. Mais, il s’agit plutôt d’exploiter discrètement l’IA, pour en tirer un profit économique.
Le principe est relativement simple. Des outils automatisés parcourent le web à la recherche de points d’accès à des modèles d’IA exposés. Ils ciblent précisément des API ouvertes ou des interfaces sans authentification. Une fois un accès fonctionnel identifié, il peut être exploité directement ou revendu à d’autres acteurs sur des marchés parallèles.
“Bizarre Bazaar”, un exemple concret de LLMjacking
Les IA ainsi détournées peuvent être exploitées à plusieurs fins. Elles peuvent ainsi servir à la génération massive de contenus ou au traitement de requêtes complexes. Ils peuvent également servir pour l’exploitation de données ou à la fourniture d’un accès « clé en main » à des modèles normalement payants.
Des chercheurs en cybersécurité de Pillar Security ont récemment documenté une campagne baptisée «Opération Bizarre Bazaar». Elle a permis de mettre en évidence des dizaines de milliers de tentatives d’exploitation de modèles d’IA exposés sur une courte période. Selon le magazine securityweek.com, Pillar a observé plus de 35 000 sessions d’attaques associées à cette opération, soit une moyenne de 972 attaques par jour. Ce cas illustre que le LLMjacking n’est plus théorique. Il est déjà exploité à grande échelle, avec des méthodes organisées et une logique de monétisation.
Les conséquences du LLMjacking sont multiples. Pour les organisations, cela peut entraîner des coûts élevés, une surconsommation de ressources informatiques, voire des risques de fuite de données. Et pour l’écosystème numérique global, c’est un signal que les infrastructures d’IA sont devenues une nouvelle surface d’attaque.
L’IA n’est clairement plus seulement un outil d’innovation, c’est aussi un actif à protéger.Les modèles d’IA doivent désormais être sécurisés au même titre que les bases de données ou les serveurs critiques.














































